Objetivo del Cargo:
Diseñar, construir, ejecutar, monitorear y mantener pipelines de datos en la nube u on premise asegurando la calidad e integridad de los mismos para el procesamiento, transformación y generación de modelos/motores de análisis para ML o BI.
**Requisitos**:
Ingeniería en Ciencias Computacionales, Tecnologías de Información o afín;
Tecnicos 1-3 años:
Diseño, construcción y mantenimiento de pipelines (arquitecturas) de datos para ML o BI;
Monitoreo y control del flujo de datos, así como construcción y captura de nuevos flujos o campos de datos (ingeniería de variables)
3 años:
Soporte de procesos de extracción, transformación y carga de datos en bases de datos relacionales y no relacionales
1 a 3 años:
Exploración, análisis y generación de valor en bases de datos masivas (Big Data)
Certificaciones deseables:
AWS Cloud
SQL
Funciones:
*Encargado de asegurar y definir e implementar un flujo de datos desde su origen hasta su explotación de una forma controlada y automatizada.
*Experiência en el diseño, desarrollo y mantenimiento de los sistemas de procesamiento de datos dentro de un proyecto big data.
*HBASE, Cassandra o MongoDb
*Uso de motores de indexación como SolR o ElasticSearch
streaming, como Flume, Kafka o Spark Structured Streaming.
*Java, Scala o Kotlin para el desarrollo de procesos de tratamiento de datos
Y Python como lenguaje para el análisis y preparación previa de los datos y otras tareas de soporte al proceso de los mismos.
*Conocer las técnicas y herramientas habituales hoy en día para el desarrollo de aplicaciones git, metodologías ágiles, etc?
*Desarrollo de aplicaciones nativas para la nube.
- Conocer las diferencias entre el desarrollo de aplicaciones locales y basadas en la nube es necesario para realizar este movimiento con seguridad.