Subdir InformesCountry: Mexico**WHAT YOU WILL BE DOING****Requisitos**:- Experiência con herramientas de big data: Hadoop, Spark, Kafka, etc.- Experiência con bases de datos relacionales SQL y NoSQL, incluyendo Cassandra.- Experiência con servicios en la nube de AWS- Experiência con lenguajes orientados a objetos: Python, Java, C++, Scala, etc.- Experiência con lenguajes analíticos SAS, R- Conocimiento avanzado en SQL y experiência en el trabajo con bases de datos relacionales, creación de consultas (SQL), así como familiaridad en el trabajo con una variedad de bases de datos.- Experiência en la creación y optimización de pipelines, arquitecturas y conjuntos de datos de "big data".- Fuertes habilidades analíticas relacionadas con el trabajo con conjuntos de datos estructurados y no estructurados.- Crear procesos que admitan la transformación de datos, las estructuras de datos, los metadatos, la dependencia y la gestión de la carga de trabajo.- Proyectos exitosos de manipulación, procesamiento y extracción de valor de grandes conjuntos de datos.- Sólidas habilidades lidereando y gestionando proyectos.- Experiência apoyando y trabajando con equipos multifuncionales en un entorno dinámico.**Funciones**:- Crear y mantener una arquitectura de canalización de datos óptima,- Reunir conjuntos de datos grandes y complejos que cumplan con los requisitos comerciales funcionales y no funcionales.- Identificar, diseñar e implementar mejoras de procesos internos: automatización de procesos manuales, optimización de entrega de datos, rediseño de infraestructura para mayor escalabilidad, etc.- Crear la infraestructura necesaria para una extracción, transformación y carga óptimas de datos de una amplia variedad de fuentes de datos utilizando las tecnologías de 'big data' de SQL y AWS.- Crear herramientas de análisis que utilicen la canalización de datos para proporcionar información procesable sobre el negocio, la eficiencia operativa y métricas clave de riesgos Estructurales y ALM.- Trabajar con las partes interesadas, incluidos los equipos ejecutivos, de productos, de datos y de diseño, para ayudar con los problemas técnicos relacionados con los datos y respaldar sus necesidades de infraestructura de datos.- Procurar el data quality y consistencia de los datos en todo el pipeline de los datos.- Crear herramientas de datos para los miembros del equipo de negocio, de análisis y científicos de datos que los ayuden a construir y optimizar los análisis y las métricas de riesgo y gestión para la mejor toma de decisiones.- Trabajar con expertos en datos y análisis para luchar por una mayor funcionalidad en nuestros sistemas de datos.