¡Oportunidad! Menos de 10 candidatos inscritos.
Creación, automatización y gestión de los flujos de procesamiento de datos (tanto en lotes como en tiempo real) y la puesta en marcha de modelos de aprendizaje automático para su uso en producción.
El/la candidato/a seleccionado/a deberá cumplir los siguientes requisitos:
Experiencia necesaria en la implementación y gestión de herramientas de big data en las instalaciones (preferentemente Kafka, MQTT, Spark...), habilidad en la automatización de flujos de datos de entrada y procesamiento (Kafka Streams, Spark Streaming, Flink...), conocimiento en bases de datos tanto relacionales como no relacionales (preferentemente MongoDB).
Valorable experiencia en MLOps, datalakes.
Nunca envíes tu información personal (DNI, foto,...), datos bancarios ni realices ningún pago para solicitar un empleo