Colaborarás en el día a día con equipos de negocio así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y reales), procesamiento de tiempo y llamadas a APIs para, entre otras cosas, potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).
¿Cuáles serán tus funciones?
Participar en las fases de formulación, MVP y lanzamiento de productos, servicios y API orientados a datos;
Argumentar las elecciones arquitectónicas de los proyectos y la plataforma datalake en GCP;
Contribuir al valor comercial de los productos orientados a datos basados en Datalake, mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS;
Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos de la nube;
Proponer estándares de arquitectura y desarrollo;
Ser proactivo, innovador y solidario.
Requisitos
Experiencia en desarrollo Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos
Apetito por los datos: validación, transformación, análisis, valorización
Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente
Práctica de metodología ágil (Agile Scrum y/o Kanban)
Haber utilizado servicios en la nube (preferiblemente GCP)
Capacidad para comunicarse en inglés técnico oral y escrito
Veure més
No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araDarreres ofertes d'ocupació de Analista de Dades a Valladolid
Iberian Ventures
Valladolid, ES