Colaborarás en el día a día con equipos de negocio así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y reales), procesamiento de tiempo y llamadas a APIs para, entre otras cosas, potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).
¿Cuáles serán tus funciones?
Participar en las fases de formulación, MVP y lanzamiento de productos, servicios y API orientados a datos;
Argumentar las elecciones arquitectónicas de los proyectos y la plataforma datalake en GCP;
Contribuir al valor comercial de los productos orientados a datos basados en Datalake, mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS;
Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos de la nube;
Proponer estándares de arquitectura y desarrollo;
Ser proactivo, innovador y solidario.
Requisitos
Experiencia en desarrollo Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos
Apetito por los datos: validación, transformación, análisis, valorización
Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente
Práctica de metodología ágil (Agile Scrum y/o Kanban)
Haber utilizado servicios en la nube (preferiblemente GCP)
Capacidad para comunicarse en inglés técnico oral y escrito
Ver más
¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraÚltimas ofertas de empleo de Analista de Datos en Valladolid
Iberian Ventures
Valladolid, ES