¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercio y Venta al Detalle
7Comercial y Ventas
5Adminstración y Secretariado
4Informática e IT
4Transporte y Logística
4Ver más categorías
Derecho y Legal
3Publicidad y Comunicación
3Construcción
2Ingeniería y Mecánica
2Instalación y Mantenimiento
2Marketing y Negocio
2Alimentación
1Contabilidad y Finanzas
1Cuidados y Servicios Personales
1Desarrollo de Software
1Educación y Formación
1Farmacéutica
1Industria Manufacturera
1Recursos Humanos
1Sanidad y Salud
1Seguridad
1Agricultura
0Arte, Moda y Diseño
0Artes y Oficios
0Atención al cliente
0Banca
0Ciencia e Investigación
0Deporte y Entrenamiento
0Diseño y Usabilidad
0Editorial y Medios
0Energía y Minería
0Hostelería
0Inmobiliaria
0Producto
0Seguros
0Social y Voluntariado
0Telecomunicaciones
0Turismo y Entretenimiento
0Data Analyst
7 mar.Akkodis
Valladolid, ES
Data Analyst
Akkodis · Valladolid, ES
API Python Agile TSQL Scrum Scala Kanban Spark
Desde AKKODIS seleccionamos para nuestro equipo de Valladolid, un/a Data Analyst para trabajar con un importante cliente del sector Automoción
Colaborarás en el día a día con equipos de negocio así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y reales), procesamiento de tiempo y llamadas a APIs para, entre otras cosas, potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).
¿Cuáles serán tus funciones?
Participar en las fases de formulación, MVP y lanzamiento de productos, servicios y API orientados a datos;
Argumentar las elecciones arquitectónicas de los proyectos y la plataforma datalake en GCP;
Contribuir al valor comercial de los productos orientados a datos basados en Datalake, mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS;
Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos de la nube;
Proponer estándares de arquitectura y desarrollo;
Ser proactivo, innovador y solidario.
Requisitos
Experiencia en desarrollo Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos
Apetito por los datos: validación, transformación, análisis, valorización
Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente
Práctica de metodología ágil (Agile Scrum y/o Kanban)
Haber utilizado servicios en la nube (preferiblemente GCP)
Capacidad para comunicarse en inglés técnico oral y escrito