MySQL Python TSQL AWS PostgreSQL Kafka Spark Teletrabajo

Funciones: Diseñar e implementar data pipelines para ingerir datos heterogéneos en el datalake/datawarehouse en diferentes escenarios (batch, streaming,...), gestionando conjuntos de datos grandes y complejos. Garantizar la exactitud y corrección de...
Funciones:
Diseñar e implementar data pipelines para ingerir datos heterogéneos en el datalake/datawarehouse en diferentes escenarios (batch, streaming,...), gestionando conjuntos de datos grandes y complejos. Garantizar la exactitud y corrección de los datos. Crear componentes de software personalizados y aplicaciones de análisis. Desarrollar la preparación de datos para ser utilizados para diferentes propósitos y casos de uso: informes, aprendizaje automático, intercambio de datos,... e identificar oportunidades para la adquisición de datos. Explorar formas de mejorar la calidad y confiabilidad de los datos. Integrar las tecnologías emergentes de ingeniería de software y gestión de datos en las estructuras de datos existentes. Utilizar procesos ágiles de desarrollo de software para realizar mejoras de forma iterativa en los sistemas back-end.

Requisitos:

• Fuerte conocimiento de Python y SQL
• Fuerte conocimiento en Airflow o herramientas de orquestación similares como Dagster.
• Experiencia con bases de datos SQL relacionales como MySQL o PostgreSQL.
• Experiencia en GCP (Bigquery, PubSub, Dataflow, GCS, Dataproc) o AWS
• Experiencia en técnicas de desarrollo de integración continua.
• Conocimiento en frameworks para desarrollo de pipelines en Batch/streaming: Apache Beam, Spark.
• Experiencia previa y comprobada en ingeniería de datos o ingeniería de software en torno a soluciones de datos en arquitecturas de datos modernas.
• Nivel de educación/certificados Licenciatura o nivel de título de ingeniería o superior
• Idiomas Dominio escrito y verbal del idioma inglés (obligatorio)

Deseable:
• Buen conocimiento de otros lenguajes de programación, como Java/Kotlin.
• Conocimiento en frameworks de streaming como Kafka.
• Habilidades de desarrollo de software.

Imprescindible inglés alto, C1.
50% teletrabajo. Necesaria residencia en Barcelona.

¡No te pierdas nada!

Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo


Nunca compartiremos tu email con nadie y no te vamos a enviar spam

Suscríbete Ahora

Últimas ofertas de empleo de Ingeniero/a de Datos en Barcelona

Serem

En serem estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.

CAS TRAINING

We are looking for an experienced DevOps Engineer to join our DataHub team within the DataHub DevOps team related to an...

DevOps Engineer

27 sept.

Krell Consulting & Training

Nos encontramos en la búsqueda de un/a DevOps para trabajar con importante cliente en contratación inicial con KRELL.

Krell Consulting & Training

Barcelona, ES

KRELL Consulting, selecciona para contratar, un/a DevOps Engineer-AWS, para trabajar con importante proyecto y siguientes...

CAS TRAINING

Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises. Experiencia en el...

Data Engineer

17 sept.

Stay Unique

¡Únete a Stay U-nique y sé parte de una experiencia única en Sevilla! 🌟 Somos Stay U-nique, una empresa líder en la...

Michael Page

Barcelona, ES

Perfil buscado (Hombre/Mujer) As a Head of Data Engineer, you will have the following responsibililties: · Lead the Data...

Bcnc Group

Barcelona, ES

BCNC GROUP es una empresa de ingeniería y tecnología con operaciones en España, Reino Unido, Alemania, Francia y Suecia.

Serem

Barcelona, ES

En Serem estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.

Krell Consulting & Training

En Krell-Consulting, buscamos un Engineer (DevOps/ SPARK /Kafka), para unirse a nuestro equipo, para importante proyecto...