MySQL Python TSQL AWS PostgreSQL Kafka Spark Teletreball

Funciones: Diseñar e implementar data pipelines para ingerir datos heterogéneos en el datalake/datawarehouse en diferentes escenarios (batch, streaming,...), gestionando conjuntos de datos grandes y complejos. Garantizar la exactitud y corrección de...
Funciones:
Diseñar e implementar data pipelines para ingerir datos heterogéneos en el datalake/datawarehouse en diferentes escenarios (batch, streaming,...), gestionando conjuntos de datos grandes y complejos. Garantizar la exactitud y corrección de los datos. Crear componentes de software personalizados y aplicaciones de análisis. Desarrollar la preparación de datos para ser utilizados para diferentes propósitos y casos de uso: informes, aprendizaje automático, intercambio de datos,... e identificar oportunidades para la adquisición de datos. Explorar formas de mejorar la calidad y confiabilidad de los datos. Integrar las tecnologías emergentes de ingeniería de software y gestión de datos en las estructuras de datos existentes. Utilizar procesos ágiles de desarrollo de software para realizar mejoras de forma iterativa en los sistemas back-end.

Requisitos:

• Fuerte conocimiento de Python y SQL
• Fuerte conocimiento en Airflow o herramientas de orquestación similares como Dagster.
• Experiencia con bases de datos SQL relacionales como MySQL o PostgreSQL.
• Experiencia en GCP (Bigquery, PubSub, Dataflow, GCS, Dataproc) o AWS
• Experiencia en técnicas de desarrollo de integración continua.
• Conocimiento en frameworks para desarrollo de pipelines en Batch/streaming: Apache Beam, Spark.
• Experiencia previa y comprobada en ingeniería de datos o ingeniería de software en torno a soluciones de datos en arquitecturas de datos modernas.
• Nivel de educación/certificados Licenciatura o nivel de título de ingeniería o superior
• Idiomas Dominio escrito y verbal del idioma inglés (obligatorio)

Deseable:
• Buen conocimiento de otros lenguajes de programación, como Java/Kotlin.
• Conocimiento en frameworks de streaming como Kafka.
• Habilidades de desarrollo de software.

Imprescindible inglés alto, C1.
50% teletrabajo. Necesaria residencia en Barcelona.

No et perdis res!

Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació


Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa

Subscriu-te ara

Darreres ofertes d'ocupació de Enginyer/a de Dades a Barcelona

Serem

En serem estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.

CAS TRAINING

We are looking for an experienced DevOps Engineer to join our DataHub team within the DataHub DevOps team related to an...

DevOps Engineer

27 de set.

Krell Consulting & Training

Nos encontramos en la búsqueda de un/a DevOps para trabajar con importante cliente en contratación inicial con KRELL.

DevOps Engineer-AWS

20 de set.

Krell Consulting & Training

Barcelona, ES

KRELL Consulting, selecciona para contratar, un/a DevOps Engineer-AWS, para trabajar con importante proyecto y siguientes...

CAS TRAINING

Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises. Experiencia en el...

Data Engineer

17 de set.

Stay Unique

¡Únete a Stay U-nique y sé parte de una experiencia única en Sevilla! 🌟 Somos Stay U-nique, una empresa líder en la...

Michael Page

Barcelona, ES

Perfil buscado (Hombre/Mujer) As a Head of Data Engineer, you will have the following responsibililties: · Lead the Data...

Bcnc Group

Barcelona, ES

BCNC GROUP es una empresa de ingeniería y tecnología con operaciones en España, Reino Unido, Alemania, Francia y Suecia.

Serem

Barcelona, ES

En Serem estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.

Krell Consulting & Training

En Krell-Consulting, buscamos un Engineer (DevOps/ SPARK /Kafka), para unirse a nuestro equipo, para importante proyecto...