Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Ver más
¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraÚltimas ofertas de empleo de Ingeniero/a de Datos en Madrid
Data Engineer Azure
24 dic.Grupo NS
Ingeniero/a DevOps
20 dic.Serem
Madrid, ES
Devops Engineer (GCP/Azure)
20 dic.Bcnc Group
Devops AWS
20 dic.Grupo NS
Madrid, ES
Serem
Madrid, ES