Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Veure més
No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araDarreres ofertes d'ocupació de Enginyer/a de Dades a Madrid
Ingeniero/a de sistemas Azure
25 de nov.Serem
Data Engineer (Oracle SQL)
22 de nov.CAS TRAINING
Devops AWS
22 de nov.Grupo NS
Madrid, ES
Data engineer
22 de nov.Serbyte Servicios IT
Madrid, ES
Data Engineer Azure
22 de nov.Grupo NS
Ingeniero/a Cloud
21 de nov.CAS TRAINING
Unix/Linux/VCS Systems Engineer
15 de nov.Grupo Digital
Prodsec SSO DevOPS
14 de nov.HAYS
Madrid, ES
Data Engineer Scala Cloud Azure
12 de nov.Serem
Madrid, ES