¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
891Comercial y Ventas
707Adminstración y Secretariado
570Transporte y Logística
456Comercio y Venta al Detalle
325Ver más categorías
Desarrollo de Software
299Educación y Formación
289Marketing y Negocio
288Derecho y Legal
273Ingeniería y Mecánica
220Publicidad y Comunicación
187Diseño y Usabilidad
153Instalación y Mantenimiento
147Sanidad y Salud
104Industria Manufacturera
88Construcción
86Recursos Humanos
83Arte, Moda y Diseño
82Hostelería
75Atención al cliente
49Contabilidad y Finanzas
46Inmobiliaria
44Producto
39Turismo y Entretenimiento
38Artes y Oficios
36Banca
22Cuidados y Servicios Personales
20Farmacéutica
18Alimentación
15Energía y Minería
13Seguridad
12Social y Voluntariado
10Deporte y Entrenamiento
7Seguros
3Agricultura
1Editorial y Medios
1Telecomunicaciones
1Ciencia e Investigación
0DevOps Freelance
NuevaWayOps
DevOps Freelance
WayOps · Madrid, ES
Teletrabajo API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Machine Learning
En WayOps buscamos un perfil **DevOps Engineer** que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
**CONTEXTO & RESPONSABILIDADES**
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. (Junto al AI Architect, ) el DevOps Engineer deberá implementar pipelines CI/CD que permitan la integración y entrega continuas de código (DevOps) y modelos (ModelOps). Será imprescindible contar con un background técnico en programación y familiaridad tanto con DevOps, como con el ciclo de vida de los modelos científicos.
**PROYECTO & EQUIPO**
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (DevOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
**EXPERIENCIA & CONOCIMIENTOS**
El perfil a incorporar deberá contar con 2-3 años de experiencia como especialista DevOps liderando la creación de pipelines de integración y despliegue continuo con Azure DevOps, así como código que permita la industrialización y automatización del despliegue de entornos (IaC). Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Software o Ingeniero de Sistemas desarrollando aplicaciones y programas o desarrollando scripts que faciliten la configurando de entornos.
Se valorará experiencia previa en industrialización de entornos Data & AI, especialmente los orientados al ciclo de vida de los modelos científicos. Además, se valorará experiencia con Bizep/Terraform y experiencia o conocimiento con la API de de Azure Databricks.
Será necesario tener experiencia previa con tecnologías:
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Azure (Key Vault, Managed Identities, Application Insights, Azure Monitor, App Service, Storage)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML SDK v2, MLflow)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Visual Studio Code, Git, GitFlow)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Data Factory, Databricks, Azure Machine Learning, Cosmos DB, SQL Databases)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Databricks (Delta Tables, Unity Catalog, Databricks Connect)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
**CONTRATACIÓN & UBICACIÓN**
La contratación será mediante un contrato anual prorrogable como autónomo a jornada completa. El trabajo se llevará a cabo de forma remota, adaptándose al horario de oficina para facilitar la coordinación con el equipo. La banda salarial será negociable en función de la experiencia aportada.
Data Engineer
15 ene.EY
Málaga, ES
Data Engineer
EY · Málaga, ES
Python TSQL Azure Cloud Coumputing Machine Learning Power BI Office
Data Engineer - EY GDS Spain - Hybrid
The opportunity
This is a fantastic opportunity to be part of a leading firm whilst being instrumental in the growth as you get to work with high quality team to support clients ensuring the stability of global companies through best-in-class solutions, automation and innovation, working with an international team
As a member of our team in the EY GDS Spain office in Malaga, you´ll have a chance to extend your knowledge & experience by working on interesting projects with the newest technologies and approaches. You´ll support clients in choosing the most suitable business solution and take part in digital transformation.
Your key responsibilities
As a Data Engineer, your responsibilities will include:
- Design, implement, and test solutions for various Analytics use cases (Batch Analysis; Streaming Analytics; Advanced Analytics or Machine Learning; Generative AI) on major public cloud infrastructures (e.g., Azure, Google Cloud) and cloud-agnostic data warehousing solutions (Snowflake, Databricks).
- Lead the design and development of scalable and efficient data pipelines, integrating them into cloud-native architectures.
- Research and evaluate innovative technologies in the Data & AI domain.
- Collaborate with interdisciplinary teams to ensure project delivery.
- Support the management of relationships with clients and technology partners.
Skills and attributes for success
To thrive in this role, key skills and attributes for success include:
- Curiosity and commitment to researching and adopting innovative technologies in the Data & AI space.
- Excellent collaboration skills to work effectively with cross-functional and interdisciplinary teams.
- Strong communication skills for clear stakeholder engagement and client relationship support.
- Ability to thrive in consulting or enterprise environments, balancing technical delivery with client-facing responsibilities.
- Proactive mindset and team-oriented attitude, contributing to a positive and productive work environment.
- Fluent in English.
To qualify for the role, you must have
- Degree in engineering or scientific (STEM) disciplines.
- 2 years of experience Data & Analytics projects, preferably in consulting or enterprise environments
- Experience developing solutions in at least two of the following platforms: Azure, Databricks, Google Cloud (BigQuery), Snowflake.
- SQL and Python
- Experience in designing and developing modern data architectures (Data Lake, Data Warehouse, Data Mesh).
- Good communication skills and a strong team-oriented attitude.
- Fluency in English
Ideally, you´ll also have
- B2 in Italian is a plus
- Experience in Machine Learning.
- Knowledge of Data Integration tools (e.g., Informatica, Talend, Data Factory, etc.).
- Experience with Generative AI or MLOps projects.
- Familiarity with visualization tools (Qlik, Power BI).
What we look for
We seek individuals who are passionate about their work and possess outstanding skills in their field. If You have a highly developed business acumen, exceptional interpersonal skills, and a willingness to embrace new professional challenges, this role is for You.
What we offer
In EY GDS Spain, we´re committed to fostering a vibrant environment where every team member can thrive. We provide a space for continuous learning and the flexibility to define your own success, empowering you to make a meaningful impact in your own way. Our diverse and inclusive culture values who you are and encourages you to help others find their voice.
Ingeniero/a Cloud
15 ene.Krell Consulting & Training
Barcelona, ES
Ingeniero/a Cloud
Krell Consulting & Training · Barcelona, ES
Cloud Coumputing
Descripción
🔐Ingeniero/a Cloud – Sector Asegurador
Modalidad: Híbrido (2 días presenciales/semana)
Ubicación: Barcelona
🧩 Descripción del Servicio
Se requiere un Technical Security Consultant para dar soporte en un entorno corporativo del sector asegurador, con foco en operaciones de seguridad y gestión de incidentes. El perfil se integrará en un entorno regulado, colaborando con equipos SOC y participando en actividades de monitorización, análisis y respuesta ante incidentes de seguridad.
🎯 Responsabilidades
Gestión y respuesta ante incidentes de seguridad.
Análisis de eventos y alertas de seguridad.
Revisión y correlación de logs.
Soporte en tareas de investigación forense básica.
Colaboración con equipos internos y externos en la mitigación de amenazas.
Aplicación de buenas prácticas de seguridad en entornos on-premise y cloud.
Data Engineering
15 ene.Santander
Madrid, ES
Data Engineering
Santander · Madrid, ES
Angular Cloud Coumputing Microservices REST AWS DevOps Terraform Spark Big Data
Data Engineering - Santander Digital Services
Country: Spain
IT STARTS HERE
Santander (www.santander.com) is evolving from a global, high-impact brand into a technology-driven organization, and our people are at the heart of this journey. Together, we are driving a customer-centric transformation that values bold thinking, innovation, and the courage to challenge what´s possible.
This is more than a strategic shift. It´s a chance for driven professionals to grow, learn, and make a real difference.
Our mission is to contribute to help more people and businesses prosper. We embrace a strong risk culture and all our professionals at all levels are expected to take a proactive and responsible approach toward risk management.
Santander Digital Services is the team of technology and operations at Santander. We are convinced of the importance of technology that is aligned with the requirements of the business and that out work not only brings value to users, people and communities but also fosters individual creativity. Our team of over 10,000 people in 8 countries (Spain, Portugal, Poland, UK, USA, Mexico, Chile and Brazil) develops and/or implements financial solutions across a broad spectrum of technologies (including Blockchain, Big Data and Angular among others) on all kinds of on-premises and cloud-based platforms.
THE DIFFERENCE YOU MAKE
Santander Digital Services is looking for a Data Engineer based out of Boadilla del Monte.
We´re shaping the way we work through innovation, cutting-edge technology, collaboration and the freedom to explore new ideas. To succeed in this role, you will be responsible for:
- Developing Cloud-native architectures, primarily on AWS (VPC, IAM, S3, EC2, EKS/ECS, Lambda, Glue, EMR, Redshift, Athena, etc.), with experience in hybrid or multi-cloud environments.
- Operating Large-scale data platforms, including batch and streaming processing, analytics, data lakes/lakehouses, and data governance frameworks.
- Distributed data coding and processing using PySpark / Apache Spark, including performance tuning, partitioning strategies, and fault-tolerant pipelines.
- Bringing modern software engineering practices, including CI/CD, test automation, and code quality standards.
- Leveraging APIs, microservices, and event-driven architectures, enabling scalable and reusable data and application services.
- Designing and orchestrating data pipelines and workflows using tools such as Apache Airflow, AWS Step Functions, or similar schedulers and orchestration platforms.
- Building and operating solutions in AWS, leveraging managed services where appropriate and understanding trade-offs between managed and custom components.
- Automating infrastructure provisioning and application deployment using Infrastructure as Code (Terraform, CloudFormation) and DevOps pipelines (Git-based workflows, CI/CD).
- Applying security-by-design principles, including IAM least privilege, encryption at rest and in transit, secrets management, and compliance-aligned architectures.
WHAT YOU´LL BRING
Our people are our greatest strength. Every individual contributes unique perspectives that make us stronger as a team and as an organization. We´re enabling teams to go beyond by valuing who they are and empowering what they bring.
The following requirements represent the knowledge, skills, and abilities essential for success in this role. Reasonable accommodations may be made to enable individuals with disabilities to perform the essential functions.
Professional Experience
- Hands-on technical leader capable of designing and implementing end-to-end cloud and data solutions, defining target architectures, and guiding teams through practical delivery using modern engineering best practices. (Preferred)
- Strong written and verbal communication skills, with the ability to explain complex cloud, data, and distributed-system architectures and translate them into concrete business outcomes for non-technical stakeholders, including senior leadership and executive committees. (Required)
- Excellent analytical and organizational skills, capable of managing multiple concurrent initiatives while maintaining high engineering quality and delivery velocity. (Preferred)
- Proven ability to manage complex technical programs, including planning, prioritization, budget tracking, and coordination with external vendors and partners. (Preferred)
Education
- Relevant degree program (Preferred)
Languages
- English (Required)
WE VALUE YOUR IMPACT
Your contribution matters, and it´s recognized. You can expect a fair, competitive reward package that reflects the impact you create and the value you deliver. But we know rewards go beyond numbers.
- We enable our teams to go beyond through global opportunities and broad career paths.
- Flexibility that works. Enjoy a hybrid working models-some days remote, some days onsite with your team-along with flexible hours.
- Learning for life. Access hundreds of courses on our platforms, including exclusive access to our global learning space: Santander Open Academy (www.santanderopenacademy.com)
- Competitive rewards. Receive a highly competitive salary with performance-based bonuses, motivating you to keep growing with us.
- Financial advantages. Benefit from preferential banking terms, special interest rates on loans, life insurance, and more.
- Your health is our priority. Through BeHealthy, our global wellness programme, we promote Holistic wellbeing.
- We know family is everything. That´s why we offer childcare support and family-friendly programmes tailored to each life stage.
- Always by your side. Get access to Santander Contigo, our program for employees and their families offering legal, emotional, and administrative advisory services.
- Extra benefits. Gym/WellHub membership, medical centers in some of our facilities, meal subsidy, parking, shuttle service from various points in Madrid, as well as exclusive discounts and offers for Santander employees. And that´s only the beginning-we´ll tell you more when you join!
We´re here to keep you motivated, help you reach your goals, and celebrate your progress, every step of the way.
Data Engineer
15 ene.Aubay
Barcelona, ES
Data Engineer
Aubay · Barcelona, ES
Python TSQL Azure Cloud Coumputing Power BI
Funciones
Buscamos un/a Data Engineer con experiencia para incorporarse a un proyecto internacional en un entorno tecnológico sólido y en plena evolución. La persona seleccionada participará en el diseño, desarrollo y mantenimiento de flujos de datos clave que dan soporte a reporting, analítica y toma de decisiones a nivel global.
El rol combina ingeniería de datos, trabajo con plataformas cloud y colaboración con equipos multidisciplinares en un contexto internacional.
Responsabilidades
Integrar de forma eficiente distintas fuentes de datos en el Data Lake para dar soporte a reporting interno y externo.
Diseñar, mantener y evolucionar pipelines de datos, flujos y procesos de orquestación, garantizando calidad y disponibilidad de la información.
Participar en la mejora y estandarización de los métodos de medición de KPIs, optimizando procesos de cálculo y reporting.
Mapear, documentar y validar flujos de datos y KPIs utilizados por diferentes áreas de la organización.
Colaborar estrechamente con equipos de Data, IT y negocio, asegurando buenas prácticas de desarrollo y gobierno del dato.
Actuar como punto de referencia en temas relacionados con datos dentro del proyecto.
Requisitos
Requisitos técnicos
Entre 4 y 7 años de experiencia en roles de Data Engineering.
Muy buen nivel de SQL y Python para manipulación y automatización de datos.
Experiencia con Databricks y arquitecturas Data Lake / Data Mart en entornos cloud.
Experiencia en el desarrollo de modelos analíticos y cubos OLAP.
Conocimiento del entorno Microsoft (Azure, Power BI, etc.).
Experiencia con herramientas de visualización y análisis como Qlik.
Experiencia gestionando o participando en proyectos técnicos de datos.
? Requisitos valorables
Experiencia en proyectos internacionales o entornos complejos.
Participación en migraciones de plataformas de datos o sistemas de reporting.
Conocimiento de plataformas de telecomunicaciones como Avaya o Genesys.
?? Competencias personales
Nivel alto de inglés (B2/C1), hablado y escrito.
Buenas habilidades de comunicación y trabajo en equipo.
Perfil analítico, orientado a la resolución de problemas.
Proactividad y capacidad para trabajar de forma autónoma.
Se ofrece
¿Qué ofrecemos?
Participación en un proyecto internacional con impacto real en negocio.
Entorno tecnológico moderno y en constante evolución.
Equipo colaborativo y buen ambiente de trabajo.
Modalidad de trabajo híbrida en Barcelona.
Condiciones competitivas acordes a la experiencia.
Beneficios Sociales
Formación a tu medida
#LI-AG1
Data Engineer
15 ene.EY
Málaga, ES
Data Engineer
EY · Málaga, ES
TSQL Azure Cloud Coumputing ERP
Senior Data Engineer (Application Management) - EY GDS Spain - Hybrid
The opportunity
This is a fantastic opportunity based in Málaga, Spain. In this role you will have the chance to be part of a leading firm whilst being instrumental in the growth as you get to work with high quality team to support clients ensuring the stability of global companies through best-in-class solutions, automation and innovation, working with an international team
Your key responsibilities
As a Senior Data Engineer based in our Málaga offices, your responsibilities will include:
- Provide daily Application Management Support for the full data stack (Informatica CDI, ADF, ADLS, Databricks), addressing service requests, incidents, enhancements, and changes.
- Lead and coordinate resolution of complex data integration and analytics issues through thorough root cause analysis.
- Collaborate with technical and business stakeholders to support and optimize data pipelines, models, and dashboards.
- Maintain detailed documentation including architecture diagrams, troubleshooting guides, and test cases.
- Remain flexible for shift-based work or on-call duties depending on client needs and critical business periods.
Skills and attributes for success
To thrive in this role, key skills and attributes for success include:
- Proven expertise in managing and supporting complex data ecosystems with modern tools like Informatica CDI, Azure Data Factory, ADLS, and Databricks.
- Strong analytical and problem-solving abilities, with a focus on thorough root cause analysis and timely resolution of data integration issues.
- Excellent communication and collaboration skills to effectively work with both technical teams and business stakeholders.
- Ability to maintain clear and detailed technical documentation to support knowledge sharing and continuity.
- Adaptable and resilient, comfortable working in shift-based schedules and handling on-call responsibilities during critical business periods.
- Fluency in Italian to facilitate communication within local and global teams.
To qualify for the role, you must have
- Bachelor´s degree in a relevant field (Computer Science, Engineering, Data Analytics, or related) or equivalent work experience.
- 3-7 years of experience working across modern data ecosystems, with hands-on proficiency in: - Informatica CDI for data ingestion and transformation
- Azure Data Factory (ADF) for pipeline orchestration
- Azure Data Lake (ADLS) for cloud storage and data lake architecture
- Databricks for large-scale data processing (SQL, PySpark, and Delta Lake)
- Experience providing application management support (incident resolution, enhancements, monitoring, and optimization).
- Strong root cause analysis skills across data pipelines, storage layers, and reporting.
- Excellent stakeholder collaboration skills to translate business needs into scalable technical solutions.
- Solid understanding of data governance, performance tuning, and cloud-based data architecture best practices.
- Experience in global delivery models and distributed teams.
- Flexibility in managing work hours due to the volatile nature of Application Management work including ability to do shifts and being on call for critical business requirements.
- Fluent in Italian
Ideally, you´ll also have
- Experience integrating data from a variety of sources including ERP, CRM, POS, and third-party APIs.
- Familiarity with DevOps/CI-CD pipelines in a data engineering context.
- Experience in industries such as retail, finance, or consumer goods.
- Certifications such as Informatica Certified Developer, Microsoft Certified: Azure Data Engineer Associate, or Databricks Certified Data Engineer
What we look for
We seek individuals who are passionate about their work and possess outstanding skills in their field. If You have a highly developed business acumen, exceptional interpersonal skills, and a willingness to embrace new professional challenges, this role is for You.
What we offer
In EY GDS Spain, we´re committed to fostering a vibrant environment where every team member can thrive. We provide a space for continuous learning and the flexibility to define your own success, empowering you to make a meaningful impact in your own way. Our diverse and inclusive culture values who you are and encourages you to help others find their voice.
Additionally, here´s what makes us stand out:
- Empowering Career Development: Unlock your potential with tailored training and development programs designed to elevate your skills and propel your career forward. We invest in your growth because your success is our success.
- Flexible Work-Life Integration: Enjoy the freedom of our hybrid work model, allowing you to blend professional responsibilities with personal passions. We understand that life is more than just work, and we support you in achieving that balance.
- Comprehensive Well-Being Programs: Prioritize your health with our extensive wellness initiatives, including psychological support sessions and health resources. At EY GDS Spain, your well-being is at the heart of what we do.
- Meaningful Volunteering Opportunities: Make a difference in your community through our engaging volunteering programs. Join us in giving back and creating a positive impact while building connections with like-minded colleagues.
- Recognized Performance and Rewards: Celebrate your achievements with our recognition programs that honor both individual and team successes. We believe in acknowledging hard work and dedication, ensuring you feel valued every step of the way.
Join us at EY GDS Spain, where your journey is supported, your contributions are celebrated, and your future is bright.
DevOps (Inglés B2/C1)
13 ene.CAS TRAINING
Madrid, ES
DevOps (Inglés B2/C1)
CAS TRAINING · Madrid, ES
Python AWS Bash DevOps Terraform
En CAS Training buscamos incorporar DevOps con inglés avanzado para incorporarse a un importante proyecto del sector de industria de materiales y soluciones para la construcción con disponibilidad para cumplir esquema hibrido en 📍Madrid.
✨Requisitos:
• Inglés avanzado (B2-C1)
• Disponibilidad para realizar viajes si se tuviera la necesidad
• Disponibilidad para colaborar en guardias/festivos si es necesario
• Disponibilidad para mantener un esquema hibrido en Madrid
Es deseable:
• Conocimiento de implementación de recursos en AWS con Terraform.
• Conocimiento de arquitectura de soluciones en AWS.
• Conocimiento de herramientas de análisis de código (Sonarqube y GHAS) y creación de pruebas de rendimiento (Jmeter).
• Scripting con Python, Bash o similar.
• Cumplimiento del SLA (Acuerdo de Nivel de Servicio).
🎯Tareas:
• Brindar servicio con capacidad para gestionar y dar soporte a la implementación de aplicaciones en una plataforma DevOps.
• Colaborar con los equipos de desarrollo de productos. Nos centraremos en la automatización de compilaciones mediante pipelines de CI/CD y en la puesta en producción del código de la forma más rápida y eficiente posible.
• Brindar soporte a los servicios antes de su lanzamiento mediante consultoría de diseño de sistemas, desarrollo de plataformas y frameworks de software, planificación de capacidad y revisiones de lanzamiento.
• Utilización de automatización para escalar sistemas de forma sostenible y contribuir a la implementación de mejoras, evolucionando sistemas e impulsando cambios que mejoren la fiabilidad, la velocidad y la seguridad.
• Colaborar con los equipos de producto de TI para implementar nuevas versiones de software en recursos en la nube.
• Colaborar con los equipos de DevOps para garantizar que los nuevos entornos cumplan los requisitos y se ajusten a las mejores prácticas.
• Propuesta de arquitectura (teniendo en cuenta las necesidades y restricciones de EDC), procedimiento de creación/integración/administración (IaC y automatización son obligatorios), transferencia completa de conocimientos (basada en la documentación previa y grabaciones de vídeo de la propia KT).
Consultor IT - Data Engineer
13 ene.Deloitte
Zaragoza, ES
Consultor IT - Data Engineer
Deloitte · Zaragoza, ES
Python TSQL Azure AWS
´Seguimos caminando juntos?
¿Qué buscamos?
Buscamos un/a Data Engineer con al menos 2 años de experiencia en proyectos de backend orientados a datos, que haya participado en el diseño y desarrollo de pipelines de datos end-to-end, cubriendo las distintas capas de ingesta, transformación y almacenamiento.
¿Qué funciones desarrollaras?
- Diseñar, desarrollar y mantener pipelines de datos end-to-end, desde la ingesta hasta la capa de consumo.
- Implementar procesos de ingesta de datos desde múltiples fuentes (APIs, bases de datos, ficheros, sistemas externos).
- Desarrollar procesos de transformación y enriquecimiento de datos asegurando calidad, trazabilidad y eficiencia.
- Diseñar y optimizar modelos de datos orientados a analítica y reporting.
- Trabajar con servicios de Azure como:
- Azure Data Factory para orquestación de pipelines.
- Azure Data Lake Storage para almacenamiento de datos.
- Azure Synapse, Databricks y/o Microsoft Fabric para procesamiento y transformación.
- Implementar buenas prácticas de versionado, control de errores, logging y monitorización de pipelines.
- Colaborar con equipos de BI, analítica y negocio para entender requisitos y traducirlos a soluciones técnicas.
- Participar en decisiones de arquitectura de datos y mejora continua de las soluciones existentes.
- Documentar los desarrollos y flujos de datos de forma clara y mantenible.
Requisitos:
- Al menos 2 años de experiencia en proyectos de Data Engineering o backend orientados a datos.
- Experiencia en Azure (Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake o Microsoft Fabric) o AWS.
- Experiencia programando en Python y SQL.
- Conocimientos de modelado de datos y arquitecturas tipo Data Lake / Data Warehouse / Lakehouse.
- Nivel intermedio de inglés.
¿Qué te ofrecemos?
- Contarás con un modelo de trabajo híbrido-flexible
- Podrás optar a un sistema de retribución flexible, servicio médico, seguro de salud, seguro de vida y accidente
- Contarás con un plan de formación a lo largo de tu trayectoria profesional
- Te desarrollarás en una cultura de feedback donde fomentar tu aprendizaje continuo
- Participarás si te interesa en programas de acción social y voluntariado de alcance nacional e internacional
- Disfrutarás de una oferta cultural y deportiva
¡Ahora la decisión es tuya! Si crees que este puesto está hecho para ti, haz clic en ´Solicitar´ y completa tu perfil para que podamos valorar tu solicitud. Si encajas en el perfil, nuestro equipo de captación se pondrá en contacto contigo para conocerte.
A partir de ahí te iremos guiando por nuestro proceso de selección y comenzará tu historia en Deloitte.
What impact will you make?
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad, no discriminando por motivos de sexo, expresión de género, raza, religión o creencias, origen étnico o nacional, discapacidad, enfermedad o condición de salud, predisposición genética a sufrir patologías, edad, ciudadanía, estado civil, orientación o identidad sexual, situación socioeconómica o cualquier otra condición o circunstancia personal o social.
Consultor IT - Data Engineer
13 ene.Deloitte
Madrid, ES
Consultor IT - Data Engineer
Deloitte · Madrid, ES
Python TSQL Azure AWS
´Seguimos caminando juntos?
¿Qué buscamos?
Buscamos un/a Data Engineer con al menos 2 años de experiencia en proyectos de backend orientados a datos, que haya participado en el diseño y desarrollo de pipelines de datos end-to-end, cubriendo las distintas capas de ingesta, transformación y almacenamiento.
¿Qué funciones desarrollaras?
- Diseñar, desarrollar y mantener pipelines de datos end-to-end, desde la ingesta hasta la capa de consumo.
- Implementar procesos de ingesta de datos desde múltiples fuentes (APIs, bases de datos, ficheros, sistemas externos).
- Desarrollar procesos de transformación y enriquecimiento de datos asegurando calidad, trazabilidad y eficiencia.
- Diseñar y optimizar modelos de datos orientados a analítica y reporting.
- Trabajar con servicios de Azure como:
- Azure Data Factory para orquestación de pipelines.
- Azure Data Lake Storage para almacenamiento de datos.
- Azure Synapse, Databricks y/o Microsoft Fabric para procesamiento y transformación.
- Implementar buenas prácticas de versionado, control de errores, logging y monitorización de pipelines.
- Colaborar con equipos de BI, analítica y negocio para entender requisitos y traducirlos a soluciones técnicas.
- Participar en decisiones de arquitectura de datos y mejora continua de las soluciones existentes.
- Documentar los desarrollos y flujos de datos de forma clara y mantenible.
Requisitos:
- Al menos 2 años de experiencia en proyectos de Data Engineering o backend orientados a datos.
- Experiencia en Azure (Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake o Microsoft Fabric) o AWS.
- Experiencia programando en Python y SQL.
- Conocimientos de modelado de datos y arquitecturas tipo Data Lake / Data Warehouse / Lakehouse.
- Nivel intermedio de inglés.
¿Qué te ofrecemos?
- Contarás con un modelo de trabajo híbrido-flexible
- Podrás optar a un sistema de retribución flexible, servicio médico, seguro de salud, seguro de vida y accidente
- Contarás con un plan de formación a lo largo de tu trayectoria profesional
- Te desarrollarás en una cultura de feedback donde fomentar tu aprendizaje continuo
- Participarás si te interesa en programas de acción social y voluntariado de alcance nacional e internacional
- Disfrutarás de una oferta cultural y deportiva
¡Ahora la decisión es tuya! Si crees que este puesto está hecho para ti, haz clic en ´Solicitar´ y completa tu perfil para que podamos valorar tu solicitud. Si encajas en el perfil, nuestro equipo de captación se pondrá en contacto contigo para conocerte.
A partir de ahí te iremos guiando por nuestro proceso de selección y comenzará tu historia en Deloitte.
What impact will you make?
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad, no discriminando por motivos de sexo, expresión de género, raza, religión o creencias, origen étnico o nacional, discapacidad, enfermedad o condición de salud, predisposición genética a sufrir patologías, edad, ciudadanía, estado civil, orientación o identidad sexual, situación socioeconómica o cualquier otra condición o circunstancia personal o social.