¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercial y Ventas
492Informática e IT
429Transporte y Logística
330Adminstración y Secretariado
308Comercio y Venta al Detalle
209Ver más categorías
Educación y Formación
201Desarrollo de Software
196Derecho y Legal
186Marketing y Negocio
148Ingeniería y Mecánica
119Industria Manufacturera
99Diseño y Usabilidad
94Publicidad y Comunicación
94Instalación y Mantenimiento
89Construcción
70Sanidad y Salud
69Hostelería
38Recursos Humanos
37Contabilidad y Finanzas
32Turismo y Entretenimiento
27Atención al cliente
24Arte, Moda y Diseño
23Inmobiliaria
23Artes y Oficios
22Seguridad
16Cuidados y Servicios Personales
15Producto
15Energía y Minería
14Alimentación
12Farmacéutica
10Social y Voluntariado
10Banca
5Deporte y Entrenamiento
4Agricultura
0Ciencia e Investigación
0Editorial y Medios
0Seguros
0Telecomunicaciones
0Google Cloud Data Engineer
25 mar.Devoteam
Madrid, ES
Google Cloud Data Engineer
Devoteam · Madrid, ES
Cloud Coumputing
Descripción de la empresa
Devoteam es una consultora europea líder especializada en estrategia digital, plataformas tecnológicas, ciberseguridad y transformación empresarial a través de la tecnología.
La tecnología forma parte de nuestro ADN y creemos en ella como una palanca capaz de impulsar un cambio positivo, manteniendo un equilibrio que nos permite ofrecer a nuestra cartera de clientes herramientas tecnológicas de primer nivel, pero siempre con la cercanía y la profesionalidad de un equipo que actúa como guía a lo largo del camino.
Devoteam lleva más de 30 años comprometida con la tecnología al servicio de las personas. Contamos con más de 11 000 empleados en el grupo, repartidos por 25 países de Europa, Oriente Medio y África.
Descripción del empleo
La posición sería como Ingenierio/a de datos del equipo de Devoteam G Cloud. Este equipo es un equipo de soporte encargado de dar mantenimiento a proyectos que ya están en activo y siendo utilizados por los clientes finales. Estos proyectos se construyeron inicialmente por un equipo de ingenieros de construcción.
Principales tareas:
- Equipo guiado por incidencias: los usuarios abrirán tickets de incidencias en diferentes proyectos (problemas de acceso, falta de datos, pipelines que no funcionen bien...). El equipo de Hypercare se encargará de analizar dichas incidencias y proponer una solución dentro de un tiempo (SLA)
- La solución puede conllevar tanto hotfixes que cree el propio equipo, como redirecciones al equipo de construcción, con el cual se tiene mucho contacto.
- Despliegue y mantenimiento de los entornos de producción: este equipo será el encargado de desplegar a PD el código generado por el equipo de construcción, asegurando que todo funciona bien. Además, será el encargado de solucionar cualquier problema en PD.
- Comunicación con usuarios de negocio: los tickets no siempre tienen toda la info necesaria. Por lo tanto, es importante saber tratar con usuarios de negocio (no técnicos) para obtener la información requerida.
- Gestión de varios proyectos: este equipo no trabaja para un proyecto concreto, sino que para varios al mismo tiempo (según cuál reciba incidencias). No obstante, en arquitectura los proyectos se parecen y donde más difieren es en la parte funcional.
Data Engineer (Azure Databricks)
25 mar.Aubay
Barcelona, ES
Data Engineer (Azure Databricks)
Aubay · Barcelona, ES
Python TSQL Azure Cloud Coumputing Spark
Funciones
En Aubay buscamos un/a Data Engineer para incorporarse a un proyecto internacional en cliente del sector seguros participando en la construcción de su nueva plataforma de datos.
Si te motiva trabajar con arquitecturas modernas tipo Lakehouse, grandes volúmenes de datos y tecnologías punteras, este proyecto es para ti.
¿Qué harás en tu día a día?
-Diseñar, desarrollar y mantener pipelines de datos (ETL/ELT) en entorno cloud
-Trabajar con Databricks y arquitectura Lakehouse
-Implementar soluciones sobre Azure Data Lake y Azure Data Factory
-Optimizar procesos con Apache Spark (PySpark)
-Asegurar la calidad, integridad y rendimiento de los datos
-Participar en la migración de la nueva plataforma de datos
-Colaborar con equipos de data (arquitectos, analistas, data scientists)
- Documentar procesos, flujos y buenas prácticas
Requisitos
-+4 años de experiencia como Data Engineer
-Experiencia sólida en Databricks + Azure
-Conocimiento en arquitecturas Lakehouse y modelado de datos
-Experiencia real construyendo y manteniendo pipelines en producción
-Buen nivel de SQL y programación en Python
-Mentalidad orientada a calidad, escalabilidad y buenas prácticas
-Nivel de inglés suficiente para entorno internacional
Se ofrece
-Modelo híbrido en Barcelona, con flexibilidad para favorecer el equilibrio entre vida personal y profesional
-Proyecto internacional en cliente líder del sector seguros
-Entorno tecnológico avanzado, dinámico y en constante evolución
-Plan de formación continuo, con acceso a certificaciones, cursos especializados e idiomas
-Oportunidades reales de crecimiento y desarrollo profesional dentro de la compañía
-Plataforma de descuentos corporativos para empleados
-Retribución flexible adaptada a tus necesidades:
-Cheques restaurante
-Seguro de salud
-Cheques guardería
#LI-AG1
Data Engineer AWS Data Services
24 mar.UST
Data Engineer AWS Data Services
UST · Madrid, ES
Teletrabajo Python Jenkins Docker Git AWS PostgreSQL Kafka Big Data
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo!
Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.
¿Qué buscamos?
Estamos buscando un/a Desarrollador/a Senior Python especializado/a en ETL para colaborar con uno de nuestros principales clientes del sector bancario.
Localización: Cualquier provincia de España
Modalidad: 100% Remoto
Horario: L-V de 09:00 a 18:00
Formación y Experiencia:
Formación: Grado en Informática, Sistemas de Información o áreas relacionadas.
Experiencia:Más de 4 años de experiencia como desarrollador/a Python, preferiblemente en entornos ETL.
Conocimiento de librerías de procesamiento de datos como PySpark y/o Pandas.
Experiencia en diseño y gestión de pipelines ETL.
Experiencia deseable con servicios AWS (Glue, S3, CloudWatch Events).
Familiaridad con la gestión de grandes volúmenes de datos en entornos Big Data.
Experiencia con Docker y entornos containerizados.
Conocimiento de herramientas CI/CD como Jenkins y SonarQube.
Experiencia con sistemas de control de versiones como Git.
Compromiso con principios de clean code para garantizar código de alta calidad y fácil mantenimiento.
Habilidades Obligatorias:
Inglés: Nivel avanzado
Conocimiento AWS: Glue, S3, CloudWatch Events (deseable).
Base de datos: PostgreSQL
Big Data: Experiencia en gestión de clusters Big Data.
Procesamiento de datos: Optimización de flujos y rendimiento en entornos distribuidos.
Control de versiones: Git.
Herramientas CI/CD: Jenkins, SonarQube o similares.
Principios de Clean Code: Buenas prácticas para código mantenible, legible y eficiente.
Contenedores: Docker.
Colas de Streaming: Kafka
¿Qué te ofrecemos?
23 días laborables de vacaciones y el 24 y 31 de diciembre.
Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).
Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...).
Acceso gratuito a varias plataformas de formación.
Estabilidad y carrera profesional.
Tenemos implantado un plan de compensación de referencias internas.
Posibilidad de elección de percibir tu salario en 12 o 14 pagas.
Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).
Plataforma UST Club descuentos y descuentos en gimnasios.
Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!
En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.
Data Engineer Analyst
24 mar.Digital Talent Agency
Data Engineer Analyst
Digital Talent Agency · Madrid, ES
Teletrabajo Python TSQL Scala Office
Descripción
Data Engineer Analyst | SQL • Python • Validación de Datos • Riesgo de Crédito | 100% Remoto🧭 Descripción del puestoEn Zemsania buscamos un/a Data Engineer Analyst con experiencia en análisis y validación de datos dentro del sector financiero. La persona seleccionada participará en la estandarización de procesos, definición de pruebas funcionales y validación de cálculos relacionados con riesgo de crédito y contrapartida.
La contratación es por parte de Zemsania, en un proyecto estable y completamente remoto.
🌐 Modalidad
100% Teletrabajo
Proyecto estable en entorno financiero
🛠️ Funciones principales
Análisis de datos para la estandarización e implementación de procedimientos de validación.
Diseño y definición de cuadernos funcionales de pruebas.
Validación de cálculos producidos por el sistema, especialmente relacionados con riesgo de crédito y contrapartida.
Revisión, control y aseguramiento de la calidad del dato.
Colaboración con equipos técnicos y de negocio para garantizar coherencia y trazabilidad.
Apoyo en la mejora continua de procesos de control y validación.
🎯 Requisitos mínimos
Al menos 2 años de experiencia en entidad financiera, en áreas de front office, riesgo de mercado o riesgo de crédito y contrapartida.
Nivel medio‑alto de SQL.
Nivel medio‑alto de Python y librerías de análisis: Pandas, Numpy...
Conocimiento funcional de productos de tesorería.
Conocimiento de cálculos de exposición por riesgo de crédito y contrapartida.
Inglés B2.
✨ Requisitos deseables
Conocimientos de Scala.
Familiaridad con herramientas de IA aplicadas a programación (GitHub Copilot, Devin...).
Experiencia adicional en validación de modelos o procesos de riesgo.
Capacidad analítica, atención al detalle y orientación a la calidad del dato.
🌟 Qué ofrece Zemsania
Contratación directa por Zemsania en uno de nuestros proyectos del sector financiero.
Proyecto 100% remoto.
Acompañamiento personalizado durante todo el proceso de selección e incorporación.
Transparencia en condiciones, expectativas y evolución del proyecto.
Seguimiento continuo por parte del equipo de People & Talent.
Entorno profesional donde aportar criterio técnico y crecer en validación y control de datos.
🤝 Compromiso con la igualdadEn Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
Arelance
Madrid, ES
Data Engineer (Databricks / Python / Power BI)
Arelance · Madrid, ES
Python Power BI
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
Actualmente estamos buscando un/a Data Engineer con experiencia sólida en Databricks y Python, orientado/a a la ingestión, transformación y modelado de datos, que dará soporte a un entorno de reporting ya existente en Power BI.
El foco principal del rol estará en Databricks y Python, preparando y estandarizando las tablas que consumen los informes de Power BI (los informes ya existen, no se desarrollan desde cero).
Responsabilidades:
- Trabajar en Databricks con Python para la ingestión y transformación de datos.
- Preparar y estructurar tablas finales optimizadas que servirán como fuente para informes de Power BI.
- Revisar los procesos actuales y migrar la lógica de transformación a Databricks, centralizando y estandarizando el modelo de datos.
- Mantener y adaptar los informes de Power BI existentes, asegurando que consuman correctamente las nuevas tablas generadas desde Databricks.
- Apoyar en la optimización y mantenimiento de pipelines de datos.
- Colaborar con otros equipos técnicos para asegurar la calidad y consistencia del dato.
Qué buscamos en ti:
- Más de 4 años de experiencia en roles de datos (Data Engineer, Analytics Engineer o similar).
- Experiencia sólida en Databricks y Python.
- Experiencia trabajando con Power BI (consumo de modelos de datos, mantenimiento de informes).
- Conocimiento de procesos de ingestión, transformación y modelado de datos.
- Capacidad para analizar procesos existentes y proponer mejoras técnicas.
Condiciones:
- Contrato indefinido con Arelance.
- Modalidad de trabajo híbrida en Madrid (50/50).
- Salario de hasta 40k SBA según experiencia aportada.
¿Te interesa dar un salto profesional? ¡Queremos conocerte!
*** Sólo se valoran personas con permiso de trabajo y residencia en España***
UST
Senior Data Engineer SQL Server SSIS
UST · Madrid, ES
Teletrabajo .Net Agile TSQL Azure Git TDD DevOps SQL Server
We are still looking for the very Top Talent…and we would be delighted if you were to join our team!
More in details, UST is a multinational company based in North America, certified as a Top Employer company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.
What are we looking for?
We’re looking for a Senior Data Engineer specialized in SQL Server and SSIS. High english level is required.
Position 100% remote for candidates based in Spain.
Key Responsibilities
Representing Data Operations Technology team to multiple stakeholders across numerous projects to ensure the delivery of data solutions to deliver business benefit.
Key aspects of the role will include:
- Development of requirements into flexible, strategic data solutions
- Performing analysis to support the requirement and evaluate the viability of the solution
- Work closely with the analyst, test and support teams to understand and deliver the requirement
- Taking ownership of your own work and shared responsibility for the team
- Support the full project lifecycle through to implementation and production support
Requirements
Mandatory
- Proficiency in SQL server and experience developing database applications using SQL Server, SSIS and SSRS
- In-depth knowledge of database design, data modeling, and data integration concepts
- Proficiency in SQL query optimization and performance tuning
- Knowledge and experience in SQL development and database design principles.
- Ability to write SQL queries to interrogate and extract data from a SQL database
- Good all round technical knowledge to help find the best solution to a requirement
- Able to deliver well structured and tested software
- Working with senior stakeholders and users
Desirable
- Experience of Financial Services and data knowledge
- Development experience using .Net or Snowflake
- Familiar with Agile delivery methodologies
- Experience in DevOps, automated deployments, and source control tools (ideally Azure DevOps, Octopus Deploy and GIT)
- Able to engage with stakeholders in both Business and Technology
- Multi-disciplined and able to provide support throughout SDLC
- Knowledge of test automation techniques, such as TDD and BDD
- Capable of balancing timely delivery agai
What can we offer?
- 23 days of Annual Leave plus the 24th and 31st of December as discretionary days!
- Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances).
- `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan…)
- Free access to several training platforms
- Professional stability and career plans
- UST also, compensates referrals from which you could benefit when you refer professionals.
- The option to pick between 12 or 14 payments along the year.
- Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime…)
- UST Club Platform discounts and gym Access discounts
If you would like to know more, do not hesitate to apply and we’ll get in touch to fill you in details. UST is waiting for you!
In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
Senior Data Engineer - DBT
24 mar.Accenture
Madrid, ES
Senior Data Engineer - DBT
Accenture · Madrid, ES
TSQL Azure Cloud Coumputing Git Oracle AWS Power BI Tableau Office
At Accenture, we believe in technology as the engine for the total reinvention of the company. We work with the leading platforms and partners in the market to drive our clients´ businesses through digitalization, AI, and data. If you want to be part of a Great Place To Work® and join a team of over 801,000 professionals worldwide, keep reading:
We are looking for a Data Engineer / Analytics Engineer with strong experience in DBT, SQL and Oracle to join our team and support key data transformation and analytics initiatives. You will design, build and optimize data pipelines and models, ensuring scalability, performance and high-quality data delivery.
The role can be performed from any location in Spain under a hybrid model, combining some days working from home with others in the office, enabling collaboration and strong team dynamics. It is essential to reside in Spain and have a valid work permit.
Responsibilities
- Design and build scalable data pipelines using DBT, implementing modular models, tests and documentation.
- Develop and optimize complex SQL queries across large-scale datasets, ensuring performance and reliability.
- Work with Oracle environments, performing data modeling, analysis of execution plans and performance tuning.
- Collaborate with BI, architecture and business teams to integrate new data sources and support advanced analytics use cases.
Additional Technical Responsibilities
- Manage version control workflows using Git, ensuring code quality and continuous integration in data projects.
- Participate in cloud data initiatives (AWS, Azure or GCP) to migrate and modernize data workloads.
- Implement orchestration of data processes using tools such as Airflow or Prefect for robust end-to-end automation.
- Ensure best practices across testing, documentation, lineage and governance within DBT-based ecosystems.
Requirements
- More than 3 years of experience in Data Engineering or Analytics Engineering roles.
- Strong proficiency in SQL for transformation and analytical workloads.
- Hands-on experience working with DBT.
- Solid experience with Oracle databases.
- English language skills.
- Education related to DBT Engineering.
- Experience with Power BI, Tableau or Looker is a plus.
- Experience with cloud platforms and orchestration tools is highly valued.
About Accenture
Accenture is a leading global professional services company that helps the world´s leading businesses, governments and other organizations build their digital core, optimize their operations, accelerate revenue growth and enhance citizen services-creating tangible value at speed and scale. We are a talent- and innovation-led company with approximately 791,000 people serving clients in more than 120 countries. Technology is at the core of change today, and we are one of the world´s leaders in helping drive that change, with strong ecosystem relationships. We combine our strength in technology and leadership in cloud, data and AI with unmatched industry experience, functional expertise and global delivery capability. Our broad range of services, solutions and assets across Strategy & Consulting, Technology, Operations, Industry X and Song, together with our culture of shared success and commitment to creating 360° value, enable us to help our clients reinvent and build trusted, lasting relationships. We measure our success by the 360° value we create for our clients, each other, our shareholders, partners and communities.
Declaración de igualdad de oportunidades en el empleo
Creemos que nadie debe ser discriminado por sus diferencias. Todas las decisiones de empleo se tomarán sin importar la edad, raza, credo, color, religión, sexo, origen nacional, ascendencia, discapacidad, condición de veterano militar, orientación sexual, identidad o expresión de género, información genética, estado civil, ciudadanía ni ningún otro criterio protegido por la legislación aplicable. Nuestra rica diversidad nos hace más innovadores, competitivos y creativos, lo que nos ayuda a servir mejor a nuestros clientes y comunidades.
Data Engineer AWS Data Services
24 mar.UST
Data Engineer AWS Data Services
UST · Madrid, ES
Teletrabajo Python TSQL Scala AWS DevOps Spark
We are still looking for the very Top Talent…and we would be delighted if you were to join our team!
More in details, UST is a multinational company based in North America, certified as a Top Employer company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.
What are we looking for?
We are looking for Expert Data Engineers to join our team and take part in the design, development, testing, and deployment of robust and scalable data solutions on AWS.
The ideal candidates will have strong hands-on experience with AWS data services and a solid understanding of modern data architectures, such as data lakes, lakehouses, and data mesh, working closely with multidisciplinary teams to deliver high-quality, secure, and compliant data platforms.
Key Responsibilities
- Design, develop, test, and deploy data pipelines and data platforms using AWS services.
- Implement and maintain data lake, lakehouse, or data mesh architectures.
- Collaborate with data engineers, analysts, and DevOps teams to deliver scalable business solutions.
- Ensure compliance with data governance, security, and logging policies.
- Identify and resolve data-related incidents, supporting change management processes.
- Take ownership of projects from initial design to final delivery, ensuring quality and reliability.
Key Requirements
- Strong technical expertise in:
- Spark / Scala
- Python
- SQL
- Extensive hands-on experience with AWS, including:
- S3, Glue, Athena, EMR, EC2, Lambda
- Solid experience in ETL design and data modeling.
- Strong analytical thinking, with the ability to anticipate edge cases and scalability challenges.
- Excellent problem-solving skills and strong attention to detail.
What can we offer?
- 23 days of Annual Leave plus the 24th and 31st of December as discretionary days!
- Numerous benefits (Health Care Plan, teleworking compensation, Life and Accident Insurances).
- `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Health Care Plan…)
- Free access to several training platforms
- Professional stability and career plans
- UST also, compensates referrals from which you could benefit when you refer professionals.
- The option to pick between 12 or 14 payments along the year.
- Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime…)
- UST Club Platform discounts and gym Access discounts
If you would like to know more, do not hesitate to apply and we’ll get in touch to fill you in details. UST is waiting for you!
In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
BeFree Agency
Chantada, ES
Data Engineer Freelance | Proyecto De Alto Impacto
BeFree Agency · Chantada, ES
. Java Python Agile Docker AWS ITIL
Ubicación: Madrid (Híbrido: 2 días oficina / 3 remoto)Duración: 6 meses + posible extensión? Sector: Multinacional líder en construcción
El Perfil que Buscamos
Buscamos un profesional con experiencia sólida en ingeniería de datos y consultoría, capaz de desenvolverse con fluidez en entornos complejos y en contacto directo con negocio.
- Requisitos Principales3–5 años de experiencia en ingeniería de datos.Mínimo 2 años de experiencia real con: AWS, PySpark, Python y SQL.Experiencia con Airflow, Docker y ECS.Conocimiento de ITIL e ISO 20K/27K.? Idiomas: Inglés y español.Experiencia en mantenimiento (incidencias y cambios).
Plus que valoramosKafka, dbt, Java, QlikView / QlikSense, Databricks y metodologías Agile.
Requisito ImprescindibleResidir en Madrid. El modelo híbrido requiere 2 días presenciales por semana, por lo que solo se considerarán candidaturas de profesionales que ya residan en la Comunidad de Madrid .
Si buscas un proyecto donde tu experiencia marque la diferencia, ¡hablemos! Envía tu CV a: ******
¡Impulsa tu carrera técnica en un entorno de máxima solidez y escala global!
#DataEngineering #AWS #BigData