No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
124Informàtica i IT
121Transport i Logística
79Administració i Secretariat
76Màrqueting i Negoci
73Veure més categories
Desenvolupament de Programari
71Dret i Legal
66Educació i Formació
58Comerç i Venda al Detall
53Disseny i Usabilitat
36Publicitat i Comunicació
31Instal·lació i Manteniment
22Sanitat i Salut
20Indústria Manufacturera
19Enginyeria i Mecànica
17Hostaleria
14Comptabilitat i Finances
13Atenció al client
12Construcció
12Producte
12Recursos Humans
12Art, Moda i Disseny
11Turisme i Entreteniment
9Alimentació
7Arts i Oficis
6Cures i Serveis Personals
5Energia i Mineria
4Social i Voluntariat
4Farmacèutica
3Immobiliària
3Banca
2Seguretat
2Esport i Entrenament
1Telecomunicacions
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Top Zones
Barcelona
791DevOps
Arelance · Barcelona, ES
Teletreball TSQL Docker Kubernetes DevOps
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento, buscamos incorporar DevOps con alta capacidad analítica y resolutiva, proactivo, orientado a la mitigación de riesgos de seguridad, con habilidades de comunicación y trabajo en equipo.
¿Qué buscamos en ti?
- Experiencia mínima de 4 años con Docker y Kubernetes
- Experiencia de 4 años con Helm.
- Experiencia en gestión de APIs como Keycloak y Apisix.
- Conocimiento de plataformas de observabilidad como ELK Stack, Grafana o Prometeus.
- Conocimiento en Scripting y lenguajes de programacion.
- Conocimientos de SQL y modelado de bases de datos.
- TITULACION: en Informática, Telecomunicaciones o similar.
- IDIOMA: Ingles ALTO
Entre tus funciones:
- Despliegue y configuración de aplicaciones y servicios.
- Mantenimiento y evolución de pipelines CI/CD.
- Diseño de infraestructuras robustas y altamente disponibles.
- Administración de plataformas de contenedores y orquestación basada en Docker y Kubernetes.
Se trabajara en colaboración con equipos de seguridad para asegurar el cumplimiento de estandares de seguridad y buenas practicas, manteniendose actualizado en tecnologias como Kubernetes, Dcoker, OpenStack, GitLab y Harbor.
¿Qué ofrecemos en esta posición?
- Contrato indefinido en Arelance
- Acceso a formación
- Modalidad de trabajo: Híbrido ( 3 días de oficina y 2 dias de teletrabajo).
******* REQUIERE RESIDENCIA EN: LEON / BARCELONA *******
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
*** Sólo se valoran candidatos con permiso de trabajo y residencia en España ***
BI Data Engineer
5 d’abr.eDreams ODIGEO
Barcelona, ES
BI Data Engineer
eDreams ODIGEO · Barcelona, ES
. Python Agile TSQL Docker Cloud Coumputing Kubernetes Git Tableau
As you contemplate your future, you might be asking yourself, what's the next step? Start your journey with us!
We are seeking a talented and passionate BI Data Engineer to join our dynamic Business Intelligence team. In this role, you will be instrumental in shaping our data landscape, working on exciting projects including our ongoing migration to a cutting-edge Google Cloud-based data platform. If you thrive in an agile environment, love transforming raw data into actionable insights, and are proficient with modern data stack technologies, this is the opportunity for you.
Our Business Intelligence team is the centre of excellence for providing insights and learning from the Data. Our goal is to help different teams across the organization to succeed in their mission by providing insights generation and data analysis support in a healthy data-informed environment.
Why eDreams ODIGEO
Join the world's leading travel subscription platform.
Millions of customers every year across 44 markets – 5 brands – over 7.7 million Prime members since launching in 2017.
More than 100 million searches per day on our websites - more than 6 billion AI daily predictions
Over 1,700 employees – More than 60 different nationalities from all continents – 99% permanent contracts
We're the world’s leading travel subscription platform. We pioneered Prime, the first and largest travel subscription programme, which has topped over 7.7 million members since launching in 2017. Prime members are subscribed to global travel, gaining access to a comprehensive multi-product offering for all their travel needs—including hotels, rail, flights, dynamic packages and car rental, among others— compounded by industry-leading flexibility features and exclusive, member-only benefits. This entire Prime experience is powered by a proprietary, industry-leading AI platform that delivers a smarter, hyper-personalised service and comprehensive travel experience globally to its members.
What You Will Do
The Role's Key Responsibilities and Tasks
As an eDOer, you will have clear objectives, great challenges and a clear overview of how your work contributes to the global company project and its customers. As an BI Data Engineer in the Business Intelligence team, you will be in charge of:
- Develop & Optimize Data Pipelines: Design, build, and maintain efficient and reliable data pipelines using Python, SQL, DBT, and Airflow to ingest, transform, and load data from diverse sources into our Google Cloud data warehouse (BigQuery).
- Data Modelling & Architecture: Contribute to the design and implementation of scalable and performant data models / pipelines that support analytical and reporting needs.
- Ensure Data Quality & Integrity: Implement data quality checks and processes to ensure the accuracy, consistency, and reliability of our BI data.
- Collaborate & Innovate: Work closely with product owners, data analysts, and other stakeholders to understand data requirements and translate them into technical solutions. Actively participate in an agile development environment, contributing to sprint planning, reviews, and retrospectives.
- Empower Data Users: Support the development of dashboards and reports, and provide assistance to users to help them leverage data effectively.
- Champion Best Practices: Promote and implement best practices in data engineering, including code quality, testing, documentation, and version control.
Good to have
Bring your unique perspective, speak up, and offer disruptive solutions. You'll have the opportunity to learn and grow while making a real impact on our team. Here's what you need to succeed:
- Solid Data Engineering Experience: Proven experience in designing, building, and optimizing data pipelines.
- Python Proficiency: Strong programming skills in Python for data manipulation and automation.
- SQL Expertise: Deep understanding of SQL and experience with complex querying and data modelling.
- DBT (Data Build Tool) Knowledge: Hands-on experience with DBT for transforming data in a modular and testable way.
- Workflow Orchestration with Airflow: Experience in developing and managing data workflows using Apache Airflow (preferably Google Cloud Composer).
- Cloud Data Warehousing: Familiarity with cloud-based data warehousing solutions, ideally Google BigQuery.
- ETL/ELT Tooling: Understanding of ETL/ELT principles and experience with relevant tools.
- Infrastructure Management and Automation: Understanding usage of Google Kubernetes Engine (GKE), Docker, Pub/Sub, Git & CI/CD.
- Analytical & Problem-Solving Mindset: Ability to analyze complex data challenges, identify root causes, and implement effective solutions. You have a keen eye for detail and a commitment to delivering high-quality results.
- Team Player & Communicator: Excellent communication and collaboration skills. You thrive in a team environment and can effectively articulate technical concepts to both technical and non-technical audiences.
- Agile Advocate: Experience working in agile (Scrum/Kanban) environments.
- Self-Starter & Proactive: You are organized, proactive, and capable of managing your tasks effectively in a fast-paced environment.
- Fluent in English: Professional proficiency in English (written and spoken) is a must.
- Bonus Points (Highly Desirable):
- BS/MS in Computer Science, Engineering, Mathematics, or a related quantitative field.
- Experience with other Google Cloud Platform data services.
- Familiarity with data visualization tools (e.g., Microstrategy, Looker, Tableau, Data Studio).
- Previous experience in the travel or e-commerce industry.
The best talent deserves the best benefits
At eDO, we want you to be a part of our success story and great culture. Here's what we offer:
- A rewarding Compensation package! 💥 Prime Plus membership, Competitive salary and benefits package, including flexible benefits, performance-based bonuses, birthday day off, discounts and partnerships, relocation support and the possibility of choosing your equipment and, even better, keeping it for free after 3 years.
- Continuous learning to fuel your growth and explore new horizons! 📚 Learn and grow with free Coursera access, soft skills workshops, tech training, leadership development, and more. Plus, enjoy a great onboarding program.
- Grow opportunities to empower your career, and unleash your potential! 🚀 Personalised career paths and the eVOLVE Program will help you discover, grow, and thrive. Internal mobility opportunities let you pursue horizontal career changes and promotions.
- Your Well-being is our Priority. Embrace Freedom and Flexibility! 💙 At eDO, we value flexibility, employee care, and transparency. We offer a hybrid home-office model focused on outcome, not time-in-seat. You'll be able to find the right work-personal life balance that suits you best.
- Work hard, party hard! We believe in having fun and connecting with colleagues! 🎉 Join eDO for after-work events, padel tournaments, parties, and more. Create communities based on your passions, like sports and music. Come to work as you are, with no dress code, and enjoy free fruit, coffee, and tea at our offices.
- Enjoy a dynamic and healthy environment! 💫 Be innovative, take risks, and share your ideas. Our diverse and open-minded teams support high performance, learning, and growth. You'll work in an Agile Mindset environment with recognition at our core.
If you are ready for a career opportunity with unmatched benefits, continuous learning, and a supportive work-life balance, look no further! Take your career to new destinations by applying now and help our diverse, inclusive, and passionate team shape the future of travel. Apply now!
We are an equal opportunity employer and value diversity at our company. We do not discriminate based on race, religion, colour, national origin, gender, sexual orientation, age, marital status or disability status. Our people are the key to our success. Each one of them is unique in their own way and the respect for their uniqueness is and will always be a passion and motivation.
Senior Engineer, Data Engineering
5 d’abr.Kanguro
Senior Engineer, Data Engineering
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
~ Python para procesamiento de datos y scripting de pipelines
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
~ Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés .
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Data Engineer
5 d’abr.Kanguro
Data Engineer
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje. Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez. Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido. Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés.
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.