No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
82Informàtica i IT
82Desenvolupament de Programari
64Transport i Logística
57Dret i Legal
55Veure més categories
Administració i Secretariat
51Màrqueting i Negoci
49Educació i Formació
37Comerç i Venda al Detall
26Disseny i Usabilitat
26Publicitat i Comunicació
21Enginyeria i Mecànica
18Sanitat i Salut
17Indústria Manufacturera
14Instal·lació i Manteniment
14Atenció al client
12Comptabilitat i Finances
11Hostaleria
11Construcció
10Producte
9Recursos Humans
9Social i Voluntariat
6Turisme i Entreteniment
5Alimentació
4Art, Moda i Disseny
4Arts i Oficis
4Banca
2Cures i Serveis Personals
2Immobiliària
2Seguretat
2Esport i Entrenament
1Farmacèutica
1Telecomunicacions
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Energia i Mineria
0Top Zones
Barcelona
561DevOps Engineer (INGLÉS)
7 d’abr.CAS TRAINING
Barcelona, ES
DevOps Engineer (INGLÉS)
CAS TRAINING · Barcelona, ES
Python Azure Docker Cloud Coumputing Kubernetes AWS PowerShell DevOps
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un/una profesional Senior Azure DevOps Engineer con alta cualificación para diseñar, transformar y gestionar soluciones escalables.
Skills técnicas requeridas: experiencia profunda en servicios cloud y arquitectura Azure; infraestructura como código con Bicep y ARM templates; desarrollo de pipelines CI/CD con Azure DevOps; scripting avanzado con PowerShell y Python; conocimiento de prácticas de seguridad cloud y estándares de cumplimiento; monitorización y troubleshooting de sistemas basados en Azure.
Skills opcionales: Azure Data Factory y Azure Databricks; Contenerización y orquestación con Docker y Kubernetes; conocimiento de otros proveedores cloud como AWS y GCP; comprensión de redes, VPNs y entornos cloud híbridos.
Capacidades : buen nivel de inglés; fuerte capacidad analítica y de resolución de problemas; excelente comunicación y trabajo en equipo; capacidad para trabajar en entornos dinámicos y gestionar múltiples prioridades; actitud proactiva y aprendizaje continuo. Soft skills: mentalidad colaborativa, foco en calidad y seguridad, adaptabilidad, ownership de proyectos, organización y accountability.
Background y experiencia: Grado en Computer Science, IT o similar; 5+ años de experiencia en DevOps, Cloud Engineering o roles relacionados; experiencia demostrable en entornos Azure enterprise a gran escala; experiencia en automatización y scripting en entornos corporativos.
Misión: desarrollo y migración de la nueva AI Platform.
Entregables solicitados: Azure Infrastructure Design document, Automated CI/CD Pipelines, IaC Templates, Scripting Module. Entorno técnico: DevOps Engineer.
Sector: Seguros. Modalidad: Híbrido Barcelona
BI Data Engineer
5 d’abr.eDreams ODIGEO
Barcelona, ES
BI Data Engineer
eDreams ODIGEO · Barcelona, ES
. Python Agile TSQL Docker Cloud Coumputing Kubernetes Git Tableau
As you contemplate your future, you might be asking yourself, what's the next step? Start your journey with us!
We are seeking a talented and passionate BI Data Engineer to join our dynamic Business Intelligence team. In this role, you will be instrumental in shaping our data landscape, working on exciting projects including our ongoing migration to a cutting-edge Google Cloud-based data platform. If you thrive in an agile environment, love transforming raw data into actionable insights, and are proficient with modern data stack technologies, this is the opportunity for you.
Our Business Intelligence team is the centre of excellence for providing insights and learning from the Data. Our goal is to help different teams across the organization to succeed in their mission by providing insights generation and data analysis support in a healthy data-informed environment.
Why eDreams ODIGEO
Join the world's leading travel subscription platform.
Millions of customers every year across 44 markets – 5 brands – over 7.7 million Prime members since launching in 2017.
More than 100 million searches per day on our websites - more than 6 billion AI daily predictions
Over 1,700 employees – More than 60 different nationalities from all continents – 99% permanent contracts
We're the world’s leading travel subscription platform. We pioneered Prime, the first and largest travel subscription programme, which has topped over 7.7 million members since launching in 2017. Prime members are subscribed to global travel, gaining access to a comprehensive multi-product offering for all their travel needs—including hotels, rail, flights, dynamic packages and car rental, among others— compounded by industry-leading flexibility features and exclusive, member-only benefits. This entire Prime experience is powered by a proprietary, industry-leading AI platform that delivers a smarter, hyper-personalised service and comprehensive travel experience globally to its members.
What You Will Do
The Role's Key Responsibilities and Tasks
As an eDOer, you will have clear objectives, great challenges and a clear overview of how your work contributes to the global company project and its customers. As an BI Data Engineer in the Business Intelligence team, you will be in charge of:
- Develop & Optimize Data Pipelines: Design, build, and maintain efficient and reliable data pipelines using Python, SQL, DBT, and Airflow to ingest, transform, and load data from diverse sources into our Google Cloud data warehouse (BigQuery).
- Data Modelling & Architecture: Contribute to the design and implementation of scalable and performant data models / pipelines that support analytical and reporting needs.
- Ensure Data Quality & Integrity: Implement data quality checks and processes to ensure the accuracy, consistency, and reliability of our BI data.
- Collaborate & Innovate: Work closely with product owners, data analysts, and other stakeholders to understand data requirements and translate them into technical solutions. Actively participate in an agile development environment, contributing to sprint planning, reviews, and retrospectives.
- Empower Data Users: Support the development of dashboards and reports, and provide assistance to users to help them leverage data effectively.
- Champion Best Practices: Promote and implement best practices in data engineering, including code quality, testing, documentation, and version control.
Good to have
Bring your unique perspective, speak up, and offer disruptive solutions. You'll have the opportunity to learn and grow while making a real impact on our team. Here's what you need to succeed:
- Solid Data Engineering Experience: Proven experience in designing, building, and optimizing data pipelines.
- Python Proficiency: Strong programming skills in Python for data manipulation and automation.
- SQL Expertise: Deep understanding of SQL and experience with complex querying and data modelling.
- DBT (Data Build Tool) Knowledge: Hands-on experience with DBT for transforming data in a modular and testable way.
- Workflow Orchestration with Airflow: Experience in developing and managing data workflows using Apache Airflow (preferably Google Cloud Composer).
- Cloud Data Warehousing: Familiarity with cloud-based data warehousing solutions, ideally Google BigQuery.
- ETL/ELT Tooling: Understanding of ETL/ELT principles and experience with relevant tools.
- Infrastructure Management and Automation: Understanding usage of Google Kubernetes Engine (GKE), Docker, Pub/Sub, Git & CI/CD.
- Analytical & Problem-Solving Mindset: Ability to analyze complex data challenges, identify root causes, and implement effective solutions. You have a keen eye for detail and a commitment to delivering high-quality results.
- Team Player & Communicator: Excellent communication and collaboration skills. You thrive in a team environment and can effectively articulate technical concepts to both technical and non-technical audiences.
- Agile Advocate: Experience working in agile (Scrum/Kanban) environments.
- Self-Starter & Proactive: You are organized, proactive, and capable of managing your tasks effectively in a fast-paced environment.
- Fluent in English: Professional proficiency in English (written and spoken) is a must.
- Bonus Points (Highly Desirable):
- BS/MS in Computer Science, Engineering, Mathematics, or a related quantitative field.
- Experience with other Google Cloud Platform data services.
- Familiarity with data visualization tools (e.g., Microstrategy, Looker, Tableau, Data Studio).
- Previous experience in the travel or e-commerce industry.
The best talent deserves the best benefits
At eDO, we want you to be a part of our success story and great culture. Here's what we offer:
- A rewarding Compensation package! 💥 Prime Plus membership, Competitive salary and benefits package, including flexible benefits, performance-based bonuses, birthday day off, discounts and partnerships, relocation support and the possibility of choosing your equipment and, even better, keeping it for free after 3 years.
- Continuous learning to fuel your growth and explore new horizons! 📚 Learn and grow with free Coursera access, soft skills workshops, tech training, leadership development, and more. Plus, enjoy a great onboarding program.
- Grow opportunities to empower your career, and unleash your potential! 🚀 Personalised career paths and the eVOLVE Program will help you discover, grow, and thrive. Internal mobility opportunities let you pursue horizontal career changes and promotions.
- Your Well-being is our Priority. Embrace Freedom and Flexibility! 💙 At eDO, we value flexibility, employee care, and transparency. We offer a hybrid home-office model focused on outcome, not time-in-seat. You'll be able to find the right work-personal life balance that suits you best.
- Work hard, party hard! We believe in having fun and connecting with colleagues! 🎉 Join eDO for after-work events, padel tournaments, parties, and more. Create communities based on your passions, like sports and music. Come to work as you are, with no dress code, and enjoy free fruit, coffee, and tea at our offices.
- Enjoy a dynamic and healthy environment! 💫 Be innovative, take risks, and share your ideas. Our diverse and open-minded teams support high performance, learning, and growth. You'll work in an Agile Mindset environment with recognition at our core.
If you are ready for a career opportunity with unmatched benefits, continuous learning, and a supportive work-life balance, look no further! Take your career to new destinations by applying now and help our diverse, inclusive, and passionate team shape the future of travel. Apply now!
We are an equal opportunity employer and value diversity at our company. We do not discriminate based on race, religion, colour, national origin, gender, sexual orientation, age, marital status or disability status. Our people are the key to our success. Each one of them is unique in their own way and the respect for their uniqueness is and will always be a passion and motivation.
Senior Engineer, Data Engineering
5 d’abr.Kanguro
Senior Engineer, Data Engineering
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
~ Python para procesamiento de datos y scripting de pipelines
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
~ Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés .
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Data Engineer
5 d’abr.Kanguro
Data Engineer
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje. Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez. Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido. Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés.
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Amazon
Barcelona, ES
Data Scientist / Business Intel Engineer
Amazon · Barcelona, ES
Python TSQL NoSQL Oracle AWS R MATLAB Tableau
We are open to hiring this position in any of the following locations: Barcelona, Madrid and Milan
Are you passionate about giving customers the richest, most inspiring experience in their shopping journey? Do you like to dive deep to understand how customer-centric solutions drive measurable results? Do you enjoy working closely with the business, scientists and software engineers to build scalable products? You are in the right place! Come join our Prime & Marketing Analytics and Science (PRIMAS) team, where your actions will have direct impact to millions of customers!
The EU Marketing & Prime organization is looking for a Business Intelligence Engineer. The PRIMAS team provides a comprehensive understanding of customer segments, affinities and lifetime value. We use the latest data science tools and advanced analytical techniques to study customer purchase and engagement behaviors and generate actionable insights on where, when and how we provide products and programs to our customers to meet their needs and to delight them. We help to increase customer engagement, sales and marketing efficiency. Our systems are built entirely in-house and on automated large-scale analytics systems. You will generate insights, design/deliver/measure experiments and strategies across marketing channels (SEM/SEO, Affiliates, Display, Social, Mobile, Email, Onsite, etc.), engagement products and customer segments. You will improve our understanding of Customer behavior and engagement, design and conduct rigorous experiments on the effectiveness and efficiency of different marketing actions that will inform long term strategy. You will have the opportunity to work on the forefront of consumer analytics tackling some of the most difficult problems in the industry with some of the best scientists, statisticians and software engineers in the field.
Key job responsibilities
You are good at:
• Working on complex loosely defined analytics problems and defining the team´s Business Intelligence (BI) strategy. Delivering independently, and influencing the organization´s BI architecture
• Providing analytics solutions for complex business problems. Building analyses/solutions that are robust, extensible and scalable. Communicating effectively with management audiences (e.g., narratives, inputs into Business Reviews). Refining Business Intelligence strategies that cross teams and making technical trade-offs for long term/short-term needs.
• Designing and implementing technical solutions with an appropriate analytics strategy and data set design. Understanding system limitations, scaling factors, boundary conditions, and/or the reasons for technical decisions
• Providing analyses, frameworks and solutions that inform multiple teams´ business decisions and highlight new opportunities
• Driving best practices in operational excellence, data modelling, and analysis
BASIC QUALIFICATIONS
- Experience in analyzing and interpreting data with Redshift, Oracle, NoSQL etc.
- Experience with data visualization using Tableau, Quicksight, or similar tools
- Experience with data modeling, warehousing and building ETL pipelines
- Experience in Statistical Analysis packages such as R, SAS and Matlab
- Experience using SQL to pull data from a database or data warehouse and scripting experience (Python) to process data for modeling
- Experience with SQL
- Experience in the data/BI space
PREFERRED QUALIFICATIONS
- Experience with AWS solutions such as EC2, DynamoDB, S3, and Redshift
- Experience in data mining, ETL, etc. and using databases in a business environment with large-scale, complex datasets