No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
122Informàtica i IT
112Transport i Logística
73Administració i Secretariat
69Desenvolupament de Programari
68Veure més categories
Màrqueting i Negoci
65Educació i Formació
63Dret i Legal
58Comerç i Venda al Detall
54Disseny i Usabilitat
30Sanitat i Salut
24Instal·lació i Manteniment
22Publicitat i Comunicació
21Enginyeria i Mecànica
18Hostaleria
17Indústria Manufacturera
15Recursos Humans
15Art, Moda i Disseny
12Construcció
12Producte
11Arts i Oficis
10Atenció al client
10Comptabilitat i Finances
9Turisme i Entreteniment
8Alimentació
6Cures i Serveis Personals
6Social i Voluntariat
4Banca
3Farmacèutica
3Energia i Mineria
2Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Esport i Entrenament
0Immobiliària
0Seguretat
0Telecomunicacions
0Top Zones
Barcelona
751Brainlab | Fundamental Physics and Tech Hub
Barcelona, ES
AI DevOps Prompt Master
Brainlab | Fundamental Physics and Tech Hub · Barcelona, ES
Javascript Java Linux Kubernetes Desarrollo de software unix AWS Integración continua Inteligencia artificial Automatización de pruebas Integración React API MySQL MongoDB Python TSQL NoSQL C++ Docker Cloud Coumputing Bash DevOps PostgreSQL QA Nginx Redis
🚀 AI DEVOPS PROMPT LEAD — Brainlab Fira | Barcelona
📍 Hospitalet de Llobregat · On-site · Immediate incorporation
──────────────────────────────
🌐 ABOUT BRAINLAB
Brainlab (CYRANLAB, S.L.) is a deep technology innovation center located at Fira Barcelona Gran Via. We don't observe technology trends — we generate them.
We operate across three high-impact brands:
▸ Tarranix.io — Deeptech photonic computing. Proprietary CYRATRON© 6-state architecture using light polarization.
▸ Brainlaverse.com — Browser-based educational and cultural metaverse. Democratizing immersive access to knowledge.
▸ Corpore Fitness — Science-based rehabilitation gym. Conscious training and injury recovery protocols.
We work at the intersection of generative AI, photonic computing, immersive environments and advanced web platforms. We are, quite literally, riding the crest of the technological wave.
──────────────────────────────
💡 THE ROLE — The evolution of a dying position
The traditional Development Manager role is obsolete.
In a world where a single well-directed AI prompt can replace days of manual coding, the question is no longer "how many developers do you manage?" — it is "how intelligently do you orchestrate AI to deliver software at scale?"
The AI DevOps Prompt Lead is the answer to that question. This is a newly created position, purpose-built for the current technological landscape: a technical leader who produces and orchestrates a team of few AI Prompt Developers each one specialized area (scientific simulations, gaming, performance, 3d modelling, engineery, intranet apps,immersivity, PIC RISC generation,etc) within our corporate Github-like local repository using generative AI as a force multiplier — capable of operating with the effective output of a 100-person offshore development factory with a team of five.
Your core mission: produce, design, govern and automate the entire software delivery pipeline across Brainlab's app ecosystem — from business request to production deployment — with minimal manual intervention and maximum AI-assisted throughput.
Your responsability team will be up to 4 AI prompt developers. Same level as Basis/Administration/Local open source Master and AI engineer. Depending and reporting directly to CEO. Continuos interaction with Business/Marketing/HCM and production stakeholders.
The pipeline you will own:
Business request → Prompt → Code generation → Quality inspection → Testing → push Production
──────────────────────────────
🎯 RESPONSIBILITIES
🔹 Central governance of our GitHub-like local repository that include all software projects across the Brainlab ecosystem: PIC engineery,websites, metaverse environments, mobile apps, self-hosted AI applications, scientific/mathematical simulation algorithms.
🔹 Lead the AI DevOps Prompt department, coordinating up to 4 AI Prompt Developers via tools such as GitHub Projects or Monday.com, providing periodical generated Canva/Claude reports to CEO.
🔹 Design and automate the full CI/CD pipeline: Dev → QA → Production pull/push request flows, custom code inspection workflows, performance benchmarks and automated test suites.
🔹 Detect and implement automations that eliminate manual repetitive work. Use Codex, GPT Claude Code, Terminal, local IA tools and equivalent AI toolchains as primary development instruments.
🔹 Manage simultaneous projects, developments, modifications and production incidents across Tarranix, Brainlaverse and Corpore Fitness.
🔹 Automate migration of internal/external projects language-agnostic from external cloud providors to our local host-kubernetes server and database maintain open source local corporate philosophy.
🔹 Build and maintain automated daily and weekly reporting to the CEO on the full app landscape status.
──────────────────────────────
🖥️ TECHNOLOGY SCOPE
The ecosystem spans multiple stacks. The expectation is not mastery of all — it is the ability to use AI as a language-agnostic execution layer: understanding architectures and directing AI tools to generate, inspect and deploy quality code in any required language.
Python · React / React Three Fiber · WebGL · Docker · Caddy · Nginx · GitHub Actions · Linux / Bash · Claude API · Codex · SQL / NoSQL · C++ · Mobile Apps · MEEP / Scientific computing · Monday.com
──────────────────────────────
✅ REQUIREMENTS
▸ Degree in Computer Science, Software Engineering, Telecommunications or equivalent. Master's degree or specialisation courses in Artificial Intelligence — highly valued.
▸ Practical experience in DevOps using tools such Github, Gitlabs, Monday.
▸ Working knowledge of server and network administration, Linux environments, terminal-based operations, and installation/configuration of open-source tools.
▸ Practical experience with both relational (PostgreSQL, MySQL) and non-relational (MongoDB, Redis) databases.
▸ Genuinely current with the latest generative AI developments — not as a hobby, but as a professional discipline. You follow model releases, toolchains and prompt engineering advances as a first priority.
▸ Leadership capability: coordinate teams autonomously, define workflows, set quality standards and maintain delivery velocity.
▸ Automation-first mindset: instinctive drive to automate any process that runs more than twice. Manual repetitive work is fundamentally incompatible with this role.
──────────────────────────────
⚙️ OPERATIONAL STANDARDS
This role operates under high-performance productivity standards, actively monitored through AI algorithms to ensure output quality and consistency. Person must be proactive, disciplined and not reactive, person must account at least 4 hours of max productivity prompt/code per day that is audited live.
→ Personal mobile phone use and non-work distractions are restricted during productive hours.
→ Facilities may not be left during working hours except in justified emergencies.
→ Manual repetitive work is formally prohibited. Every recurring process must be scripted, automated or AI-delegated.
→ Automated daily and weekly reporting to the CEO on the full app ecosystem status is a non-negotiable deliverable of this role.
──────────────────────────────
💼 COMPENSATION & BENEFITS
💰 €25,000 gross annual salary
📈 +15% variable bonus on company results
🏋️ Access to private corporate gym (Corpore Fitness)
🕓 Intensive schedule — finish at 17:00 CET daily
📍 On-site · Hospitalet de Llobregat, Barcelona
🤖 Access to cutting-edge AI tooling
🔬 Work at the frontier of AI + photonic computing
- #AIDevOps #PromptEngineering #DevOps #ArtificialIntelligence #MachineLearning #Barcelona #TechJobs #AIJobs #Hiring #Brainlab #Tarranix #Brainlaverse #FutureOfWork
DevOps
Arelance · Barcelona, ES
Teletreball TSQL Docker Kubernetes DevOps
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento, buscamos incorporar DevOps con alta capacidad analítica y resolutiva, proactivo, orientado a la mitigación de riesgos de seguridad, con habilidades de comunicación y trabajo en equipo.
¿Qué buscamos en ti?
- Experiencia mínima de 4 años con Docker y Kubernetes
- Experiencia de 4 años con Helm.
- Experiencia en gestión de APIs como Keycloak y Apisix.
- Conocimiento de plataformas de observabilidad como ELK Stack, Grafana o Prometeus.
- Conocimiento en Scripting y lenguajes de programacion.
- Conocimientos de SQL y modelado de bases de datos.
- TITULACION: en Informática, Telecomunicaciones o similar.
- IDIOMA: Ingles ALTO
Entre tus funciones:
- Despliegue y configuración de aplicaciones y servicios.
- Mantenimiento y evolución de pipelines CI/CD.
- Diseño de infraestructuras robustas y altamente disponibles.
- Administración de plataformas de contenedores y orquestación basada en Docker y Kubernetes.
Se trabajara en colaboración con equipos de seguridad para asegurar el cumplimiento de estandares de seguridad y buenas practicas, manteniendose actualizado en tecnologias como Kubernetes, Dcoker, OpenStack, GitLab y Harbor.
¿Qué ofrecemos en esta posición?
- Contrato indefinido en Arelance
- Acceso a formación
- Modalidad de trabajo: Híbrido ( 3 días de oficina y 2 dias de teletrabajo).
******* REQUIERE RESIDENCIA EN: LEON / BARCELONA *******
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
*** Sólo se valoran candidatos con permiso de trabajo y residencia en España ***
BI Data Engineer
5 d’abr.eDreams ODIGEO
Barcelona, ES
BI Data Engineer
eDreams ODIGEO · Barcelona, ES
. Python Agile TSQL Docker Cloud Coumputing Kubernetes Git Tableau
As you contemplate your future, you might be asking yourself, what's the next step? Start your journey with us!
We are seeking a talented and passionate BI Data Engineer to join our dynamic Business Intelligence team. In this role, you will be instrumental in shaping our data landscape, working on exciting projects including our ongoing migration to a cutting-edge Google Cloud-based data platform. If you thrive in an agile environment, love transforming raw data into actionable insights, and are proficient with modern data stack technologies, this is the opportunity for you.
Our Business Intelligence team is the centre of excellence for providing insights and learning from the Data. Our goal is to help different teams across the organization to succeed in their mission by providing insights generation and data analysis support in a healthy data-informed environment.
Why eDreams ODIGEO
Join the world's leading travel subscription platform.
Millions of customers every year across 44 markets – 5 brands – over 7.7 million Prime members since launching in 2017.
More than 100 million searches per day on our websites - more than 6 billion AI daily predictions
Over 1,700 employees – More than 60 different nationalities from all continents – 99% permanent contracts
We're the world’s leading travel subscription platform. We pioneered Prime, the first and largest travel subscription programme, which has topped over 7.7 million members since launching in 2017. Prime members are subscribed to global travel, gaining access to a comprehensive multi-product offering for all their travel needs—including hotels, rail, flights, dynamic packages and car rental, among others— compounded by industry-leading flexibility features and exclusive, member-only benefits. This entire Prime experience is powered by a proprietary, industry-leading AI platform that delivers a smarter, hyper-personalised service and comprehensive travel experience globally to its members.
What You Will Do
The Role's Key Responsibilities and Tasks
As an eDOer, you will have clear objectives, great challenges and a clear overview of how your work contributes to the global company project and its customers. As an BI Data Engineer in the Business Intelligence team, you will be in charge of:
- Develop & Optimize Data Pipelines: Design, build, and maintain efficient and reliable data pipelines using Python, SQL, DBT, and Airflow to ingest, transform, and load data from diverse sources into our Google Cloud data warehouse (BigQuery).
- Data Modelling & Architecture: Contribute to the design and implementation of scalable and performant data models / pipelines that support analytical and reporting needs.
- Ensure Data Quality & Integrity: Implement data quality checks and processes to ensure the accuracy, consistency, and reliability of our BI data.
- Collaborate & Innovate: Work closely with product owners, data analysts, and other stakeholders to understand data requirements and translate them into technical solutions. Actively participate in an agile development environment, contributing to sprint planning, reviews, and retrospectives.
- Empower Data Users: Support the development of dashboards and reports, and provide assistance to users to help them leverage data effectively.
- Champion Best Practices: Promote and implement best practices in data engineering, including code quality, testing, documentation, and version control.
Good to have
Bring your unique perspective, speak up, and offer disruptive solutions. You'll have the opportunity to learn and grow while making a real impact on our team. Here's what you need to succeed:
- Solid Data Engineering Experience: Proven experience in designing, building, and optimizing data pipelines.
- Python Proficiency: Strong programming skills in Python for data manipulation and automation.
- SQL Expertise: Deep understanding of SQL and experience with complex querying and data modelling.
- DBT (Data Build Tool) Knowledge: Hands-on experience with DBT for transforming data in a modular and testable way.
- Workflow Orchestration with Airflow: Experience in developing and managing data workflows using Apache Airflow (preferably Google Cloud Composer).
- Cloud Data Warehousing: Familiarity with cloud-based data warehousing solutions, ideally Google BigQuery.
- ETL/ELT Tooling: Understanding of ETL/ELT principles and experience with relevant tools.
- Infrastructure Management and Automation: Understanding usage of Google Kubernetes Engine (GKE), Docker, Pub/Sub, Git & CI/CD.
- Analytical & Problem-Solving Mindset: Ability to analyze complex data challenges, identify root causes, and implement effective solutions. You have a keen eye for detail and a commitment to delivering high-quality results.
- Team Player & Communicator: Excellent communication and collaboration skills. You thrive in a team environment and can effectively articulate technical concepts to both technical and non-technical audiences.
- Agile Advocate: Experience working in agile (Scrum/Kanban) environments.
- Self-Starter & Proactive: You are organized, proactive, and capable of managing your tasks effectively in a fast-paced environment.
- Fluent in English: Professional proficiency in English (written and spoken) is a must.
- Bonus Points (Highly Desirable):
- BS/MS in Computer Science, Engineering, Mathematics, or a related quantitative field.
- Experience with other Google Cloud Platform data services.
- Familiarity with data visualization tools (e.g., Microstrategy, Looker, Tableau, Data Studio).
- Previous experience in the travel or e-commerce industry.
The best talent deserves the best benefits
At eDO, we want you to be a part of our success story and great culture. Here's what we offer:
- A rewarding Compensation package! 💥 Prime Plus membership, Competitive salary and benefits package, including flexible benefits, performance-based bonuses, birthday day off, discounts and partnerships, relocation support and the possibility of choosing your equipment and, even better, keeping it for free after 3 years.
- Continuous learning to fuel your growth and explore new horizons! 📚 Learn and grow with free Coursera access, soft skills workshops, tech training, leadership development, and more. Plus, enjoy a great onboarding program.
- Grow opportunities to empower your career, and unleash your potential! 🚀 Personalised career paths and the eVOLVE Program will help you discover, grow, and thrive. Internal mobility opportunities let you pursue horizontal career changes and promotions.
- Your Well-being is our Priority. Embrace Freedom and Flexibility! 💙 At eDO, we value flexibility, employee care, and transparency. We offer a hybrid home-office model focused on outcome, not time-in-seat. You'll be able to find the right work-personal life balance that suits you best.
- Work hard, party hard! We believe in having fun and connecting with colleagues! 🎉 Join eDO for after-work events, padel tournaments, parties, and more. Create communities based on your passions, like sports and music. Come to work as you are, with no dress code, and enjoy free fruit, coffee, and tea at our offices.
- Enjoy a dynamic and healthy environment! 💫 Be innovative, take risks, and share your ideas. Our diverse and open-minded teams support high performance, learning, and growth. You'll work in an Agile Mindset environment with recognition at our core.
If you are ready for a career opportunity with unmatched benefits, continuous learning, and a supportive work-life balance, look no further! Take your career to new destinations by applying now and help our diverse, inclusive, and passionate team shape the future of travel. Apply now!
We are an equal opportunity employer and value diversity at our company. We do not discriminate based on race, religion, colour, national origin, gender, sexual orientation, age, marital status or disability status. Our people are the key to our success. Each one of them is unique in their own way and the respect for their uniqueness is and will always be a passion and motivation.
Senior Engineer, Data Engineering
5 d’abr.Kanguro
Senior Engineer, Data Engineering
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
~ Python para procesamiento de datos y scripting de pipelines
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
~ Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés .
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Data Engineer
5 d’abr.Kanguro
Data Engineer
Kanguro · Barcelona, ES
Teletreball . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje. Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez. Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido. Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés.
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.