¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
539Comercial y Ventas
520Transporte y Logística
396Adminstración y Secretariado
329Desarrollo de Software
282Ver más categorías
Comercio y Venta al Detalle
256Derecho y Legal
253Ingeniería y Mecánica
196Educación y Formación
184Marketing y Negocio
179Instalación y Mantenimiento
117Sanidad y Salud
95Industria Manufacturera
94Diseño y Usabilidad
89Construcción
80Contabilidad y Finanzas
79Publicidad y Comunicación
77Hostelería
61Recursos Humanos
47Atención al cliente
46Arte, Moda y Diseño
41Producto
32Artes y Oficios
28Turismo y Entretenimiento
28Inmobiliaria
18Banca
17Social y Voluntariado
15Alimentación
14Energía y Minería
11Seguridad
11Farmacéutica
10Deporte y Entrenamiento
7Cuidados y Servicios Personales
6Telecomunicaciones
3Seguros
2Agricultura
0Ciencia e Investigación
0Editorial y Medios
0Senior DevOps Engineer
9 abr.Baoss
Madrid, ES
Senior DevOps Engineer
Baoss · Madrid, ES
Cloud Coumputing Kubernetes Ansible AWS DevOps Terraform
Buscamos un Senior DevOps Engineer para incorporarse a un proyecto estratégico con amplia experiencia en implementaciones reales en producción, capaz de liderar despliegues complejos y garantizar un delivery eficiente.
Responsabilidades:
Implementación de soluciones DevOps end-to-end en entornos multi-cliente.
Automatización y gestión de infraestructura con Terraform y Ansible.
Diseño y ejecución de pipelines de integración y despliegue continuo en GitHub Actions.
Gestión y optimización de entornos cloud (AWS) y Kubernetes.
Colaboración con equipos de desarrollo y operaciones para garantizar despliegues fiables y seguros.
Requisitos:
Experiencia mínima de 5–10 años en DevOps.
Dominio experto en GitHub Actions.
Sólido conocimiento en Terraform y Ansible.
Experiencia en despliegues complejos y entornos de producción multi-cliente.
Conocimiento avanzado de AWS y Kubernetes.
Orientación al delivery y a la ejecución de proyectos de manera eficiente
Grupo TECDATA Engineering
Madrid, ES
Data Engineer con conocimientos financieros (Remoto 100%)
Grupo TECDATA Engineering · Madrid, ES
.
Buscamos 2 perfiles con al menos 3 años de experiencia para unirse a proyectos de datos estratégicos en colaboración con el cliente.
💰 Rango salarial: 40.000 – 42.000 €
Requisitos del perfil
1️⃣ Experiencia sólida en proyectos de datos (~60% del peso)
- Data Engineer
- ETL
- Modelado de datos
- Data Quality
- Data Visualization
- Productivización de soluciones de datos
- Comprensión de estados financieros
- Conocimiento de la información relevante para su construcción
- Relación entre los diferentes estados financieros
- Se valorará positivamente
- No imprescindible
- Experiencia en proyectos, no solo en mantenimiento.
- Capacidad de presentar y defender su experiencia ante el cliente.
- Trabajarán directamente con áreas de Data & Analytics y Financiero del cliente.
- Madrid es un plus, pero no obligatorio.
Imatia
Coruña, A, ES
Data Talent Pool – Perfiles de Datos (BI, Data Engineering, Analytics...)
Imatia · Coruña, A, ES
. Python TSQL R Machine Learning Power BI Tableau
En Imatia seguimos creciendo y queremos conocer a personas apasionadas por los datos 🚀
Si te interesa formar parte de nuestro equipo, aunque no haya una vacante específica ahora mismo, esta es tu oportunidad para entrar en nuestro radar. Buscamos perfiles diversos dentro del mundo del dato para futuros proyectos y necesidades.
💡 ¿Qué tipo de perfiles buscamos?
Estamos abiertos a conocerte si tienes experiencia o interés en áreas como:
📊 Business Intelligence / Data Visualization
🔄 ETL / Integración de datos
🏗️ Data Engineering
📈 Data Analytics
🤖 Machine Learning / Data Science (valorado)
🗄️ Modelado de datos y bases de datos
🧠 ¿Qué valoramos?
- Experiencia trabajando con datos (independientemente del rol específico)
- Conocimientos en herramientas como:
- SQL
- Python / R
- Power BI, Tableau u otras herramientas de visualización
- Tecnologías de integración de datos
- Mentalidad analítica y orientación a resolver problemas
- Ganas de aprender y seguir creciendo
- Capacidad para trabajar en equipo
🌱 ¿Qué ofrecemos?
- Formar parte de un equipo en crecimiento con cultura tecnológica
- Participación en proyectos variados relacionados con datos
- Formación continua y desarrollo profesional
- Entorno colaborativo y flexible
- Posibilidad de trabajar con tecnologías modernas del ecosistema data
Porque queremos construir una comunidad de talento en datos 💙
Si te interesa Imatia, pero no ves una vacante que encaje exactamente contigo ahora mismo, déjanos tu CV. Cuando surja una oportunidad alineada con tu perfil, nos pondremos en contacto contigo.
📩 ¿Te interesa?
¡Nos encantará conocerte!
Aplica y cuéntanos en qué área del dato te gustaría crecer.
Plexus
Madrid, ES
Data Engineer (Spark / Databricks / Snowflake)
Plexus · Madrid, ES
TSQL Scala Terraform Kafka Spark
Details
Join Plexus Tech. We are currently looking for Data Engineering profiles to participate in the development of modern data platforms based on Spark, Databricks, and Data Lake / Lakehouse architectures.
You will join a data architecture team responsible for designing and maintaining data pipelines that support various analytical products and business systems.
REQUIREMENTS:
Minimum of 3 years of professional experience in:
- Apache Spark (Scala or PySpark)
- Databricks
- SQL
- Snowflake
- Experience with Data Lake / Lakehouse architectures
- Kafka (data streaming)
- Airflow (pipeline orchestration)
- Terraform (infrastructure as code)
- Experience in the fashion/textile sector (highly valued)
With our hybrid model, Flexology allows you to work where your talent flows best: from any of our 24 offices across Spain, from home, or combining both. The Plexus Tech work ecosystem fosters a collaborative environment across the company.
Work with top-tier professionals
Access to continuous learning and training
Career growth opportunities
Flexible compensation (health insurance, meal vouchers, childcare, transport)
Julius Baer
Madrid, ES
Machine Learning Engineer 100 (f/m/d)
Julius Baer · Madrid, ES
Python Agile DevOps Machine Learning
At Julius Baer, we celebrate and value the individual qualities you bring, enabling you to be impactful, to be entrepreneurial, to be empowered, and to create value beyond wealth. Let’s shape the future of wealth management together.
We are seeking a skilled machine learning engineer (ML Eng) to join one of our agile development teams in our ML & AI ART. In this role, you will play a key part in designing, building, and maintaining robust, scalable AI solutions within a DevOps environment.
You´ll contribute across the entire lifecycle - from concept to deployment - and collaborate closely with cross-functional teams to deliver high-quality digital solutions.
YOUR CHALLENGE
- Develop, deploy, and optimize machine learning and AI solutions that address complex business challenges
- Create multi-agent systems and equip AI models with function/tool-calling capabilities
- Design and implement RAG systems to ground AI responses in enterprise data
- Assess and integrate AI models (e.g. LLMs) ensuring optimal performance and reliability
- Optimize agentic workflows and AI agents for production use cases
- Testing and optimizing system prompts and few-shot example to ensure accurate, consistent, and safe AI outputs
- Performance evaluation of machine learning and AI models using appropriate metrics, evaluation sets and techniques, and continuously iterate and improve upon them
- Collaborate with platform teams, data engineers, data scientists, and other stakeholders to integrate machine learning solutions into existing systems and processes
- Participate in code reviews, testing, and debugging to ensure the quality and reliability of machine learning solutions
YOUR PROFILE
- Strong problem-solving and analytical skills, with the ability to think critically and creatively about complex challenges
- Excellent communication and collaboration skills, with the ability to work effectively with cross-functional teams and stakeholders at all levels of the organization
- Ability to manage personal workloads effectively, to prioritize tasks, manage timelines, and deliver high-quality results on schedule
- Continuous learning mindset, with a passion for staying up-to-date with the latest advancements in machine learning and artificial intelligence
- Attention to detail and commitment to producing high-quality, reliable, and maintainable code
- Bachelor´s or Master´s degree in Data Science, Computer Science, Mathematics, Statistics, or a related field
- Strong programming skills in Python with experience in machine learning libraries and deep learning frameworks such as TensorFlow or PyTorch
- Proven experience working with Large Language Models (LLMs)
- Good understanding of AI agents & agentic workflows, LLM orchestration frameworks and reasoning patterns
- Experience with data preprocessing, feature engineering, and model selection and evaluation techniques
- Knowledge of statistical and mathematical concepts relevant to machine learning, such as probability, linear algebra, and optimization
- Understanding software development best practices, including version control, testing, and documentation
- Excellent problem-solving and debugging skills, with the ability to identify and resolve issues quickly and effectively
- Relevant work experience in machine learning, data science or a related field
- Very good English, Spanish is a plus
DevOps Engineer (INGLÉS)
7 abr.CAS TRAINING
Barcelona, ES
DevOps Engineer (INGLÉS)
CAS TRAINING · Barcelona, ES
Python Azure Docker Cloud Coumputing Kubernetes AWS PowerShell DevOps
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un/una profesional Senior Azure DevOps Engineer con alta cualificación para diseñar, transformar y gestionar soluciones escalables.
Skills técnicas requeridas: experiencia profunda en servicios cloud y arquitectura Azure; infraestructura como código con Bicep y ARM templates; desarrollo de pipelines CI/CD con Azure DevOps; scripting avanzado con PowerShell y Python; conocimiento de prácticas de seguridad cloud y estándares de cumplimiento; monitorización y troubleshooting de sistemas basados en Azure.
Skills opcionales: Azure Data Factory y Azure Databricks; Contenerización y orquestación con Docker y Kubernetes; conocimiento de otros proveedores cloud como AWS y GCP; comprensión de redes, VPNs y entornos cloud híbridos.
Capacidades : buen nivel de inglés; fuerte capacidad analítica y de resolución de problemas; excelente comunicación y trabajo en equipo; capacidad para trabajar en entornos dinámicos y gestionar múltiples prioridades; actitud proactiva y aprendizaje continuo. Soft skills: mentalidad colaborativa, foco en calidad y seguridad, adaptabilidad, ownership de proyectos, organización y accountability.
Background y experiencia: Grado en Computer Science, IT o similar; 5+ años de experiencia en DevOps, Cloud Engineering o roles relacionados; experiencia demostrable en entornos Azure enterprise a gran escala; experiencia en automatización y scripting en entornos corporativos.
Misión: desarrollo y migración de la nueva AI Platform.
Entregables solicitados: Azure Infrastructure Design document, Automated CI/CD Pipelines, IaC Templates, Scripting Module. Entorno técnico: DevOps Engineer.
Sector: Seguros. Modalidad: Híbrido Barcelona
CAS TRAINING
Málaga, ES
DevOps or Infrastructure Engineering
CAS TRAINING · Málaga, ES
Python Agile Jenkins Cloud Coumputing Kubernetes Ansible OpenShift AWS Bash DevOps Terraform
At CAS Training, a leading company with over 20 years of experience in technology consulting, outsourcing, and specialized training, we are looking to hire a DevOps or Infrastructure Engineering.
Strong command of AWS services (EKS, Lambda, S3, IAM, KMS, CloudWatch). Proficiency in Jenkins, GitHub Actions, and related CI/CD tools.
Responsibilities:
• Develop and maintain CI/CD pipelines for container-based and legacy applications.
• Deploy and manage infrastructure in AWS using tools like Terraform and CloudFormation.
• Operate and improve container environments (EKS, Openshift), ensuring scalability and resiliency.
• Support certificate lifecycle management, secrets rotation, and access control via Vault and KMS.
• Implement observability standards, integrating monitoring tools like Dynatrace and CloudWatch. •
Collaborate with developers, SREs, and security teams to enhance platform capabilities.
• Participate in cloud security reviews, firewall rule validation, and connectivity testing.
• Contribute to documentation and internal tooling improvements to share DevOps knowledge.
Solid experience with Kubernetes and containerized deployments. Hands-on with Terraform, Ansible, or similar IaC frameworks. Knowledge of secure secrets management and IAM policy design. Comfortable scripting in Bash, Python, or similar languages.
Familiarity with monitoring/alerting practices and log pipelines. Ability to work autonomously and collaboratively in agile teams.
We offer:
- Be part of a highly qualified, dynamic team in a growing company.
- Take part in innovative, cutting-edge projects for top-tier clients across different market sectors.
- Long-term projects, professional stability, and career progression opportunities.
- CAS Training Permanent contract
- Free access to CAS Training’s annual training catalog.
Kanguro
Senior Engineer, Data Engineering
Kanguro · Vitoria-Gasteiz, ES
Teletrabajo . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
~ Python para procesamiento de datos y scripting de pipelines
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
~ Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés .
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Data Engineer
6 abr.Kanguro
Data Engineer
Kanguro · Ferrol, ES
Teletrabajo . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es
Josep Francesc Cortés
Si te interesa la posición y cumples los requisitos, envía un email a
dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.