¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraTransporte y Logística
1.135Informática e IT
973Comercial y Ventas
941Adminstración y Secretariado
740Desarrollo de Software
512Ver más categorías
Ingeniería y Mecánica
452Comercio y Venta al Detalle
413Educación y Formación
380Derecho y Legal
364Industria Manufacturera
359Instalación y Mantenimiento
255Marketing y Negocio
235Sanidad y Salud
187Diseño y Usabilidad
181Arte, Moda y Diseño
128Construcción
126Publicidad y Comunicación
124Contabilidad y Finanzas
90Recursos Humanos
77Alimentación
70Artes y Oficios
68Atención al cliente
63Hostelería
52Turismo y Entretenimiento
52Producto
49Banca
42Inmobiliaria
40Farmacéutica
34Seguridad
24Cuidados y Servicios Personales
22Energía y Minería
17Social y Voluntariado
16Telecomunicaciones
7Deporte y Entrenamiento
4Seguros
3Agricultura
1Ciencia e Investigación
0Editorial y Medios
0Senior DevOps
18 sept.Krell Consulting & Training
Senior DevOps
Krell Consulting & Training · Madrid, ES
Teletrabajo API Python Agile Azure Jenkins Linux C++ Docker Kubernetes Git REST Jira TypeScript Bash DevOps PostgreSQL
Descripción
buscamos un Senior DevOps con al menos 2 años de experiencia para unirse a nuestro equipo en el área de Tráfico Aéreo.
Responsabilidades:
Administración y despliegue en entornos Kubernetes, Docker, OpenShift.Gestión de clusters (charts, pods, sts, pvc, hpa, etc.).
Uso de Helm para automatización de despliegues.Automatización con bash y administración de sistemas Linux.Integración con Git y manejo de brokers/protocolos de mensajería (AMQP, MQTT).
Consumo e implementación de API REST.
Colaboración con el equipo en entornos Agile para garantizar la calidad y disponibilidad de los sistemas.
Requisitos imprescindibles:
Titulación en Ingeniería Técnica o Superior en Informática (preferentemente) o Telecomunicaciones.Experiencia mínima de 2 años en puesto similar.Conocimientos sólidos en:Linux y programación en bash.Kubernetes, Docker, OpenShift.Herramientas de terminal (vim, nano, grep, sed, chmod, etc.).Git.Brokers de mensajería (AMQP, MQTT).API REST.Conocimientos básicos de TypeScript, C++, PostgreSQL y MongoDB.Nivel de inglés B2.
Valorable:
Conocimientos en Python, VSCode, Doors, JIRA, Azure, Jenkins, Sonar.
Experiencia en comunicaciones y redes (HAProxy, DNS, TCP/UDP, etc.).
Condiciones:
Jornada: Completa.
Tasa: 36.000 euros brutos/año
Ubicación: Málaga (modalidad 100 % remoto)
Tipo de contrato: Indefinido
Vacaciones: 30 días naturales
Devops
18 sept.CAS TRAINING
Devops
CAS TRAINING · Madrid, ES
Teletrabajo API Docker Kubernetes Git REST OpenShift Bash DevOps
CAS Training selecciona a dos devops con al menos 2 años de experiencia en programación en bash, Kubernetes, Docker, OpenShift para proyecto remoto
Skills
bash, Kubernetes, Docker, OpenShift
Experiencia con clusters (charts, pods, sts, pvc, hpa, etc.)
Experiencia con Helm Git Brokers y protocolos de mensajería (AMQP, MQTT, etc.)
API REST
Titulación: Ingeniería técnica o superior de Informática (preferentemente) o telecomunicaciones
Nivel inglés B2
Machine Learning Engineer (Product)
18 sept.Multiverse Computing
Madrid, ES
Machine Learning Engineer (Product)
Multiverse Computing · Madrid, ES
Python Docker Cloud Coumputing Git Machine Learning
As a Machine Learning Engineer you will
Build data and model pipelines end-to-end: create, source, augment, and validate datasets stand up training/fine-tuning/evaluation flows and ship models that meet product and customer requirements.
Design rigorous evaluation frameworks to verify task competence and alignment implement statistical testing, reliability checks, and continuous evaluation.
Scale training and inference: make effective use of distributed compute, optimize throughput/latency, and identify opportunities for algorithmic or systems-level speedups.
Improve models post-training: apply SFT and preference-based or reinforcement learning methods to enhance helpfulness, safety, and reasoning.
Optimize and specialize models: apply compression techniques to meet performance and footprint targets.
Collaborate across research and engineering: partner with ML engineers, researchers, and software engineers on data curation, evaluation design, training runs, model serving, and observability.
Contribute to our shared codebase: write clean, well-tested Python document decisions and artifacts uphold engineering standards.
Required Qualifications
Bachelor s degree in Computer Science, Math, Physics, Data Science, Operations Research, or related field.
Strong programming skills in Python and the modern ML stack (e.g., PyTorch), plus fluency with data tooling (NumPy/Pandas) and basic software practices (git, unit tests, CI).
Solid grounding in language modelling concepts around training, evaluation, model architecture, and data.
Comfort working with datasets at scale: collection, cleaning, filtering, labelling/annotation strategies, and quality controls.
Experience using GPU resources and familiarity with containerized workflows (e.g., Docker) and job schedulers or cloud orchestration.
Ability to read research papers, prototype ideas quickly, and turn them into reproducible, production-ready code.
Clear, pragmatic communication and a collaborative mindset.
Preferred Qualifications
PhD in Computer Science, Math, Physics, Data Science, Operations Research, or related field, or equivalent industry experience in machine learning, data science, or related roles, with demonstrated experience with NLP or LLMs.
Experience building foundational LLMs from the ground up.
Preferred Qualifications By Focus Area
Model Evaluation: Track record building task-grounded evals for LLMs, implementing or extending evaluation harnesses, and generating synthetic data for both evaluation and training deep understanding of LLM quirks and their ties to architecture and training dynamics.
Distributed Training: Hands-on experience debugging multi-node training, profiling/optimizing throughput and memory, and extending training frameworks to new architectures or optimizers comfort diagnosing flaky cluster issues.
Model Compression: Strong mathematical background and experience with pruning, quantization, and NAS ability to formulate and solve constrained optimization problems for accuracy/latency/footprint trade-offs and to integrate results into production.
Post-Training: Theoretical and practical familiarity with post-training and alignment techniques experience with SFT and preference/RL-based methods (e.g., DPO/GRPO, RLHF).
Python, Pytorch, LLM
DevOps Freelance
18 sept.WayOps
Madrid, ES
DevOps Freelance
WayOps · Madrid, ES
API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Machine Learning
En WayOps buscamos un perfil **DevOps Engineer** que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
**CONTEXTO & RESPONSABILIDADES**
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. (Junto al AI Architect, ) el DevOps Engineer deberá implementar pipelines CI/CD que permitan la integración y entrega continuas de código (DevOps) y modelos (ModelOps). Será imprescindible contar con un background técnico en programación y familiaridad tanto con DevOps, como con el ciclo de vida de los modelos científicos.
**PROYECTO & EQUIPO**
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (DevOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
**EXPERIENCIA & CONOCIMIENTOS**
El perfil a incorporar deberá contar con 2-3 años de experiencia como especialista DevOps liderando la creación de pipelines de integración y despliegue continuo con Azure DevOps, así como código que permita la industrialización y automatización del despliegue de entornos (IaC). Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Software o Ingeniero de Sistemas desarrollando aplicaciones y programas o desarrollando scripts que faciliten la configurando de entornos.
Se valorará experiencia previa en industrialización de entornos Data & AI, especialmente los orientados al ciclo de vida de los modelos científicos. Además, se valorará experiencia con Bizep/Terraform y experiencia o conocimiento con la API de de Azure Databricks.
Será necesario tener experiencia previa con tecnologías:
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Azure (Key Vault, Managed Identities, Application Insights, Azure Monitor, App Service, Storage)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML SDK v2, MLflow)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Visual Studio Code, Git, GitFlow)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Data Factory, Databricks, Azure Machine Learning, Cosmos DB, SQL Databases)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Databricks (Delta Tables, Unity Catalog, Databricks Connect)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
**CONTRATACIÓN & UBICACIÓN**
La contratación será mediante un contrato anual prorrogable como autónomo a jornada completa. El trabajo se llevará a cabo de forma híbrida, con presencia en las oficinas del cliente en Madrid (3-4 días a la semana en las oficinas y 1-2 días remoto), adaptándose al horario de oficina para facilitar la coordinación con el equipo. La banda salarial será negociable en función de la experiencia aportada. Incorporación inmediata.
Data Scientist
17 sept.InterEx Group
Data Scientist
InterEx Group · Madrid, ES
Teletrabajo TSQL Azure Docker Cloud Coumputing Kubernetes AWS ERP
Data Scientist - Global Consulting Partner - Madrid
Tech stack: Data Scientist Python/R/Java/C++, Cloud Azure AWS, Git/GitHub/GitLab/Bitbucket, SQL, Cloud, Docker, Kubernetes, Data Scientist
Our client, one of the most known consultancy companies in the world is looking to expand their Data & Analytics team, bringing some professionals that want to work with the best clients in th emarket.
Our client is looking for talented, enthusiastic and passionate Data Scientists (Data Scientist Python/R/Java/C++, Cloud Azure AWS, Git/GitHub/GitLab/Bitbucket, SQL, Cloud, Docker, Kubernetes, Data Scientist) to bring their services to the market and help enhance this already successful company!
Successful Data Scientists candidates should be able to demonstrate strong knowledge of: Python/R/Java/C++, Cloud Azure AWS, Git/GitHub/GitLab/Bitbucket, SQL, Cloud, Docker, Kubernetes
Training will be provided in any of the technologies you lack, allowing you to turn your technological weaknesses into your greatest strengths!
All Data Scientists positions come with the following benefits:
- 25 days holiday (plus Public Holidays)
- REAL flexibility on how and when you work
- Allowance for trainings/certifications/conferences
- Insurance
- Private medical
Location: Madrid, Spain / Hybrid Working
Salary: 49k for Seniors and above 50k for managers (with 20% bonus)
InterEx Group are Experts in Data, ERP and CRM, we are committed to supporting your career progression!
Ingeniero/a de datos
17 sept.Segula Technologies
Valladolid, ES
Ingeniero/a de datos
Segula Technologies · Valladolid, ES
Python TSQL Docker Cloud Coumputing DevOps Terraform Machine Learning
Funciones
En SEGULA Technologies estamos buscando un/a Data Engineer Senior con experiencia sólida en infraestructura cloud y orquestación de pipelines de machine learning en Google Cloud Platform (GCP).
Este perfil se incorporará a un proyecto puntero en el sector tecnológico, colaborando con equipos de data science, MLOps e infraestructura para desplegar soluciones escalables y automatizadas en entornos productivos.
Este consultor trabajará en una gran empresa del sector de la automoción, ubicado en Valladolid, en formato híbrido y con horario flexible.
Sus principales FUNCIONES serán:
Diseñar e implementar arquitecturas de datos en GCP: Compute Engine, GKE, Cloud Storage, Cloud SQL, IAM, VPC.
Orquestar pipelines de ML automatizados con Vertex AI Pipelines, Cloud Composer (Apache Airflow) o Cloud Build.
Gestionar el ciclo de vida de modelos con Vertex AI Model Registry: versionado, metadatos y actualizaciones.
Desplegar modelos como endpoints mediante Vertex AI Endpoints, Cloud Run o GKE.
Implementar monitorización de modelos: deriva de datos, calidad de predicción y alertas con Vertex AI Model Monitoring y Cloud Monitoring.
Automatizar infraestructura con Terraform y scripting en Python.
Contenerizar modelos y aplicaciones usando Docker.
Requisitos
Experiencia avanzada en arquitectura cloud con GCP.
Conocimiento profundo de ingeniería de datos y ML pipelines en producción.
Experiencia con Terraform, Python y contenedores Docker.
Nivel de inglés mínimo B2 (entorno internacional).
Capacidad de trabajo en equipo, orientación a la automatización y buenas prácticas DevOps.
Y también se valorará:
Experiencia en el sector automoción
Experiencia en entornos internacionales
Conocimiento del entorno de Supply Chain y logistica
Se ofrece
-Salario en función de valía y experiencia aportada por el candidato
-26 días de vacaciones
-Puesto estable, contrato indefinido
-Formación continua técnica e idiomas
-Buen ambiente de trabajo, profesional y muy especializado
-Posibilidad de trabajar en una empresa multinacional en pleno crecimiento a nivel nacional e internacional
-Promoción interna según tus propios objetivos
-Posibilidad de obtener ventajas fiscales en tu salario con SEGULA BENEFITS
Machine Learning Engineer (Product)
17 sept.Multiverse Computing
Madrid, ES
Machine Learning Engineer (Product)
Multiverse Computing · Madrid, ES
Python Docker Cloud Coumputing Git Machine Learning
As a Machine Learning Engineer you will
* Build data and model pipelines end-to-end: create, source, augment, and validate datasets; stand up training/fine-tuning/evaluation flows; and ship models that meet product and customer requirements.
* Design rigorous evaluation frameworks to verify task competence and alignment; implement statistical testing, reliability checks, and continuous evaluation.
* Scale training and inference: make effective use of distributed compute, optimize throughput/latency, and identify opportunities for algorithmic or systems-level speedups.
* Improve models post-training: apply SFT and preference-based or reinforcement learning methods to enhance helpfulness, safety, and reasoning.
* Optimize and specialize models: apply compression techniques to meet performance and footprint targets.
* Collaborate across research and engineering: partner with ML engineers, researchers, and software engineers on data curation, evaluation design, training runs, model serving, and observability.
* Contribute to our shared codebase: write clean, well-tested Python; document decisions and artifacts; uphold engineering standards.
---
Required Qualifications
* Bachelor´s degree in Computer Science, Math, Physics, Data Science, Operations Research, or related field.
* Strong programming skills in Python and the modern ML stack (e.g., PyTorch), plus fluency with data tooling (NumPy/Pandas) and basic software practices (git, unit tests, CI).
* Solid grounding in language modelling concepts around training, evaluation, model architecture, and data.
* Comfort working with datasets at scale: collection, cleaning, filtering, labelling/annotation strategies, and quality controls.
* Experience using GPU resources and familiarity with containerized workflows (e.g., Docker) and job schedulers or cloud orchestration.
* Ability to read research papers, prototype ideas quickly, and turn them into reproducible, production-ready code.
* Clear, pragmatic communication and a collaborative mindset.
---
Preferred Qualifications
* PhD in Computer Science, Math, Physics, Data Science, Operations Research, or related field, or equivalent industry experience in machine learning, data science, or related roles, with demonstrated experience with NLP or LLMs.
* Experience building foundational LLMs from the ground up.
Preferred qualifications by focus area:
* Model Evaluation: Track record building task-grounded evals for LLMs, implementing or extending evaluation harnesses, and generating synthetic data for both evaluation and training; deep understanding of LLM quirks and their ties to architecture and training dynamics.
* Distributed Training: Hands-on experience debugging multi-node training, profiling/optimizing throughput and memory, and extending training frameworks to new architectures or optimizers; comfort diagnosing flaky cluster issues.
* Model Compression: Strong mathematical background and experience with pruning, quantization, and NAS; ability to formulate and solve constrained optimization problems for accuracy/latency/footprint trade-offs and to integrate results into production.
* Post-Training: Theoretical and practical familiarity with post-training and alignment techniques; experience with SFT and preference/RL-based methods (e.g., DPO/GRPO, RLHF).
Senior Frontend Developer (React)
16 sept.BrainRocket
València, ES
Senior Frontend Developer (React)
BrainRocket · València, ES
React Javascript Angular Docker GraphQL Git REST TypeScript DevOps Nginx
We´re looking for an experienced Senior React Developer to join our development team in Valencia, Spain!
Responsibilities:
• Design and develop a web platform that meets web-performance requirements;
• Close collaboration with Backend and DevOps teams;
• Develop and maintain the technical excellence of the team using the best approaches and engineering practices;
• Optimizing components of performance/quality perspective.
Requirements:
• A minimum of 5 years of commercial experience in web development;
• At least 3 years of professional experience with React;
• Solid knowledge and experience in modern SPA frameworks (Angular, React, Vue, etc.) and their SSR ecosystem;
• Excellent JavaScript knowledge and programming experience with ES5/ES6;
• Proficiency with TypeScript;
• Familiarity with testing frameworks and test runner frameworks;
• Practical experience in setting up styling standards, guidelines, and best practices;
• Experience consuming REST APIs, GraphQL APIs;
• Clear understanding of SOLID/GRASP, client-side architecture, and design patterns;
• Awareness of cross-browser compatibility issues and client-side performance considerations;
• Exceptional learning skills, problem-solving, and ability to work independently;
• Solid understanding and extensive experience with tools like git, npm, ViteJS, Webpack, and Linters;
• Advanced level of English.
Would be a plus:
• Experience with NodeJS and its ecosystem;
• Experience in working with Docker, NGINX, MySQL/MongoDB, and GraphQL;
• Strong product eye & understanding of typical web UX.
We offer excellent benefits, including but not limited to:
Learning and development opportunities and interesting, challenging tasks.
Relocation package (tickets, staying in a hotel for up to 2 weeks, and visa relocation support for our employees and their family members).
Opportunity to develop language skills, with partial compensation for the cost of English and Spanish language classes (for localization purposes).
Private medical coverage.
Time for proper rest, with 24 non-business days per year and an additional 6 paid sick days.
Competitive remuneration level with annual review.
Teambuilding activities.
Recruitment Process:
1. Interview with the Recruiter.
2. Technical Assessment via HackerRank.
3. Technical Interview with the Technical Team.
4. Final Interview with the Hiring Leads.
5. Offer.
!Important: This is an on-site position based in Valencia. Remote or hybrid work is not available. Candidates must either already be in Valencia or be willing to relocate. Full relocation support will be provided if necessary.!
Bold moves start here. Make yours. Apply today!
Ingeniero/a DevOps
16 sept.Digital Talent Agency
Ingeniero/a DevOps
Digital Talent Agency · Madrid, ES
Teletrabajo MongoDB Python Azure Jenkins Linux C++ Docker Cloud Coumputing Kubernetes Git REST Jira TypeScript OpenShift Bash DevOps PostgreSQL
Descripción
Descripción del puesto: En Zemsania seleccionamos un/a Ingeniero/a DevOps para incorporarse a un proyecto estratégico en el área de Tráfico Aéreo, dentro del Proyecto UTM (gestión del tráfico no tripulado) en el sector aeronáutico. La persona seleccionada se integrará en un equipo técnico altamente cualificado, participando en tareas de desarrollo, despliegue y mantenimiento de infraestructuras y servicios en entornos Cloud y de contenedores.
Funciones:
Participación en el equipo DevOps del área de Tráfico Aéreo.
Desarrollo y mantenimiento de scripts en bash.
Gestión de entornos Linux y herramientas de terminal.
Administración de contenedores y orquestadores: Docker, Kubernetes, OpenShift.
Gestión de clusters: charts, pods, sts, pvc, hpa, etc.
Uso de Helm, Git, brokers y protocolos de mensajería (AMQP, MQTT).
Integración de APIs REST.
Colaboración en tareas relacionadas con bases de datos (PostgreSQL, MongoDB) y lenguajes como TypeScript y C++.
Requisitos mínimos:
Titulación en Ingeniería Técnica o Superior en Informática (preferente) o Telecomunicaciones.
Al menos 2 años de experiencia en entornos DevOps.
Conocimientos sólidos en Linux, bash, herramientas de terminal (vim, nano), comandos generales (grep, sed, chmod).
Experiencia con Kubernetes, Docker, OpenShift.
Experiencia con clusters y herramientas de orquestación.
Conocimientos en Helm, Git, protocolos AMQP/MQTT y APIs REST.
Conocimientos básicos en TypeScript, C++, PostgreSQL y MongoDB.
Requisitos deseables:
Conocimientos en Python, VSCode, Doors, JIRA, Azure, Jenkins, Sonar.
Experiencia en comunicaciones y redes (HAProxy, DNS, TCP/UDP).
Nivel de inglés B2.
Condiciones laborales:
Contrato estable con Zemsania.
Modalidad remota.
Proyecto de alta especialización en el sector aeronáutico.
Acompañamiento con People Partner.
Plan de certificaciones y formación continua.
Retribución flexible.
Entorno colaborativo y dinámico.
En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.