No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
956Informàtica i IT
875Administració i Secretariat
694Transport i Logística
491Comerç i Venda al Detall
356Veure més categories
Desenvolupament de Programari
335Educació i Formació
308Enginyeria i Mecànica
294Dret i Legal
288Disseny i Usabilitat
284Màrqueting i Negoci
272Publicitat i Comunicació
213Instal·lació i Manteniment
151Construcció
144Recursos Humans
115Sanitat i Salut
112Indústria Manufacturera
108Comptabilitat i Finances
84Hostaleria
76Art, Moda i Disseny
74Atenció al client
46Arts i Oficis
44Turisme i Entreteniment
43Producte
38Immobiliària
35Cures i Serveis Personals
28Editorial i Mitjans
26Seguretat
25Alimentació
24Banca
19Farmacèutica
17Energia i Mineria
12Social i Voluntariat
10Esport i Entrenament
7Agricultura
3Assegurances
2Telecomunicacions
2Ciència i Investigació
0Technical lead cloud operations
28 de nov.Aubay
Technical lead cloud operations
Aubay · Barcelona, ES
Teletreball Python Azure Jenkins Cloud Coumputing OpenShift AWS PowerShell DevOps Agile ITIL Terraform
Funciones
En Aubay buscamos un Cloud Operations Technical Lead para supervisar las operaciones diarias, el rendimiento y la fiabilidad de nuestra infraestructura en la nube. Este rol combina una profunda experiencia técnica con responsabilidades de liderazgo, garantizando la estabilidad, escalabilidad y seguridad de nuestros entornos cloud a través de múltiples plataformas (por ejemplo, AWS, Azure, OpenShift).
Requisitos
Experiencia:
Más de 5 años en infraestructura y operaciones en la nube.
- Liderando equipos técnicos en operaciones cloud, infraestructura o entornos DevOps.
- Escribiendo infraestructura como código con CDK, Terraform y/o CloudFormation (u otros equivalentes).
- Con herramientas de despliegue automatizado, como AWS CodePipeline/CodeBuild, Azure DevOps (o equivalentes)
- Gestionando prioridades, delegando tareas y asegurando la entrega puntual de objetivos operativos y basados en proyectos.
- Gestionar entornos de infraestructura, configuraciones y flujos de trabajo mediante automatización de autoservicio.
- Garantizar estabilidad operativa y aplicación de controles de seguridad mediante Policy-as-Code e IaC automatizado.
Habilidades técnicas requeridas:
- Computación en la nube (Microsoft Azure, AWS).
- Automatización de infraestructura como código con Terraform.
- Herramientas de redes en Azure (VNET, BGP, etc.).
- Automatización DevOps end-to-end mediante pipelines CI/CD para desplegar Infraestructura como Código (IaC) y uso de herramientas como ADO, GitHub Actions, Jenkins o equivalentes.
- Dominio de lenguajes de scripting: Python, PowerShell, YAML, KQL, entre otros.
- Familiaridad con metodologías Ágiles y prácticas de gestión de servicios basadas en ITIL.
- Marcos y herramientas de automatización de pruebas.
Se ofrece
Contrato indefinido
Proyecto estable
TELETRABAJO: 3 días/semana
Ubicación: Barcelona (Cornellá de Llobregat)
Formación a medida (tecnologías, idiomas, certificaciones...)
Salario a negociar en función de la experiencia
Retribución flexible (seguro médico, ticket restaurante, cheque guardería)
#LI_EP1
Senior Data Management
28 de nov.CMV Consultores
Senior Data Management
CMV Consultores · Barcelona, ES
Teletreball Linux Cloud Coumputing Ansible SaaS Terraform
Desde CMV Consultores estamos buscando un Senior Data Management con amplia experiencia en las soluciones Informatica Intelligent Data Management Cloud (IDMC). La persona seleccionada será responsable de impulsar la mejora del gobierno del dato y la calidad del dato, garantizando el cumplimiento de los estándares de gestión de datos personales en entornos cloud.
Requisitos Imprescindibles
Inglés fluido (nivel mínimo B2).
Experiencia demostrable con soluciones Informatica IDMC, especialmente en:
IDMC DGC (Data Governance and Catalog)
IDMC CDQ (Cloud Data Quality)
IDMC MDM SaaS
Data Privacy Management
Sólidos conocimientos técnicos en entornos Linux, orientados a integración de datos y operación de aplicaciones.
Experiencia con herramientas de automatización, especialmente Terraform y Ansible, para la instalación y configuración de agentes.
Responsabilidades Clave:
Gobierno y Calidad del Dato: Liderar iniciativas para mejorar el data governance y la data quality mediante los servicios IDMC, incluyendo DGC, CDQ y MDM/RDM.
Gestión de Plataforma: Administrar y mantener plataformas de integración y gestión de datos a gran escala, asegurando su disponibilidad y rendimiento.
Operaciones en Cloud: Configurar y operar servicios Informatica IDMC en entornos cloud, garantizando el cumplimiento de los estándares de seguridad.
Monitorización y Automatización: Supervisar servicios IDMC en la nube, asegurar un sistema de monitorización altamente disponible y automatizar tareas de plataforma mediante Terraform y Ansible.
Se ofrece:
Contrato indefinido
100% remoto
Ingeniero DevOps Blockchain
27 de nov.MigaLabs
Barcelona, ES
Ingeniero DevOps Blockchain
MigaLabs · Barcelona, ES
Python Linux Docker Cloud Coumputing Kubernetes Ansible AWS Bash DevOps PostgreSQL Terraform
# MigaLabs
MigaLabs es un laboratorio de investigación especializado en análisis de blockchain, centrado en Ethereum. Desarrollamos infraestructura, herramientas y datasets que ayudan a comprender el rendimiento, la descentralización y el estado de la red. Colaboramos con equipos líderes del ecosistema y operamos sistemas distribuidos que procesan datos en tiempo real a gran escala.
# Puesto
Buscamos un DevOps Engineer con experiencia en tecnología blockchain, especialmente en Ethereum, para unirse a nuestro equipo y ayudarnos a escalar, automatizar y asegurar la infraestructura que soporta nuestros análisis y servicios.
# Responsabilidades
* Diseñar y mantener la infraestructura cloud para la captura, el procesamiento y el servicio de datos de blockchain.
* Automatizar despliegues y crear pipelines de CI/CD reproducibles.
* Administrar nodos de Ethereum (CL/EL), contenedores, bases de datos y servicios críticos.
* Implementar monitorización, métricas, logs y alertas (Prometheus, Grafana, Loki, etc.).
* Garantizar la fiabilidad, la seguridad y la escalabilidad de sistemas distribuidos.
* Colaborar con los equipos de backend y de data engineering.
* Documentar arquitectura y procedimientos.
# Requisitos
* Experiencia demostrable en entornos blockchain, preferiblemente Ethereum (ejecución de nodos, clientes, redes, sincronización, tooling).
* Dominio de Linux y de scripting.
* Experiencia con Docker y/o contenedores.
* CI/CD (GitHub Actions, GitLab CI o similar).
* Gestión de cloud (AWS, GCP, Azure...).
* Infrastructure as Code (Terraform, Ansible, Pulumi...).
* Monitorización y observabilidad (Prometheus, Grafana, Loki).
* Conocimientos de redes, seguridad y bases de datos PostgreSQL y Clickhouse.
* Programación en Python, Go o Bash.
# Bonus
* Experiencia con Geth, Nethermind, Lighthouse, Prysm, Teku u otros clientes de Ethereum.
* Kubernetes u orquestadores similares.
* Programación en Rust
* Conocimientos de sistemas distribuidos y de procesamiento de datos en tiempo real.
* Interés por la open data y la descentralización.
# Oferta
* Contrato full-time, híbrido (Barcelona).
* Proyectos de alto impacto en el ecosistema de Ethereum.
* Equipo técnico de alto nivel y entorno de investigación.
* Flexibilidad horaria y salario competitivo.
* Oportunidad de asistir a conferencias (Devcon, ETHCC, etc.).
DevOps Engineer Azure
27 de nov.CAS TRAINING
DevOps Engineer Azure
CAS TRAINING · Madrid, ES
Teletreball Python Azure Cloud Coumputing Kubernetes PowerShell Bash DevOps Terraform
Buscamos DevOps Engineer Senior – Azure | Liderazgo | Madrid (Remote First)
¿Te gustaría liderar un squad de DevOps en una plataforma data de alto impacto, trabajar con tecnologías punteras de Azure y tener autonomía técnica real? ¡Entonces esta oportunidad es para ti!
📍 Ubicación: Madrid (1 día presencial al mes)
🌍 Idiomas: Español + Inglés C1
🔧 ¿Qué harás?
Serás el/la referente técnico del equipo DevOps-Infra (3–4 personas), liderando decisiones de arquitectura e infraestructura en una plataforma cloud con servicios avanzados de Azure.
Tu día a día incluirá:
🚀 Despliegue y mantenimiento de la infraestructura cloud de la Plataforma Data.
☸️ Administración y troubleshooting de AKS (Azure Kubernetes Services).
🧩 Infraestructura como Código con Ansible/Jinja2 y Terraform.
🧪 Automatización y scripting (PowerShell, Bash, Python).
🔐 Soporte de conectividad avanzada: Private Endpoints, VNETs, Gateways, WAF, F5, NSG...
📦 Trabajo con PaaS: Databricks, Data Factory, AzureML, OpenAI, KeyVault, Functions...
🚦 CI/CD con Azure DevOps Pipelines.
🤝 Interlocución con equipos de Microsoft internacionales.
Ingeniero de Cloud GCP
27 de nov.Meisters
Madrid, ES
Ingeniero de Cloud GCP
Meisters · Madrid, ES
Docker Cloud Coumputing Kubernetes DevOps Terraform
Buscamos un ingeniero de cloud con sólida experiencia en Google Cloud Platform (GCP) para unirse a nuestro equipo. El candidato ideal debe tener entre 3 y 5 años de experiencia en el diseño, implementación y gestión de soluciones en la nube, garantizando la disponibilidad y escalabilidad de los servicios.
El puesto requiere habilidades en la administración de recursos en GCP, así como experiencia en la automatización de procesos utilizando Terraform o herramientas similares. Se espera que el candidato participe en la creación de arquitecturas escalables y seguras, y colabore con equipos multidisciplinarios para impulsar la innovación y la eficiencia operativa.
El ingeniero de cloud trabajará estrechamente con desarrolladores y otros equipos técnicos para integrar soluciones de GCP y garantizar una transición fluida hacia la nube. Además, será responsable de monitorear el rendimiento de las aplicaciones y servicios, identificando oportunidades para optimizar costos y mejorar la seguridad.
Se valorará experiencia en DevOps y CI/CD, así como en contenedores utilizando Docker o Kubernetes. Buscamos un profesional con habilidades de resolución de problemas y una mentalidad analítica, que esté dispuesto a aprender y adaptarse a nuevas tecnologías en un entorno dinámico y en rápida evolución.
Data Management Specialist
26 de nov.Sopra Steria
València, ES
Data Management Specialist
Sopra Steria · València, ES
API MySQL Python TSQL Azure Jenkins AWS PowerShell Bash DevOps PostgreSQL Terraform Spark Power BI Tableau SQL SQL Server
Descripción de la empresa
Porque trabajar en Sopra Steria, también es sentir Sopra Steria.
Somos un reconocido líder europeo en consultoría, servicios digitales y desarrollo de software, con cerca de 56.000 empleados en casi 30 países y más de 4.000 en España.
Nos enfocamos en las personas, en su formación y desarrollo profesional, lo que nos impulsa a crecer y mejorar constantemente.
Tenemos pasión por lo digital y al igual que tú, buscamos la mejor de las aventuras. Queremos que tu día a día se convierta en la mejor de tus inspiraciones. Que aprendas, aportes, te diviertas, crezcas y que, sobre todo, disfrutes al máximo.
Si quieres formar parte de un equipo "Great Place to Work", ¡Sigue leyendo!
Descripción del empleo
Estamos buscando un/a Data Management Specialist para contribuir a la implementación de soluciones de datos a nivel empresarial que apoyen las iniciativas de análisis, inteligencia empresarial (BI) e IA. Entre las funciones del día a día se encuentran:
- Diseñar e implementar arquitecturas y flujos de datos modernos, escalables y seguros.
- Apoyar la validación y el perfeccionamiento de diseños de arquitectura de datos de alto y bajo nivel.
- Implementar y configurar componentes de plataformas de datos en plataformas en la nube como Microsoft Fabric y servicios de Azure relacionados.
- Desarrollar código reutilizable y modular para la transformación y orquestación de datos (p. ej., DBT, PySpark, SQL).
- Colaborar en la configuración de entornos de desarrollo, pruebas y producción siguiendo los principios de CI/CD.
- Impulsar la automatización de la infraestructura mediante prácticas de Infraestructura como Código (IaC) con herramientas como Terraform.
- Impulsar la automatización de los flujos de despliegue mediante Azure DevOps o herramientas de CI/CD equivalentes.
- Contribuir a las estrategias de monitorización y optimización de costes para los recursos de la plataforma de datos.
- Diseñar, construir y mantener pipelines ETL/ELT para la ingesta de datos estructurados y semiestructurados (API, archivos, bases de datos, etc.).
- Integrar y transformar datos provenientes de sistemas externos, repositorios SQL y servicios de datos en la nube.
- Implementar y supervisar reglas de calidad de datos y marcos de validación.
Requisitos
¿Qué necesitamos?
- Amplia experiencia con una o más plataformas de nube pública (Azure, AWS, GCP) y experiencia en la integración de soluciones en distintas nubes.
- Dominio de servicios de datos nativos de la nube (Azure Data Factory, AWS Glue, GCP Dataflow) y marcos de orquestación, con especial experiencia en servicios de Azure para la integración y el análisis de datos (Fabric, Data Factory, Synapse, Databricks, Logic Apps, etc.).
- Amplia experiencia con Python, PySpark, Spark SQL, T-SQL y lenguajes similares de transformación de datos. Sólidos conocimientos de los principios de arquitectura de datos, almacenamiento de datos y modelado de datos (conceptual, lógico y físico).
- Experiencia en el diseño e implementación de Data Lakes, Delta Lakes y soluciones de almacenamiento en la nube.
- Experiencia en la creación y automatización de pipelines ETL/ELT en diferentes plataformas de nube. Experiencia con motores de bases de datos relacionales como SQL Server, PostgreSQL o MySQL.
- Se valorará el conocimiento de herramientas de BI (SSIS, SSRS, SSAS, Tableau, Power BI, Qlik).
- Habilidades de scripting en PowerShell, Bash o Python para la automatización y la gestión de pipelines. Experiencia en la implementación de pipelines de CI/CD en entornos de nube.
- Familiaridad con metodologías y herramientas de DevOps/DataOps (Azure DevOps, GitHub Actions, Jenkins, etc.).
- Experiencia con buenas prácticas de control de versiones, pruebas y documentación.
- Nivel de inglés alto (al menos B2).
Información adicional
¿Qué tenemos para ti?
- Contrato indefinido y jornada completa
- Modelo híbrido flexible
- 23 días de vacaciones
- Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
- Seguro de vida y de accidentes
- Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
- Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
- Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento.
- Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
- Compañerismo y buen ambiente, el poder de la unión lo tenemos presente.
Y lo más importante...Tienes la posibilidad de desarrollar tu carrera profesional con nosotros: Crearemos juntos un plan de carrera personalizado. Te formarás, marcaremos objetivos y llevaremos a cabo un seguimiento para asegurarnos de que lo conseguimos juntos. Escuchamos tus prioridades y luchamos por ellas.
¡Aquí tu voz importa! ¡Únete a nosotros y sé parte de algo más!
The world is how we shape it
Adquirimos el compromiso de respetar la diversidad, creando un ambiente de trabajo inclusivo y aplicando políticas que favorezcan la inclusión y promuevan el respeto social y cultural en cuestiones de género, edad, funcional, orientación sexual y religión con igualdad de oportunidades.
API Developer - Devops Terraform AWS
26 de nov.Serem
API Developer - Devops Terraform AWS
Serem · Murcia, ES
Teletreball API Java Agile Azure Cloud Coumputing Kubernetes Git AWS DevOps ITIL Terraform
En serem estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.
Actualmente, nos encontramos en la búsqueda de un/a API Developer - Devops / Terraform / AWS
Perfil Devops, con ligeros conocimientos de desarrollo, y que esté acostumbrado a multiplicación que deben tener integraciones con Api managers.
Conocimientos necesarios:
- Control de versiones Git y GitKraken
- Experiencia en entornos de desarrollo agile multi-squad, preferiblemente orquestados con SAFe
- Cierta experiencia en Desarrollo SW (Java) para poder leer y entender logs de aplicación
- Experiencia en entornos con múltiples Aplicaciones, API Managers (WSO2 u otros), middlewares, etc.
- Experiencia en DevOps y Terraform
- Experiencia en cloud (AWS), sobre todo para servicios relacionados con datos (RedShift, Glue, SageMaker, Lambda, EC2, - LakeFormation, ...)
- Experiencia o conocimiento en metodologías de Release Management
Conocimientos valorables:
- Experiencia en Kubernetes, Azure
- Conocimientos básicos de gestión de Infraestructura en Azure (Reinicio de hosts, clusters, comprobación de memoria) y su alertado
- Experiencia en soluciones de observabilidad, preferible en Dynatrace
- Mínima experiencia en Redes para poder distinguir fallos de DNS/Host/etc
- Valorable conocimientos/certificaciones en ITIL
- Inglés nivel medio
Teletrabajo 100%. Preferible residencia en alguna de estas provincias: Salamanca, Cáceres, Badajoz, León, Castellón, Alicante, Albacete, Murcia, Ciudad Real, Canarias y Andalucía Global (Granada, Jaén, Almería, Málaga, Sevilla, Huelva, Cádiz, Córdoba)
Engineer position offered_2025
25 de nov.Iquadrat
Barcelona, ES
Engineer position offered_2025
Iquadrat · Barcelona, ES
. Python Linux Docker Cloud Coumputing Kubernetes Ansible Git IoT Terraform Office
IQUADRAT INFORMATICA S.L (IQU) is a technology company founded in 1997, with a focus on delivering System-Level evaluation tools for wireless networks. IQU R&D has been providing global solutions and services in the use of Internet and Telecommunications to companies and institutions that use information and communication technologies in commercial, marketing, management and business communication areas. IQU’s R&D has a focused business plan specifically intended on delivering a “new generation of tools for system level evaluation of wireless integrated communication systems towards the society digital transformation”. The R&D has extensive know-how in new concepts such as network/RAN virtualization, programmable networks, network slicing, cell-free, Artificial Intelligence and is also active in the fast-growing IoT paradigm with a plethora of vertical use cases. IQU´s R&D offers well established experimentation tools in 5G and IoT. IQU is active in many EU funded research projects related to 5G, 6G Smart Grid and IoT in collaboration with big European vendors and operators.
IQU´s R&D department is looking for one Researcher in the framework of H2020 and Horizon Europe projects. The work focuses on the analytical evaluation of the proposed solutions as well as proof of concepts in inhouse experimentation platforms. The successful applicant should have a PhD or Master degree in Telecommunications, Electronic Engineering or Computer Science.
Tasks
The selected candidate will:
- Contribute software for cutting edge research projects related to 5G/6G Network and Service management, Zero Touch Networks, Data-Driven Communications using AI/ML, LLM and experimental validation.
- Be in contact and work with cutting-edge technology, validated at our in-house experimental 5G platforms.
- Work in challenging 5G/6G and IoT R&D projects and represent the company in project meetings and research initiatives.
- Represent IQU in exhibitions like Mobile World Congress Forum, IoT Solutions World Congress, Smart Cities Expo etc.
Requirements
Basic Qualifications:
Position_1. Cloud or Software Engineer
- Experience with Linux server operating systems
- Familiar with cloud-native (Docker and container networking or Kubernetes) principles (and optionally K8s)
- Preferred programming languages: Python
- Preferred experience with Git, Terraform, and Ansible
Position_2. Network Engineer
- A strong understanding of basic networking principles and networking protocols
- Can configure hardware and network equipment like routers, switches (optionally: 5G base stations)
- Preferred knowledge of 4G / 5G architecture
Preferred Qualifications:
Experience with Kubernetes orchestration
Hands-on experience with OpenStack and / or cloud deployment technologies
Experience with provisioning and managing Virtual Machines.
Hands on experience with monitoring tools like Grafana.
Expertise in application deployment using CI/CD pipelines
IQU seeks to increase the number of women in those areas where they are underrepresented and, encourages women to apply.
Benefits
A full-time long-term contract. The starting date is flexible from December 2025.
You will work in an open space office environment in the centre of Barcelona, which promotes creativity, innovation, and collaborative research among senior and early-stage researchers. You can also choose to work from home, but you may need to attend the office whenever is needed for meetings or for team work.
The rank and salary will be determined according to qualifications and work experience and will be varying between 25k and 42k.
- Full CV, including a list of publications and name (email address, etc.) of three referees.
- Cover letter stating the motivation and suitability of the candidate.
The application documents must be submitted in pdf format to the following email address rd_info(at)iquadrat.c om
Deadline for the applications 31 of October 2025
Data Engineer
25 de nov.Inkoova
Barcelona, ES
Data Engineer
Inkoova · Barcelona, ES
TSQL Cloud Coumputing Terraform Kafka
Buscamos un Data Engineer con experiencia para reforzar nuestro equipo de datos. La persona ideal tendrá una base técnica sólida, capacidad para liderar iniciativas y facilidad para colaborar con distintos equipos internos.
Responsabilidades:
• Integrar y preparar datos para diferentes áreas del negocio.
• Mantener y mejorar plataformas de datos y procesos ETL.
• Participar en la migración a BigQuery e Informatica Cloud.
• Modelar bases de datos y elaborar documentación técnica.
• Trabajar con stakeholders para traducir necesidades en soluciones técnicas.
Requisitos:
• 3+ años de experiencia (o 1–2 con experiencia previa en BigQuery).
• Conocimientos sólidos de SQL, BigQuery e Informatica Cloud.
• Experiencia en modelado de datos y entornos centrados en ETL/BBDD.
• Buenas habilidades de comunicación, organización y liderazgo.
Valorables:
• Experiencia con GCP, Kafka, Terraform y gestión de stakeholders.