¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercial y Ventas
733Informática e IT
699Transporte y Logística
576Adminstración y Secretariado
472Comercio y Venta al Detalle
397Ver más categorías
Educación y Formación
349Desarrollo de Software
327Derecho y Legal
326Ingeniería y Mecánica
243Marketing y Negocio
236Sanidad y Salud
160Industria Manufacturera
149Diseño y Usabilidad
141Instalación y Mantenimiento
127Construcción
96Hostelería
96Recursos Humanos
83Publicidad y Comunicación
82Contabilidad y Finanzas
77Atención al cliente
66Artes y Oficios
63Arte, Moda y Diseño
59Seguridad
42Turismo y Entretenimiento
36Producto
35Inmobiliaria
32Alimentación
30Cuidados y Servicios Personales
25Banca
24Energía y Minería
24Social y Voluntariado
13Farmacéutica
12Deporte y Entrenamiento
2Seguros
2Telecomunicaciones
1Agricultura
0Ciencia e Investigación
0Editorial y Medios
0AI DevOps Prompt Master
NuevaBrainlab | Fundamental Physics and Tech Hub
Barcelona, ES
AI DevOps Prompt Master
Brainlab | Fundamental Physics and Tech Hub · Barcelona, ES
Javascript Java Linux Kubernetes Desarrollo de software unix AWS Integración continua Inteligencia artificial Automatización de pruebas Integración React API MySQL MongoDB Python TSQL NoSQL C++ Docker Cloud Coumputing Bash DevOps PostgreSQL QA Nginx Redis
🚀 AI DEVOPS PROMPT LEAD — Brainlab Fira | Barcelona
📍 Hospitalet de Llobregat · On-site · Immediate incorporation
──────────────────────────────
🌐 ABOUT BRAINLAB
Brainlab (CYRANLAB, S.L.) is a deep technology innovation center located at Fira Barcelona Gran Via. We don't observe technology trends — we generate them.
We operate across three high-impact brands:
▸ Tarranix.io — Deeptech photonic computing. Proprietary CYRATRON© 6-state architecture using light polarization.
▸ Brainlaverse.com — Browser-based educational and cultural metaverse. Democratizing immersive access to knowledge.
▸ Corpore Fitness — Science-based rehabilitation gym. Conscious training and injury recovery protocols.
We work at the intersection of generative AI, photonic computing, immersive environments and advanced web platforms. We are, quite literally, riding the crest of the technological wave.
──────────────────────────────
💡 THE ROLE — The evolution of a dying position
The traditional Development Manager role is obsolete.
In a world where a single well-directed AI prompt can replace days of manual coding, the question is no longer "how many developers do you manage?" — it is "how intelligently do you orchestrate AI to deliver software at scale?"
The AI DevOps Prompt Lead is the answer to that question. This is a newly created position, purpose-built for the current technological landscape: a technical leader who produces and orchestrates a team of few AI Prompt Developers each one specialized area (scientific simulations, gaming, performance, 3d modelling, engineery, intranet apps,immersivity, PIC RISC generation,etc) within our corporate Github-like local repository using generative AI as a force multiplier — capable of operating with the effective output of a 100-person offshore development factory with a team of five.
Your core mission: produce, design, govern and automate the entire software delivery pipeline across Brainlab's app ecosystem — from business request to production deployment — with minimal manual intervention and maximum AI-assisted throughput.
Your responsability team will be up to 4 AI prompt developers. Same level as Basis/Administration/Local open source Master and AI engineer. Depending and reporting directly to CEO. Continuos interaction with Business/Marketing/HCM and production stakeholders.
The pipeline you will own:
Business request → Prompt → Code generation → Quality inspection → Testing → push Production
──────────────────────────────
🎯 RESPONSIBILITIES
🔹 Central governance of our GitHub-like local repository that include all software projects across the Brainlab ecosystem: PIC engineery,websites, metaverse environments, mobile apps, self-hosted AI applications, scientific/mathematical simulation algorithms.
🔹 Lead the AI DevOps Prompt department, coordinating up to 4 AI Prompt Developers via tools such as GitHub Projects or Monday.com, providing periodical generated Canva/Claude reports to CEO.
🔹 Design and automate the full CI/CD pipeline: Dev → QA → Production pull/push request flows, custom code inspection workflows, performance benchmarks and automated test suites.
🔹 Detect and implement automations that eliminate manual repetitive work. Use Codex, GPT Claude Code, Terminal, local IA tools and equivalent AI toolchains as primary development instruments.
🔹 Manage simultaneous projects, developments, modifications and production incidents across Tarranix, Brainlaverse and Corpore Fitness.
🔹 Automate migration of internal/external projects language-agnostic from external cloud providors to our local host-kubernetes server and database maintain open source local corporate philosophy.
🔹 Build and maintain automated daily and weekly reporting to the CEO on the full app landscape status.
──────────────────────────────
🖥️ TECHNOLOGY SCOPE
The ecosystem spans multiple stacks. The expectation is not mastery of all — it is the ability to use AI as a language-agnostic execution layer: understanding architectures and directing AI tools to generate, inspect and deploy quality code in any required language.
Python · React / React Three Fiber · WebGL · Docker · Caddy · Nginx · GitHub Actions · Linux / Bash · Claude API · Codex · SQL / NoSQL · C++ · Mobile Apps · MEEP / Scientific computing · Monday.com
──────────────────────────────
✅ REQUIREMENTS
▸ Degree in Computer Science, Software Engineering, Telecommunications or equivalent. Master's degree or specialisation courses in Artificial Intelligence — highly valued.
▸ Practical experience in DevOps using tools such Github, Gitlabs, Monday.
▸ Working knowledge of server and network administration, Linux environments, terminal-based operations, and installation/configuration of open-source tools.
▸ Practical experience with both relational (PostgreSQL, MySQL) and non-relational (MongoDB, Redis) databases.
▸ Genuinely current with the latest generative AI developments — not as a hobby, but as a professional discipline. You follow model releases, toolchains and prompt engineering advances as a first priority.
▸ Leadership capability: coordinate teams autonomously, define workflows, set quality standards and maintain delivery velocity.
▸ Automation-first mindset: instinctive drive to automate any process that runs more than twice. Manual repetitive work is fundamentally incompatible with this role.
──────────────────────────────
⚙️ OPERATIONAL STANDARDS
This role operates under high-performance productivity standards, actively monitored through AI algorithms to ensure output quality and consistency. Person must be proactive, disciplined and not reactive, person must account at least 4 hours of max productivity prompt/code per day that is audited live.
→ Personal mobile phone use and non-work distractions are restricted during productive hours.
→ Facilities may not be left during working hours except in justified emergencies.
→ Manual repetitive work is formally prohibited. Every recurring process must be scripted, automated or AI-delegated.
→ Automated daily and weekly reporting to the CEO on the full app ecosystem status is a non-negotiable deliverable of this role.
──────────────────────────────
💼 COMPENSATION & BENEFITS
💰 €25,000 gross annual salary
📈 +15% variable bonus on company results
🏋️ Access to private corporate gym (Corpore Fitness)
🕓 Intensive schedule — finish at 17:00 CET daily
📍 On-site · Hospitalet de Llobregat, Barcelona
🤖 Access to cutting-edge AI tooling
🔬 Work at the frontier of AI + photonic computing
- #AIDevOps #PromptEngineering #DevOps #ArtificialIntelligence #MachineLearning #Barcelona #TechJobs #AIJobs #Hiring #Brainlab #Tarranix #Brainlaverse #FutureOfWork
Systems Engineer, HPC
18 abr.Mistral AI
Systems Engineer, HPC
Mistral AI · Madrid, ES
Teletrabajo . Python Linux Cloud Coumputing Kubernetes Ansible Bash DevOps Terraform Docker
About Mistral
At Mistral AI, we build high-performance, open, and efficient AI systems designed to power the next generation of applications. Our infrastructure combines large-scale distributed systems, cloud platforms, and HPC environments to support cutting-edge research and production workloads.
We are a collaborative, low-ego, and highly technical team, operating across Europe, the US, and beyond. As we scale rapidly, we are building the foundational infrastructure to support thousands of nodes and petabyte-scale systems.
Join us to be part of a pioneering company shaping the future of AI. Together, we can make a meaningful impact. See more about our culture on https://mistral.ai/careers.
About The Role
We are looking for Systems Engineers / System Administrators to help design, operate, and scale the infrastructure behind Mistral’s AI platforms.
This is a hands-on, hybrid role combining:
Systems administration (operating and troubleshooting large-scale Linux environments)
Systems engineering (automation, scalability, and performance improvements)
You’ll work closely with infrastructure, HPC, and research teams to ensure our clusters and platforms run reliably at scale.
What You’ll Work On
Core Systems Operations
- Operate and maintain large-scale Linux environments (bare metal, clusters, cloud)
- Monitor system health, troubleshoot incidents, and ensure high availability
- Support production and research workloads across multiple environments
- Help scale clusters toward hundreds to thousands of nodes
- Work on systems handling petabyte-scale storage
- Improve performance, reliability, and resource utilisation
- Automate operational tasks using tools like Python, Bash, Ansible, or Terraform
- Improve deployment, provisioning, and system lifecycle management
- Contribute to system design and architecture decisions
- Work closely with:
- HPC / infrastructure teams
- Platform / DevOps engineers
- Research teams
- Act as a bridge between users and infrastructure
Must-have
- Strong Linux systems administration experience (core requirement)
- Experience working in large-scale environments:
- HPC clusters or cloud infrastructure
- Experience with Job schedulers (e.g. Slurm)
- Solid troubleshooting skills across systems, hardware, and networks
We are not expecting everything — strong depth in one area is valuable.
- Containers / orchestration (e.g. Kubernetes)
- Storage systems (e.g. Ceph, Lustre, NFS)
- Networking fundamentals (Ethernet; InfiniBand is a plus)
- Infrastructure as Code / automation tooling
- GPU or AI/ML experience
- Pragmatic problem solver who can operate in fast-scaling environments
- Comfortable working across multiple domains (“Swiss army knife” mindset)
- Able to go deep in one area while learning others
- Low-ego, collaborative, and hands-on
Why Join Mistral?
- Impact: Play a pivotal role in scaling Mistral’s cutting-edge AI infrastructure.
- Growth: Opportunity to shape data centre operations from the ground up in a high-growth startup environment.
- Collaboration: Work with a talented, cross-functional team passionate about AI and technology.
- Flexibility: Competitive compensation, benefits, and the chance to contribute to revolutionary projects.
Deloitte
Data Engineer especialista en Databricks
Deloitte · Zaragoza, ES
Teletrabajo TSQL Azure Cloud Coumputing Git AWS
Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer especializado en Databricks, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Engineering, Data Science, o similares.
- Posees entre 2-5 años de experiencia como ingeniero de datos en entornos cloud trabajando en procesamiento de grandes volúmenes de datos.
- Has desarrollado soluciones de datos utilizando la plataforma Databricks (certificaciones valorables), especialmente utilizando herramientas como Unity Catalog, Workflows, Delta Live Tables y Asset Bundles.
- Has desarrollado soluciones de datos utilizando servicios de AWS y/o Azure (certificaciones valorables).
- Tienes experiencia en desarrollo y optimización de queries complejas SQL/NoSQL.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Posees experiencia con sistemas de control de versiones, preferiblemente Git.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Posees conocimientos de los sistemas de bases de datos, modelado de datos y SQL.
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Data Engineer
14 abr.GMV
Data Engineer
GMV · Valladolid, ES
Teletrabajo Python TSQL Azure Cloud Coumputing AWS RabbitMQ Microservices Kafka Power BI
¿Buscas un sitio innovador y consolidado en el que desarrollarte profesionalmente? GMV somos un grupo tecnológico con amplia experiencia. Estamos ampliando nuestros equipos en el sector de Sistemas Inteligentes de Transporte (ITS). Nos gusta ir al grano, te vamos a contar lo que no está en la red.
¿A QUÉ RETO TE VAS A ENFRENTAR?
En nuestro equipo trabajarás como Data Engineer especializado/a en Data Warehouse y analítica (Power BI) para el desarrollo y evolución de la plataforma de datos asociada a nuestras soluciones de transporte inteligente (CAD/AVL, ABT, CCTV, etc.). Te integrarás en un entorno basado en arquitectura de microservicios, donde cada servicio dispone de su propia base de datos.
Entre las funciones que realizarás, se encuentran las siguientes:
- Diseño, desarrollo y mantenimiento de procesos ETL/ELT utilizando herramientas como Talend y/o Prefect.
- Integración de datos procedentes de arquitecturas distribuidas basadas en microservicios.
- Modelado y diseño de Data Warehouse orientado a explotación analítica (modelos dimensionales, optimización de consultas).
- Garantizar la calidad, consistencia y trazabilidad del dato.
- Orquestación y monitorización de pipelines de datos.
- Desarrollo de modelos semánticos y datasets para explotación en Power BI.
- Creación de dashboards e informes reutilizables para clientes y soluciones internas.
- Optimización de rendimiento en procesos de carga y explotación de datos.
- Colaboración con equipos de desarrollo backend, producto y analítica.
¿QUÉ NECESITAMOS EN NUESTRO EQUIPO?
Para este puesto, estamos buscando un/a Data Engineer, que quieran un entorno estable en el que desarrollarse, con trayectoria y experiencia en lo siguiente:
- Experiencia en desarrollo de procesos ETL/ELT (Talend, Prefect o herramientas equivalentes).
- Nivel avanzado de SQL.
- Experiencia en diseño y modelado de Data Warehouse (star schema, snowflake, etc.)
- Experiencia trabajando con múltiples fuentes de datos (especialmente en entornos de microservicios).
- Experiencia en herramientas de BI, especialmente Power BI (modelado, DAX, creación de dashboards).
- Conocimientos de orquestación de pipelines de datos.
También valoraremos:
- Experiencia en arquitecturas de datos modernas (data lake, Lakehouse).
- Conocimientos de herramientas de mensajería (RabbitMQ, Kafka).
- Experiencia en entornos Cloud (Azure, AWS o GCP).
- Conocimientos de Python u otros lenguajes para procesamiento de datos.
- Experiencia en diseño de soluciones multi-cliente (multi-tenant).
- Conocimientos en gobierno del dato (data governance, calidad del dato, seguridad).
- Experiencia en el sector del transporte o sistemas ITS.
- Conocimientos de herramientas de monitorización y logging.
¿QUÉ TE OFRECEMOS?
💻 Modelo de trabajo híbrido y 8 semanas al año de teletrabajo fuera de tu área geográfica habitual
🕑 Horario flexible de entrada y salida, y jornada intensiva viernes y verano.
🚀 Desarrollo de plan de carrera personalizado, formación y ayuda para el aprendizaje de idiomas.
🌍 Movilidad nacional e internacional. ¿Vienes de otro país? Te ofrecemos un relocation package.
💰 Retribución competitiva con revisiones continuas, retribución flexible y descuento en marcas.
💪Programa Wellbeing: seguro médico, dental y de accidentes; fruta y café gratis, formación en salud física, mental y económica, y ¡mucho más!
⚠️ En nuestros procesos de selección siempre tendrás contacto telefónico y personal, presencial u online, con nuestro equipo de talent acquisition.
❤️Promovemos la igualdad de oportunidades en la contratación comprometidos con la inclusión y la diversidad
¿A QUE ESPERAS? ÚNETE
Data Engineer
13 abr.CAS TRAINING
Data Engineer
CAS TRAINING · Málaga, ES
Teletrabajo Scala AWS Spark
Cas Training, empresa de referencia con más de 20 años de experiencia en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Data Engineer para un importante proyecto en modalidad 100% teletrabajo.
Requisitos:
- Experiencia en desarrollos con Spark y Scala
- Conocimiento de las herramientas de ADA. (DataX, Cloudwatch, Dataproc, Helix, Control M)
- Experiencia en desarrollo de Kirbys y Hammurabis.
- Deseable conocimiento plataforma ADA o conocimientos en AWS (Cloudwatch, Athena)
- Deseable experiencia en Kirby/Hammurabi/Scala mínimo 1 año de experiencia
Se ofrece:
- Formar parte de un equipo dinámico y altamente cualificado en una empresa en proceso de expansión.
- Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
- Proyectos de larga duración, estabilidad profesional y progresión laboral.
- Contratación indefinida.
- Acceso gratuito al catálogo de formación anual de Cas Training.
- Salario negociable en base a la experiencia y valía del candidato/a.
¿Te interesa seguir creciendo en proyectos interesantes? ¡No dudes en inscribirte!
Data Engineer (DATIO)
13 abr.Arelance
Data Engineer (DATIO)
Arelance · Madrid, ES
Teletrabajo Scala AWS
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento, buscamos incorporar un Data engineer 100% remoto
¿Qué buscamos en ti?
Experiencia minima de 2 años
Conocimiento de las herramientas de Datio - BBVA (DataX, Argos, Dataproc, Helix, Control m...)
Experiencia en desarrollo de Kirbys y hammurabis
Titulacion: Preferentemente en Informatica o Matematicas.
Deseables:
Conocimiento plataforma ADA o conocimientos en AWS (cloudwatch, athena)
Conocimiento Scala
¿Qué ofrecemos en esta posición?
- Contrato indefinido en Arelance
- Acceso a formación
- Modalidad de trabajo:100% remoto desde cualquier punto de España
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
*** Sólo se valoran candidatos con permiso de trabajo y residencia en España ***
Devoteam
Cloud Engineer / DevOps - Google Cloud
Devoteam · Madrid, ES
Teletrabajo . Python Jenkins Docker Cloud Coumputing Kubernetes Bash DevOps Terraform
Company Description
Devoteam es una consultora líder en Europa centrada en estrategia digital, plataformas tecnológicas, ciberseguridad y transformación empresarial a través de la tecnología.
La tecnología está en nuestro ADN y creemos en ella como una palanca capaz de impulsar el cambio a mejor, manteniendo un equilibrio que nos permite ofrecer a nuestra cartera de clientes herramientas tecnológicas de primer nivel pero siempre con la cercanía y profesionalidad de un equipo que actúa como guía en el camino.
Devoteam lleva más de 25 años apostando por la tecnología al servicio de las personas. Con más de 10.000 personas en el grupo, en 20 países de Europa, Oriente Medio y África.
Descripción del empleo
Desde Devoteam G Cloud buscamos un Cloud Engineer con experiencia en Google Cloud Platform para que se incorpore a nuestro equipo de expertos en nube. Como miembro clave de nuestra organización, desempeñarás un papel crucial en el diseño, la implementación y el mantenimiento de nuestra infraestructura en la nube en Google Cloud Platform (GCP).
Requisitos
FUNCIONES
Diseñar, implementar y gestionar una infraestructura GCP escalable y segura.
Implementar y optimizar prácticas DevOps para agilizar los procesos de desarrollo y operaciones.
Diseñar y mantener canalizaciones CI/CD para una entrega de software eficiente.
Colaborar con los equipos de desarrollo para mejorar el rendimiento y la fiabilidad de las aplicaciones.
Analizar y resolver problemas complejos en entornos GCP.
Implementar soluciones de infraestructura como código (IaC) para el aprovisionamiento y la gestión automatizados.
Desarrollar y mantener la documentación de la infraestructura y los procesos en la nube.
Evaluar e implementar continuamente nuevas tecnologías para mejorar nuestras capacidades en la nube.
Garantizar el cumplimiento de las mejores prácticas de seguridad y los estándares del sector.
Proporcionar orientación técnica y tutoría a los miembros junior del equipo.
REQUISITOS
Licenciatura en Informática, Tecnología de la Información o un campo relacionado.
Mínimo de 3 años de experiencia en análisis y gestión de infraestructuras GCP.
Experiencia demostrable en migraciones a la nube, especialmente a GCP.
Sólidos conocimientos de los servicios y las mejores prácticas de Google Cloud Platform.
Competencia en prácticas y herramientas DevOps.
Excelentes habilidades de programación en lenguajes como Python y Bash.
Experiencia con herramientas y procesos de CI/CD (por ejemplo, Jenkins, GitLab CI).
Familiaridad con tecnologías de contenedorización y orquestación (por ejemplo, Docker, Kubernetes).
Sólida comprensión de los principios y herramientas de infraestructura como código (IaC) (por ejemplo, Terraform).
Experiencia con soluciones de supervisión y registro en entornos en la nube.
Sólidas habilidades analíticas y de resolución de problemas.
Excelentes habilidades de comunicación y colaboración.
Fluidez en inglés (nivel B2/C1).
Se valorarán las certificaciones de Google Cloud (por ejemplo, ingeniero profesional de DevOps en la nube).
CONDICIONES
- Banda salarial acorde experiencia (Fijo + variable)
- Retribución flexible (Plus transporte, guardería, seguro médico, restaurante...)
- Beneficios sociales (Fisioterapeuta y clases de inglés - gratuito)
- Plan de carrera (Acceso a formaciones/certificaciones y evaluaciones anuales)
- 100% Remoto (Opcional asistencia a oficina si resides en ciudad donde hay sede)
Indra Group
Torrejón de Ardoz, ES
Ingeniero/a de Sistemas Senior – Verificación & Validación (Defensa)
Indra Group · Torrejón de Ardoz, ES
.
En Indra Group, protegemos lo que más importa.
Lideramos el desarrollo de soluciones tecnológicas avanzadas que refuerzan la seguridad nacional e internacional. Desde nuestras unidades de Defensa Aérea, participamos en el diseño, desarrollo y validación de sistemas complejos y críticos, trabajando con tecnologías de vanguardia en un entorno internacional y de alto impacto estratégico.
💻 ¡Únete a nuestro equipo de Ingeniería de Sistemas en Defensa Aérea!
Buscamos un/a Ingeniero/a de Sistemas Senior para incorporarse a proyectos de sistemas complejos de Defensa Aérea, participando en actividades de ingeniería de requisitos, integración, verificación y validación, siguiendo metodologías de Ingeniería de Sistemas basadas en INCOSE y el Modelo en V.
💡 ¿Qué harás?
En tu día a día, te encargarás de:
- Participar en actividades de Ingeniería de Sistemas a lo largo de todo el ciclo de vida del sistema, desde la definición hasta la validación.
- Realizar análisis, definición y especificación de sistemas complejos en el ámbito de la Defensa Aérea.
- Gestionar y analizar requisitos de sistema, asegurando su coherencia, consistencia y trazabilidad.
- Participar activamente en procesos de integración, verificación y validación (V&V).
- Definir y elaborar la documentación de pruebas en las diferentes fases del desarrollo (PDR, CDR, TRR, FDR).
- Analizar el cumplimiento de requisitos frente a resultados de pruebas.
- Trabajar con herramientas de captura y gestión de requisitos, especialmente DOORS.
- Colaborar con equipos multidisciplinares e internacionales, coordinándote con otras áreas técnicas.
- Mantenerse actualizado/a sobre tendencias y avances tecnológicos del sector Defensa.
🎯 ¿Qué buscamos en ti?
No te preocupes si no cumples el 100 % de los requisitos.
Queremos conocer tu experiencia y lo que puedes aportar 🚀
✅ Titulación universitaria en Ingeniería: Telecomunicaciones, Aeroespacial, Industrial, Informática u otras afines.
✅ Más de 5 años de experiencia en Ingeniería de Sistemas, Integración y/o Verificación y Validación.
✅ Experiencia práctica en el Modelo en V aplicado al desarrollo de sistemas complejos.
✅ Conocimientos sólidos de Ingeniería de Sistemas conforme a prácticas INCOSE.
✅ Experiencia en:
- Gestión de requisitos y trazabilidad.
- Análisis de coherencia entre requisitos y pruebas.
- Ejecución y diseño de pruebas funcionales avanzadas.
- Elaboración y gestión de documentación técnica.
- ✅ Manejo avanzado de DOORS.
- ✅ Deseable conocimiento técnico de sensores radar y sistemas de comunicaciones.
- ✅ Experiencia en proyectos internacionales.
💼 Lo que te ofrecemos
- Estabilidad y Futuro 🏢✨: Participarás en proyectos a largo plazo en una empresa líder en Defensa, con más de 50.000 profesionales y sólida estabilidad financiera.
- Proyectos Innovadores y de Alto Alcance 🚀: Trabajarás en soluciones de ciberseguridad aplicadas a sistemas críticos de Defensa y Air Dominance, con impacto nacional e internacional.
- Ambiente Cercano y Transparente 🤝: Colaborarás con equipos técnicos de alto nivel, en un entorno donde prima la colaboración, la comunicación directa y el apoyo mutuo.
- Autonomía y Flexibilidad ⏳: Modelo de trabajo híbrido, con aproximadamente un 40% de presencialidad en Alcobendas, facilitando la conciliación y la organización de tu día a día.
- Plan de carrera adaptado a ti 📈: Definiremos contigo un itinerario profesional para que sigas creciendo en el ámbito de la ciberseguridad y la ingeniería de sistemas de defensa.
- Formación continua 📚: Acceso a Open University y Udemy for Business, con más de 6.000 cursos para especializarte y mantenerte al día en tecnologías y seguridad.
- Descuentos exclusivos para tu bienestar 🎁: Beneficios en gimnasios, restauración, ocio, comercio y muchos otros servicios por ser parte de Indra.
- Retribución competitiva 💰 y planes de compensación flexibles 💸📊 adaptados a tus necesidades.
🕓 ¿Cómo es nuestro proceso de selección?
- Revisión de tu perfil 🔍
- Primera toma de contacto (5–10 min) 📞
- Entrevista con Captación de Talento 🤝
- Entrevista técnica con el equipo 🤝
- Oferta y bienvenida 🎉
- Duración aproximada del proceso: 2 semanas.
Nuestro compromiso es promover ambientes de trabajo en los que se trate con respeto y dignidad a las personas, procurando el desarrollo profesional de la plantilla y garantizando la igualdad de oportunidades en su selección, formación y promoción ofreciendo un entorno de trabajo libre de cualquier discriminación por motivo de género, edad, discapacidad, orientación sexual, identidad o expresión de género, religión, etnia, estado civil o cualquier otra circunstancia personal o social.
¡INDRA es empresa Top Employer 2026! Incorpórate a una empresa certificada como una de las mejores empresas empleadoras de España, gracias a nuestra gestión integral de RRHH y a las condiciones para nuestros profesionales.
Lead Data Engineer
12 abr.Permira
Madrid, ES
Lead Data Engineer
Permira · Madrid, ES
. Agile Cloud Coumputing
About Permira
Permira is a global investment firm that backs successful businesses with growth ambitions. Founded in 1985, the firm advises funds across two core asset classes, private equity and credit, with total committed capital of approximately €89bn. The Permira private equity funds make both buyout and growth equity investments in four key sectors: Technology, Consumer, Healthcare and Services. The Permira credit funds support businesses with flexible financing solutions across Direct Lending, Strategic Opportunities and CLO Management. Established in 2007, the firm advises investment funds and products which have provided approximately €25 billion of debt capital to over 300 businesses.
Permira is seeking a Lead Data Engineer to join our Data Team based in Madrid, Spain. The Data Team was established in 2022 to roll out a comprehensive Data Strategy across the Permira Business and implement the necessary Data Platform to support all data-driven processes and analytics.
As the Lead Data Engineer, you will be responsible for handling a dynamic and constantly evolving data environment, designing, implementing, and operating scalable and robust cloud-based data pipelines, interfaces, and models. Your role will ensure the capture, validation, consolidation, and timely availability of internal and external data to analytics users in a reliable manner.
Working closely with data architects, data analytics experts, and visualization specialists, you will collaborate to guarantee the implementation and operation of necessary data flows that fulfil business requirements. As a problem solver, you will assume technical leadership of the group of Data Engineers within the team, providing sound knowledge to address day-to-day implementation issues. Additionally, you will proactively monitor data interfaces, data pipelines execution, and data quality rules, while providing mechanisms and tools for data reprocessing and data quality exception handling.
This role offers an opportunity to be part of a transformational journey within the company, extracting maximum value from internal/external data to build added value for investment professionals and decision-makers.
Key Responsabilities
- In close coordination with Data Architects to design, implement, and operate a robust, scalable, and flexible cloud-based data processing This framework will ensure the successful capture, processing, validation, and delivery of high-quality and timely data required to support data analytics and system integration requirements.
- Guarantee the implementation of best practices in terms of code versioning, technical documentation, and CI/CD of the technical artifacts
- Ensure the highest standards of quality, reliability, and scalability are met in the delivery of technical
- Act as the gatekeeper of delivery quality assurance, data operations, and proactively monitor data
- Participate in all Agile events, proactively contribute to the team, and pick up user stories and tasks to ensure successful
- Lead the onboarding process of new data sources into the data platform, supporting the implementation of necessary data
- Bachelor's degree in Computer Science, related fields, or equivalent work
- Specific know-how or previous exposure to projects within the Accounting domain, Financial Planning & Analysis, and Asset Portfolio Management & Reporting is highly valued.
- Demonstrable exposure and knowledge of designing and implementing cloud-based data solutions to support Information Management and Analytics.
- Exposure to the implementation of Data Lake and Data Warehouse architecture
- Proven hands-on experience with developing Relational Previous experience with Snowflake is highly valued.
- Experience in the implementation and rollout of ETL/ELT Pipelines in a cloud environment using Python/Pyspark and dbt as foundational technologies. Experience in Data Bricks implementations is highly valued.
- Previous experience in implementing CI/CD pipelines on Cloud-based data
- Systems integration know-how in the development of APIs and experience with event streaming technologies is highly valued.
- Strong problem-solving skills and a passion for data.
- Ability to work in a globalized team environment in a collaborative manner, acting proactively to achieve team goals following Agile methodologies.
- Focus on continuous improvement of the data platform.
- Excellent listening and communication
- Highly proficient in spoken and written Ability to speak Spanish is valued.