¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
860Comercial y Ventas
852Transporte y Logística
622Adminstración y Secretariado
572Desarrollo de Software
413Ver más categorías
Comercio y Venta al Detalle
355Educación y Formación
352Marketing y Negocio
333Derecho y Legal
328Ingeniería y Mecánica
232Instalación y Mantenimiento
185Diseño y Usabilidad
148Construcción
132Industria Manufacturera
132Publicidad y Comunicación
123Sanidad y Salud
112Recursos Humanos
90Hostelería
83Contabilidad y Finanzas
70Turismo y Entretenimiento
62Artes y Oficios
57Inmobiliaria
54Atención al cliente
53Arte, Moda y Diseño
48Producto
47Alimentación
32Cuidados y Servicios Personales
32Banca
19Seguridad
18Energía y Minería
17Farmacéutica
14Social y Voluntariado
8Editorial y Medios
4Deporte y Entrenamiento
2Ciencia e Investigación
1Seguros
1Telecomunicaciones
1Agricultura
0Data Engineer
NuevaBrainRocket
València, ES
Data Engineer
BrainRocket · València, ES
Python TSQL Fintech Kafka Office
BrainRocket is a global company creating end-to-end tech products for clients across Fintech, iGaming, and Marketing. Young, ambitious, and unstoppable, we´ve already taken Cyprus, Malta, Portugal, Poland, and Serbia by storm. Our BRO team consists of 1,300 bright minds creating innovative ideas and products. We don´t follow formats. We shape them. We build what works, launch it fast, and make sure it hits.
!Please note that this role is office based for Valencia, Spain (Carrer de Catarroja, 13, 46940 Manises).
!We can provide relocation assistance if you´re outside of the city or country.
We are seeking a highly skilled Data Engineer with expertise in managing, designing, and optimizing data pipelines utilizing Apache Airflow, Snowflake, and Apache Kafka.
This individual will play a pivotal role in architecting robust, scalable, and efficient data solutions, ensuring the integrity, reliability, and accessibility of our data infrastructure
Responsibilities:
- Develop and implement data models to support business requirements, optimizing for performance and scalability;
- Design, build, and maintain scalable data pipelines using Apache Airflow;
- Implement and maintain Kafka-based streaming data pipelines for real-time data processing and integration with various systems;
- Integration to third party databases and APIs;
- Establish monitoring, alerting, and maintenance procedures to ensure the health and reliability of data pipelines;
- Collaborate with cross-functional teams including data scientists, analysts, and stakeholders to understand data requirements.
Requirements:
- Proficiency in Python, SQL, and experience with data manipulation and transformation;
- Data warehouse and data modelling techniques;
- Experience in designing, building, and maintaining complex data pipelines using Airflow;
- Proven track record in data engineering roles, with a focus on designing and implementing scalable data solutions using Snowflake or Redshift;
- In-depth understanding and practical experience in implementing Kafka-based streaming architectures for real-time data processing.
We offer excellent benefits, including but not limited to:
Six additional days of undocumented sick leaves;
Medical Insurance;
Birthdays, milestones and employee anniversaries celebrations;
Modern offices with snacks and all the essentials;
Social Club and more than 50 events per year;
Partial coverage of breakfasts and lunches;
Learning and development opportunities and interesting, challenging tasks;
Relocation package (tickets, staying in a hotel for up to 2 weeks, and visa relocation support for our employees and their family members);
Opportunity to develop language skills, with partial compensation for the cost of English;
Competitive remuneration level with annual review;
Teambuilding activities.
Bold moves start here. Make yours. Apply today!
By submitting your application, you agree to our Privacy Policy.
Senior DevOps Engineer
NuevaGFR Technologies SE
Senior DevOps Engineer
GFR Technologies SE · Madrid, ES
Teletrabajo Python Kubernetes Ansible AWS DevOps Terraform
GFT es una compañía pionera en transformación digital. Diseñamos soluciones de negocio centradas en la inteligencia artificial (AI-Centric), modernizamos infraestructuras de TI y desarrollamos sistemas core de nueva generación para líderes del sector bancario, asegurador e industrial. En estrecha colaboración con nuestros clientes, desafiamos los límites para ayudarles a alcanzar todo su potencial.
¿Qué estamos buscando?
Actualmente tenemos un puesto vacante para un/a Senior DevOps Engineer que quiera unirse a GFT. Buscamos una persona entusiasta y dinámica dispuesta a empezar y crecer en un entorno multicultural, motivador y desafiante.
Tus principales responsabilidades serán:
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Comprender las necesidades del cliente y trabajar en estrecha colaboración con los equipos correspondientes para garantizar que la solución en la nube desarrollada esté alineada con las necesidades y la Propuesta de Valor de GFT.
- Diseñar y desarrollar pipelines de integración y despliegue continuo (CI/CD), asegurando calidad, seguridad y cumplimiento normativo.
- Implementar y optimizar procesos de automatización para la gestión de infraestructura y operaciones en la nube (AWS).
- Automatizar la gestión de infraestructura mediante Terraform y Ansible, siguiendo buenas prácticas de Infraestructura como Código (IaC).
- Gestionar y optimizar entornos containerizados con Kubernetes.
- Coordinar la resolución de incidencias en producción, mejorando la monitorización, alertas y tiempos de recuperación.
- Trabajar en estrecha colaboración con los equipos de delivery para asegurar la correcta implementación y entrega de las soluciones diseñadas.
Requisitos:
- Experiencia como Senior DevOps Engineer al menos de 5 años.
- Conocimientos sólidos en AWS.
- Experiencia en automatización de infraestructura con Terraform y Ansible.
- Experiencia trabajando con Kubernetes.
- Habilidades en scripting (Shell Scripting).
- Experiencia en integración y despliegue continuo (CI/CD).
- Conocimientos de Python (valorable).
- Valorable nivel de inglés fluido (B2).
Competencias personales:
- Trabajo en equipo
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Proactividad en la búsqueda de nuevas soluciones y mejoras
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo.
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
¿Quieres estar al tanto de nuestras oportunidades profesionales?
Únete a nuestra TALENT COMMUNITY y personaliza tus alertas de empleo, recibe noticias e invitaciones a eventos, en función de tus intereses.
Digital Talent Agency
Data Engineer Especialista en Data Lake
Digital Talent Agency · Madrid, ES
Teletrabajo Python TSQL Azure Scala Hadoop Spark Big Data Power BI
Descripción
Data Engineer | PySpark / Big Data / Data Lake | Remoto España✨¿Tienes experiencia sólida como Data Engineer y te interesa un proyecto estable, 100% remoto y con tecnologías Big Data? 🚀
En Zemsania buscamos un/a Data Engineer con experiencia en PySpark, SQL avanzado y gestión de Data Lakes, para incorporarse de manera inmediata a un proyecto de larga duración.
🕗 Horario y condiciones
Horario: Lunes a viernes, de 09:00 a 18:00.
Jornada de verano: Julio y agosto, de 08:00 a 15:00.
Modalidad: 100% remoto desde España.
Guardias: Puntuales (pases a producción).
🎯 Requisitos mínimos
Experiencia de al menos 4 años como Data Engineer.
Experiencia sólida en:
PySpark para procesamiento de datos a gran escala.
SQL avanzado.
Diseño y gestión de Data Lakes.
Tecnologías Big Data: Hadoop, Spark, Hive u otras similares.
Capacidad para diseñar soluciones de datos escalables y eficientes.
Residencia dentro de España.
✨ Requisitos deseables
Experiencia con Databricks y/o Azure Data Factory.
Conocimientos de Python y/o Scala.
Certificaciones o formación específica en Data Engineering o Big Data.
Experiencia previa en entornos bancarios o corporativos con grandes volúmenes de datos.
🛠️ Funciones principales
Diseñar y mantener pipelines de datos utilizando PySpark y SQL.
Gestionar y optimizar la ingesta, procesamiento y almacenamiento de datos en el Data Lake.
Preparar y estructurar datos para su correcta visualización en Power BI.
Trabajar con grandes volúmenes de datos garantizando rendimiento y escalabilidad.
Identificar y resolver incidencias relacionadas con la calidad y consistencia de los datos.
Colaborar con equipos de Business Intelligence y Análisis de Datos para asegurar la disponibilidad y fiabilidad de la información.
🌟 Qué ofrecemos desde Zemsania
Contrato estable con Zemsania.
Proyecto de larga duración en entorno tecnológico avanzado.
Modalidad remota con horario estructurado.
Formación continua y acompañamiento del equipo de Talent y People Partner.
Oportunidades reales de crecimiento profesional.
🤝 Compromiso con la igualdadEn Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
Grupo Digital
Data Engineer (Especialista en Data Lake)
Grupo Digital · Madrid, ES
Teletrabajo Python TSQL Azure Scala Hadoop Spark Big Data Power BI
Desde Grupo Digital, buscamos Data Engineer (Especialista en Data Lake) para formar parte de nuestro equipo y colaborar con uno de nuestros clientes del sector servicios tecnológicos.
Condiciones
* Contrato: Indefinido
* Modalidad: Remoto
* Ubicación: España. Imprescindible residencia en España
* Horario: jornada completa (9 a 18h de L-V; horario verano 8 a 15h julio y agosto)
* Salario: negociable en función de experiencia
Qué harás
* Diseñar y mantener pipelines de datos usando PySpark y SQL.
* Gestionar la ingesta, procesamiento y almacenamiento de datos en el Data Lake.
* Optimizar procesos para mejorar rendimiento y calidad del dato.
* Preparar y estructurar datos para su visualización en Power BI.
* Resolver incidencias relacionadas con calidad, consistencia y disponibilidad del dato.
* Colaborar con equipos de BI y análisis para garantizar el acceso eficiente a la información.
Imprescindible
* Al menos 4 años de experiencia como Data Engineer.
* Uso avanzado de PySpark para procesamiento de datos a gran escala.
* Conocimientos sólidos de SQL (BBDD relacionales y Data Warehouse).
* Experiencia en diseño y gestión de Data Lakes.
* Conocimiento de herramientas Big Data como Spark, Hadoop, Hive.
* Capacidad para diseñar soluciones escalables y eficientes.
Deseable
* Experiencia con Databricks y/o Azure Data Factory.
* Conocimientos de Python y/o Scala.
* Certificaciones o formación específica en ingeniería de datos.
* Experiencia previa en entornos de gran volumen de datos o sector financiero.
¿Qué ofrecemos?
* Salario competitivo en función de la experiencia
* Contrato indefinido u Opción de Contrato Mercantil
* 22 días laborables de vacaciones
* Plan de retribución flexible: Seguro médico, cheques guardería, cheques transporte
* Formación en Tecnología y Soft Skills
* Programa de referidos: 500 € por candidatos recomendados que se incorporen con nosotros
Grupo Digital
Somos una consultora tecnológica con sede en Madrid. Especialistas en outsourcing de perfiles IT, selección y modelos Talent-as-a-Service, con foco en grandes integradores y empresas del sector financiero y digital. Apostamos por un servicio excelente, equipos autónomos y resultados medibles. Si te gusta trabajar con tecnologías punteras y en entornos que suman, aquí tendrás recorrido.
Devoteam
Madrid, ES
Junior GCP DevOps Engineer
Devoteam · Madrid, ES
Python Azure Jenkins Docker Cloud Coumputing Kubernetes Git AWS PowerShell Bash DevOps Terraform
Company Description
Devoteam is a leading European consultancy focused on digital strategy, technology platforms, cybersecurity and business transformation through technology.
Technology is in our DNA and we believe in it as a lever capable of driving change for the better, maintaining a balance that allows us to offer our client portfolio first class technological tools but always with the proximity and professionalism of a team that acts as a guide along the way.
Devoteam has been committed to technology at the service of people for more than 30 years. With more than 11,000 people in the group, in 25 countries in Europe, the Middle East and Africa.
Job Description
We are seeking a Junior Cloud/DevOps Engineer to join our dynamic team in Madrid, Spain. This role offers an exciting opportunity to kickstart your career in cloud computing and DevOps practices, contributing to the design, implementation, and maintenance of our cloud infrastructure and automation processes.
- Assist in the deployment and management of cloud-based infrastructure using platforms such as AWS, Azure, or Google Cloud
- Collaborate with senior engineers to implement Infrastructure as Code (IaC) solutions using tools like Terraform or CloudFormation
- Support the development and maintenance of CI/CD pipelines to streamline software delivery processes
- Contribute to the containerization of applications using Docker and assist in Kubernetes cluster management
- Participate in monitoring and optimizing cloud resources for performance and cost-efficiency
- Assist in troubleshooting and resolving infrastructure and application issues
- Develop and maintain documentation for cloud infrastructure and DevOps processes
- Collaborate with cross-functional teams to ensure smooth integration of DevOps practices
Qualifications
- Bachelor´s degree in Computer Science, Information Technology, or a related field
- 0-2 years of experience in cloud computing or DevOps (internships or personal projects are valuable)
- Familiarity with at least one major cloud platform (AWS, Azure, or Google Cloud)
- Basic understanding of Infrastructure as Code (IaC) concepts and tools such as Terraform or CloudFormation
- Knowledge of containerization technologies, particularly Docker
- Experience with version control systems, preferably Git
- Proficiency in at least one scripting language (Python, Bash, or PowerShell)
- Basic understanding of CI/CD concepts and familiarity with tools like Jenkins or GitLab CI
- Fundamental knowledge of Linux/Unix systems administration
- Strong problem-solving skills and attention to detail
- Excellent communication and teamwork abilities
- Eagerness to learn and adapt to new technologies and methodologies
- Cloud certifications (e.g., AWS Certified Cloud Practitioner, Azure Fundamentals) are a plus
- Basic understanding of networking concepts
- Familiarity with the software development lifecycle is beneficial
GFR Technologies SE
Senior Data Engineer (Python/Spark)
GFR Technologies SE · Madrid, ES
Teletrabajo Python Spark Big Data
GFT es una compañía pionera en transformación digital. Diseñamos soluciones de negocio centradas en la inteligencia artificial (AI-Centric), modernizamos infraestructuras de TI y desarrollamos sistemas core de nueva generación para líderes del sector bancario, asegurador e industrial. En estrecha colaboración con nuestros clientes, desafiamos los límites para ayudarles a alcanzar todo su potencial.
¿Qué estamos buscando?
Actualmente, tenemos un puesto vacante para un/a Senior Data Engineer (Python/Spark) que quiera unirse a nuestra compañía. Buscamos una persona con sólida trayectoria en ciencia de datos, capaz de liderar equipos o diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas.
Tus principales responsabilidades serán:
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Diseñar, desarrollar y mantener soluciones técnicas basadas en Python y Spark.
- Implementar y optimizar pipelines de procesamiento de datos en entornos Big Data.
- Realizar análisis de calidad de datos, detección de anomalías y data remediation en el ámbito AFC.
- Además muy valorable que se tenga experiencia con GCP.
- Colaborar con equipos de Data, ML y negocio para entender los requerimientos funcionales y traducirlos en soluciones técnicas.
- Documentar desarrollos y buenas prácticas de forma clara y estructurada.
Requisitos:
- Experiencia demostrable trabajando con Python y PySpark.
- Conocimientos sólidos en procesamiento de datos a gran escala (Spark, entornos distribuidos).
- Experiencia en análisis de calidad de datos y resolución de incidencias sobre datos.
- Capacidad analítica y orientación a la resolución de problemas complejos.
- Experiencia previa en entornos regulados o financieros (AFC, fraude, riesgo) muy valorable.
Competencias personales:
- Trabajo en equipo y colaboración multidisciplinaria.
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Buena comunicación y documentación técnica.
- Orientación a resultados y proactividad.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas.
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
TECHNICAL Data engineer
4 feb.Airbus
Albacete, ES
TECHNICAL Data engineer
Airbus · Albacete, ES
Office
Job Description:
Technical Data Engineer (AMM) - NH90 Program
The NH90 is not just a helicopter; it is a critical strategic asset for nations worldwide. In this role, you are the Guardian of Safety. You will stand at the intersection of complex military engineering and operational reality. Your expertise ensures that every maintenance procedure is executable, compliant, and safe, directly impacting the fleet availability of one of the world´s most advanced military rotorcraft.
The Mission
To ensure the continuing airworthiness of the NH90 fleet by bridging the gap between the Design Office and the Customer. You will analyze complex engineering triggers (ECPs, Technical Events) and translate them into precise, S1000D-compliant Aircraft Maintenance Manual (AMM) data, ensuring the fleet remains operationally efficient and safe throughout its lifecycle.
Key Responsibilities & Success Metrics:
- Core Execution (Trigger Analysis): Manage the end-to-end impact analysis of Design Office data (Modifications, ECPs, Service Bulletins) to define the consequences on the AMM and ensure configuration management is maintained.
- Technical Specification (Military Standards): Author and validate Data Modules strictly adhering to S1000D international specifications and the NH90 Guidance Document to ensure interoperability and compliance for governmental customers.
- Customer Interface: Act as the primary technical interface for internal and external customers, resolving complex queries (Technical Events) and documentation issues under high pressure.
- Success Metric: Achieve 100% On-Time Delivery (OTD) and Quality (OTQ) for assigned Work Packages regarding AMM revision cycles.
- Digital Continuity Challenge: Ensure seamless data consistency between engineering source databases and publication tools (MASCOT/Arbortext) to prevent data gaps in the supply chain.
The Profile:
- Education: Bachelor´s or Master´s degree in Aeronautical/Industrial Engineering or equivalent technical field. At least 2-3 year of technical experience in aeronautical sector: especially in Aircraft Maintenance, ILS, Production Engineering, Airframes Design or experience with Warehouse, Procurement and other departments to optimize processes.
- Tech Stack:
- Essential: Proficiency in S1000D authoring and ASD-STE100 (Simplified Technical English).
- Tools: Strong command of Arbortext Epic, Windchill (PLM), and MASCOT (NH90 Specific). Knowledge of CATIA for 3D verification is highly valued. Others: ICN Toolbox, ADOC.
- Domain Expertise: Minimum 1-3 years of experience in Technical Data, specifically in AMM authoring and Aircraft Maintenance concepts. Experience with the NH90 program or similar military platforms is a decisive advantage.
- Soft Skills:
- Analytical Rigor: Ability to analyze complex "triggers" (ECPs) and propose synthetic solutions.
- Transnational Mindset: Capability to identify processes and propose harmonization recoveries.
- Languages:
- English: Advanced/Fluent is mandatory.
- Spanish: Fluent.
- German/French: Valuable assets for cross-program collaboration.
This job requires an awareness of any potential compliance risks and a commitment to act with integrity, as the foundation for the Company´s success, reputation and sustainable growth.
Company:
Airbus Helicopters España, SA
Employment Type:
Permanent
Experience Level:
Professional
Job Family:
Technical Data & Publications
At Airbus, we support you to work, connect and collaborate more easily and flexibly. Wherever possible, we foster flexible working arrangements to stimulate innovative thinking.
Senior DevOps Engineer
3 feb.EPAM
Madrid, ES
Senior DevOps Engineer
EPAM · Madrid, ES
.Net C# Java Python Agile TSQL Azure Jenkins Docker Cloud Coumputing Kubernetes Git SQL Server Oracle AWS PowerShell Bash DevOps Terraform Office
Are you a forward-thinking professional with a strong background in DevOps and Backend Engineering and an interest in financial services? Join EPAM in Madrid as a Senior DevOps Engineer in the private banking sector and accelerate your career in financial services technology. We´re looking for a team player with excellent communication skills, engineering mastery and a B2+/C1 English level for effective stakeholder interactions.
This is a hybrid role based in Madrid´s city center, ideal for those eager to thrive in a dynamic environment and make a significant impact in private banking technology. Join EPAM and contribute to shaping the future of financial services in Spain!
Responsibilities
- Design, implement, and optimize CI/CD pipelines for continuous integration and delivery
- Ensure efficient build, test, and deployment workflows for multiple development teams
- Design, deploy, and manage applications using Kubernetes, Docker, Helm, and related technologies
- Manage containerized applications in a cloud-native environment (Azure, etc)
- Implement best practices for ingress, networking, and TLS termination
- Act as feature owners, coordinating with both internal and external stakeholders to fulfill the feature lifecycle
- Resolve bugs and work on stories within sprints, ensuring delivery of high-quality solutions
- Foster innovation, modernization, and the reduction of complexity
- Conduct Proofs of Concept (POC) to explore and pioneer new technologies for the bank
- Serve as pioneers within the bank for adopting and adapting to new systems and tools
- Embrace automation over manual processes to improve team productivity and efficiency
- Advocate for an "everything as code" approach
- Implement observability tools to monitor system performance and ensure uptime (Prometheus, Grafana, Dynatrace, etc)
- Set up logging, tracing, and alerting to proactively identify and resolve issues
- Use deployment tools such as Octopus Deploy, Jenkins, etc to manage releases
Requirements
- Master or Bachelor in Computer Science or a related area, or proven relevant working experience
- Strong knowledge of Corporate Identity (CI)/Corporate Design (CD) pipelines, cloud environments, containerization (Docker/K8s), and APIs
- Proven experience and strong knowledge of DevOps, with a strong understanding of CI/CD, containerization, and cloud platforms
- Proficiency in .NET (C#) or Java
- CI/CD Tools: GitLab, Jenkins, Azure DevOps, or equivalent
- Containerization & Orchestration: Kubernetes, Docker, Helm
- Databases: Microsoft SQL Server, Oracle, etc
- Observability & Monitoring: Prometheus, Grafana, Dynatrace, ELK Stack, Splunk, etc
- Cloud Platforms: Experience with Azure, AWS, or Google Cloud Platform
- Deployment Tools: Octopus Deploy, Terraform, or similar
- Version Control: Strong knowledge of Git for version control and collaboration
- You take pride in your work and strive to lead by example
- Comfortable working in agile and cross-functional teams, with excellent communication and collaboration skills
- You have a can-do attitude, are pragmatic, and open-minded
- Very good English level
Nice to have
- Strong experience with PowerShell, Bash, or Python for automation
- Networking: Understanding of ingress controllers, load balancers, and basic networking principles
We offer/Benefits
- Private health insurance
- EPAM Employees Stock Purchase Plan
- 100% paid sick leave
- Referral Program
- Professional certification
- Language courses
EPAM is a leading digital transformation services and product engineering company with 61,700+ EPAMers in 55+ countries and regions. Since 1993, our multidisciplinary teams have been helping make the future real for our clients and communities around the world. In 2018, we opened an office in Spain that quickly grew to over 1,450 EPAMers distributed between the offices in Málaga, Madrid and Cáceres as well as remotely across the country. Here you will collaborate with multinational teams, contribute to numerous innovative projects, and have an opportunity to learn and grow continuously.
- Why Join EPAM
- WORK AND LIFE BALANCE. Enjoy more of your personal time with flexible work options, 24 working days of annual leave and paid time off for numerous public holidays.
- CONTINUOUS LEARNING CULTURE. Craft your personal Career Development Plan to align with your learning objectives. Take advantage of internal training, mentorship, sponsored certifications and LinkedIn courses.
- CLEAR AND DIFFERENT CAREER PATHS. Grow in engineering or managerial direction to become a People Manager, in-depth technical specialist, Solution Architect, or Project/Delivery Manager.
- STRONG PROFESSIONAL COMMUNITY. Join a global EPAM community of highly skilled experts and connect with them to solve challenges, exchange ideas, share expertise and make friends.
CAS TRAINING
Profesionales DevOps (Inglés alto)
CAS TRAINING · Madrid, ES
Teletrabajo Python Jenkins Kubernetes Git OpenShift AWS DevOps
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un/a DevOps para integrarse en el equipo de Datos.
Las funciones a desempeñar son:
- Creación y mantenimiento de pipelines de CI/CD híbridos (Jenkins y AWS CodePipeline).
- Automatización de despliegues y gestión de contenedores en entornos OpenShift y Kubernetes.
- Orquestación de flujos de trabajo de datos serverless utilizando AWS Step Functions, Glue y Athena.
- Soporte al equipo de desarrollo en la gestión de repositorios (AWS CodeCommit/Git) y buenas prácticas de DevOps.
- Aportar mínimo 4 años de experiencia con Python AWS Data Services: AWS Glue,Athena, Step Functions. CI/CD & DevOps: Jenkins, AWS CodePipeline, AWS CodeCommit. Contenedores y Orquestación.
Experiencia sólida en OpenShift y Kubernetes. Control de Versiones: Git (Manejo de ramas y flujos de trabajo).
Conocimientos generales sobre despliegue de LLMs (Large Language Models)
Se ofrece:
- Contrato indefinido con CAS Training.
- Acceso al catálogo de formación oficial en IT.