No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
937Comercial i Vendes
730Administració i Secretariat
576Transport i Logística
431Comerç i Venda al Detall
332Veure més categories
Educació i Formació
323Desenvolupament de Programari
310Màrqueting i Negoci
305Dret i Legal
288Enginyeria i Mecànica
226Publicitat i Comunicació
187Disseny i Usabilitat
154Instal·lació i Manteniment
150Sanitat i Salut
114Construcció
95Indústria Manufacturera
91Art, Moda i Disseny
87Recursos Humans
75Hostaleria
74Comptabilitat i Finances
50Atenció al client
44Immobiliària
44Arts i Oficis
41Producte
38Turisme i Entreteniment
35Cures i Serveis Personals
26Banca
23Farmacèutica
20Alimentació
19Seguretat
13Social i Voluntariat
9Energia i Mineria
7Esport i Entrenament
6Assegurances
2Agricultura
1Editorial i Mitjans
1Telecomunicacions
1Ciència i Investigació
0Checkly
Senior Infrastructure Engineer (remote, UTC-3 to UTC+3)
Checkly · Barcelona, ES
Teletreball . Agile Scrum Linux Cloud Coumputing Kubernetes Ansible TypeScript SaaS AWS Vue.js Go Terraform Office
(Fully remote, async-first, DevTool SaaS, 32-40h/week, time zones: UTC-3 to UTC+3)
Checkly is looking for a Senior Infrastructure Engineer to join an early stage company, influence the product roadmap and help us do what we love most: building the #1 monitoring platform for developers.
--
Join Checkly as a Software Engineer Infrastructure and empower developers to own and ensure application performance and reliability - from pull request to post-mortem!
Checkly is the leading synthetic monitoring platform helping Engineers at Linkedin, Citibank, Render, Vercel and over 1000 other companies to build reliable products by unifying testing, monitoring and observability. OpenTelemetry, Playwright, and Monitoring as Code are our foundation for unifying performance and reliability.
Our tech stack is Claude Code, Vue.js, TypeScript, Golang, Postgres and ClickHouse. We host a hybrid cloud on AWS and bare metal infrastructure. We ship to prod all day, every day. We practice Agile (not scrum) and take pride in good documentation and good looking products.
We’re a remote-first startup that keeps things simple—low on meetings, high on productivity, and always shipping. If you love building cool things, working async, actually listening to and working with customers, and keeping it lean, you’ll fit right in!
In 2024, we raised $20M in Series B funding from Balderton, CRV, and Accel to take things to the next level.
What you'll do
- Work with a team of highly skilled Staff and Senior Engineers
- Evolve and optimize our hybrid AWS and bare metal infrastructure to securely run sandboxed code and AI Agents with industry leading cost efficiency
- Investigate customer and infrastructure problems down to the packet capture and process memory level together with the team to ensure customers can trust Checkly
- Contribute to infrastructure reliability and ensure systems stay snappy for ad hoc and scheduled workloads without breaking or exploding costs
- Collaborate with product engineers to improve developer experience, support our strong shipping culture and provide observability they need
- Hands-on experience building and maintaining bare metal and cloud infrastructure for production services
- Deep Linux administration experience
- Experience managing automated infrastructure with Terraform and Ansible or similar tools
- Basic or ideally advanced Kubernetes knowledge
- Excellent spoken and written English skills
- Ability to be autonomous and self-motivated in a remote work environment, while you also enjoy getting to know your colleagues and helping others.
- FULLY remote role, within the UTC-3 to UTC+3 time zones.
- Transparent salary because your salary shouldn't be dictated by how good a negotiator you are. (more info below)
- Remote-first, flexible work hours, async-first (low meeting, high productivity) and transparent culture
- Become part of a fast-growing, international, and remote team where your work matters—your impact won’t get lost in layers of bureaucracy.
- Stock options
- 27 days of paid vacation + your local public holidays
- Paid sick leave & up to 14 weeks of paid parental leave
- $1,500 learning, visiting and wellbeing budget
- Co-working budget or home office setup
- Bi-annual company retreats
- Employee & contractor options
What we pay
Fair, competitive, and transparent pay is very important for us. Therefore we work with a standardized salary calculator that includes several factors such as seniority level as well as location.
For this role, the range is
- €88k-€107k for someone in a similar cost of market as UK, Germany etc.
- €79k-€97k for someone in a similar cost of market as Spain, Poland, Ukraine etc.
Apply
If this sounds interesting, please apply! Studies by several different sources have shown that on average men will apply for a job if they meet 60% of the application requirements. Women, non-binary people and POC will seek to match a much higher percentage of requirements before applying. If you're not sure you're the right fit, apply anyway and let us know what you bring to the table. We'd love to hear from you!
We're all about being transparent and setting clear expectations. That's why we've put together our hiring playbook and open-sourced our employee handbook. There you'll find a sneak peek of who we are, how we work and what you can expect in our hiring process.
Compensation Range: €79K - €107K
Senior DevOps Engineer (Google Cloud)
16 de gen.GFR Technologies SE
Senior DevOps Engineer (Google Cloud)
GFR Technologies SE · Madrid, ES
Teletreball Cloud Coumputing Kubernetes DevOps Terraform
GFT es una compañía pionera en transformación digital que desarrolla soluciones sostenibles basadas en nuevas tecnologías, como la inteligencia artificial y blockchain/DLT. Los expertos de GFT crean e implementan aplicaciones de software escalables que hacen que el acceso a modelos de negocio innovadores sea seguro y sencillo.
¿Qué estamos buscando?
Actualmente, tenemos un puesto vacante para un/a Senior DevOps Engineer (Google Cloud) que quiera unirse a GFT. Buscamos una persona entusiasta y dinámica dispuesta a empezar y crecer en un entorno multicultural, motivador y desafiante.
Tus principales responsabilidades serán:
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Comprender las necesidades del cliente y trabajar en estrecha colaboración con los equipos correspondientes para garantizar que la solución en la nube desarrollada esté alineada con las necesidades y la Propuesta de Valor de GFT.
- Desarrollar y organizar sistemas en la nube de Google Cloud Platform.
- Crear una estrategia para la nube y gestionar el proceso de adopción.
- Reconocer, identificar y documentar áreas potenciales donde los procesos comerciales existentes requieren cambios, o donde se necesitan desarrollar nuevos procesos, y hacer recomendaciones.
- Asegurar la capacidad de GFT para implementar y entregar la solución diseñada trabajando en estrecha colaboración con las unidades de entrega designadas.
- Identificar, evaluar y minimizar el riesgo asociado con la privacidad en la nube de la empresa.
Requisitos:
- Experiencia como Cloud/DevOps Engineer (nivel middle) de 4 años de experiencia profesional.
- Buen conocimiento y experiencia práctica en entornos Google Cloud Platform (GCP).
- Capacidad para aprovisionar y gestionar infraestructura en GCP mediante Terraform, aplicando buenas prácticas de Infrastructure as Code.
- Experiencia en la aplicación de prácticas SRE, incluyendo monitorización y alertas con Google Cloud Operations.
- Conocimientos y experiencia trabajando con servicios de datos de GCP (BigQuery, Dataproc, Cloud Composer, Google Cloud Storage (GCS).
- Experiencia en el diseño e implementación de pipelines CI/CD utilizando GitHub Actions / GitHub Workflows.
- Experiencia profesional de al menos un año con Google Kubernetes Engine (GKE).
- Nivel de inglés de conversación alto (B2) para trabajar en equipos internacionales.
Competencias personales:
- Trabajo en equipo.
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Proactividad en la búsqueda de nuevas soluciones y mejoras.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo.
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
DevOps Freelance
16 de gen.WayOps
DevOps Freelance
WayOps · Madrid, ES
Teletreball API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Machine Learning
En WayOps buscamos un perfil **DevOps Engineer** que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
**CONTEXTO & RESPONSABILIDADES**
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. (Junto al AI Architect, ) el DevOps Engineer deberá implementar pipelines CI/CD que permitan la integración y entrega continuas de código (DevOps) y modelos (ModelOps). Será imprescindible contar con un background técnico en programación y familiaridad tanto con DevOps, como con el ciclo de vida de los modelos científicos.
**PROYECTO & EQUIPO**
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (DevOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
**EXPERIENCIA & CONOCIMIENTOS**
El perfil a incorporar deberá contar con 2-3 años de experiencia como especialista DevOps liderando la creación de pipelines de integración y despliegue continuo con Azure DevOps, así como código que permita la industrialización y automatización del despliegue de entornos (IaC). Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Software o Ingeniero de Sistemas desarrollando aplicaciones y programas o desarrollando scripts que faciliten la configurando de entornos.
Se valorará experiencia previa en industrialización de entornos Data & AI, especialmente los orientados al ciclo de vida de los modelos científicos. Además, se valorará experiencia con Bizep/Terraform y experiencia o conocimiento con la API de de Azure Databricks.
Será necesario tener experiencia previa con tecnologías:
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Azure (Key Vault, Managed Identities, Application Insights, Azure Monitor, App Service, Storage)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML SDK v2, MLflow)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Visual Studio Code, Git, GitFlow)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Data Factory, Databricks, Azure Machine Learning, Cosmos DB, SQL Databases)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Databricks (Delta Tables, Unity Catalog, Databricks Connect)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
**CONTRATACIÓN & UBICACIÓN**
La contratación será mediante un contrato anual prorrogable como autónomo a jornada completa. El trabajo se llevará a cabo de forma remota, adaptándose al horario de oficina para facilitar la coordinación con el equipo. La banda salarial será negociable en función de la experiencia aportada.
AI Architect
16 de gen.WayOps
Madrid, ES
AI Architect
WayOps · Madrid, ES
API Python TSQL Azure Docker Cloud Coumputing Git PowerShell DevOps QA Terraform Power BI Machine Learning
En WayOps buscamos un perfil AI Architect que quiera desarrollar su carrera profesional formando parte de un equipo Data & AI de primer nivel y trabajando en proyectos cloud con las últimas tecnologías.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará dentro de un equipo de nueva formación que tendrá como misión automatizar mediante MLOps la creación responsable de modelos en la plataforma analítica. Junto al especialista de la estrategia en la plataforma y el arquitecto empresarial, el AI Architect deberá realizar la definición técnica de la arquitectura y adaptar la plataforma analítica para soportar el proceso de MLOps.
Como quiera que el proceso de automatización en el desarrollo de modelos está íntimamente ligado con el código científico desarrollado, el AI Architect también deberá supervisar el desarrollo de arquetipos que faciliten y aceleren la creación de modelos científicos responsables. En este sentido, será imprescindible contar con un background técnico en programación y experiencia en DevOps para liderar la adaptación a MLOps del proceso científico.
PROYECTO & EQUIPO
El proyecto persigue la adaptación de la plataforma analítica existente para integrar la creación responsable de modelos y automatizar su despliegue mediante MLOps. Como quiera que la base tecnológica ya incluye Azure Databricks y Azure Machine Learning Services, se quiere realizar la implementación del proceso gobernado desde Azure DevOps integrando a través de SDK con el resto de servicios para la creación automática de recursos o implementar las pipelines de despliegue.
Para el éxito del proyecto, resulta imprescindible contar con especialistas que además de tener visión de la arquitectura puedan realizar la configuración de las pipelines y crear los arquetipos en código que integren con los diferentes servicios de Azure Machine Learning. La configuración de cada iniciativa debe permitir el desarrollo local o remoto contra un clúster en Databricks o un Compute en Azure Machine Learning. Toda la configuración del proyecto y despliegue deben ser automatizados.
El equipo designado para el proyecto incluirá ingenieros de automatización MLOps (MLOps Engineer) e ingenieros de industrialización IA (AI Engineer) que serán supervisados por el líder técnico (Team Lead). El AI Architect trabajará de la mano del líder técnico y deberá liderar las tareas del equipo, especialmente los ingenieros de industrialización AI. Además, el proyecto contará con la supervisión del arquitecto empresarial y el apoyo del especialista de la plataforma. En total el equipo del proyecto serán unas ocho personas.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con 2-3 años de experiencia como Arquitecto de Datos participando en la definición e implantación de arquitecturas técnicas que engloben tanto el procesamiento de datos como la creación de modelos científicos en entornos productivos. Además, deberá contar con un background de 3-5 años de experiencia como Ingeniero de Datos desarrollando código en PySpark para la transformación de los datos preferentemente en entornos Azure + Databricks.
Se valorará experiencia previa como científico de datos y/o como especialista en industrialización de modelos científicos, así como experiencia en la definición de mejores prácticas de programación, conocimientos y experiencia con CI/CD en Azure DevOps y cualquier experiencia previa en el desarrollo de librerías de código, especialmente en torno al SDK v2 de Azure Machine Learning.
Será necesario tener experiencia previa con tecnologías:
- Azure (Databricks, Azure Machine Learning, Storage, Data Factory, Key Vault)
- Azure Machine Learning (Experiment Tracking, Model Registry, AML Studio, AML SDK v2, MLflow)
- Databricks (PySpark, Dataframes, Delta Tables, Unity Catalog, Databricks Connect)
- Azure DevOps (Boards, Pipelines, Repos, Test Plans, Artifacts)
- Desarrollo Python (Click, Poetry, Pipx, Opencensus, Black, Pdb+, fastAPI)
- QA & Testing (Kiuwan, JMeter, PyTest)
- Herramientas (Visual Studio Code, Git)
Además se valorará positivamente contar con experiencia o conocimientos en:
- Azure (Cosmos DB, SQL Databases, Managed Identities, Application Insights, Azure Monitor, App Service)
- Azure Machine Learning (AML Pipelines, AML Endpoints, AML Environments, AML Compute)
- Machine Learning (sklearn, mllib, h2o, tensorflow, keras)
- Responsible AI (AML RAI SDK, Fairlearn, InterpretML, DiCE, EconML)
- IaC (Terraform, Databricks API, Bicep, Docker, Powershell, Scripting)
- Analytics (PowerBI)
CONTRATACIÓN & UBICACIÓN
La contratación será mediante contrato anual prorrogable como autónomo en jornada completa. El trabajo se desarrollará en remoto preferentemente dentro del horario de oficina del cliente para facilitar la coordinación con el resto del equipo. Banda salarial negociable en función de la experiencia aportada. Incorporación inmediata.
Data Engineering
15 de gen.Santander
Madrid, ES
Data Engineering
Santander · Madrid, ES
Angular Cloud Coumputing Microservices REST AWS DevOps Terraform Spark Big Data
Data Engineering - Santander Digital Services
Country: Spain
IT STARTS HERE
Santander (www.santander.com) is evolving from a global, high-impact brand into a technology-driven organization, and our people are at the heart of this journey. Together, we are driving a customer-centric transformation that values bold thinking, innovation, and the courage to challenge what´s possible.
This is more than a strategic shift. It´s a chance for driven professionals to grow, learn, and make a real difference.
Our mission is to contribute to help more people and businesses prosper. We embrace a strong risk culture and all our professionals at all levels are expected to take a proactive and responsible approach toward risk management.
Santander Digital Services is the team of technology and operations at Santander. We are convinced of the importance of technology that is aligned with the requirements of the business and that out work not only brings value to users, people and communities but also fosters individual creativity. Our team of over 10,000 people in 8 countries (Spain, Portugal, Poland, UK, USA, Mexico, Chile and Brazil) develops and/or implements financial solutions across a broad spectrum of technologies (including Blockchain, Big Data and Angular among others) on all kinds of on-premises and cloud-based platforms.
THE DIFFERENCE YOU MAKE
Santander Digital Services is looking for a Data Engineer based out of Boadilla del Monte.
We´re shaping the way we work through innovation, cutting-edge technology, collaboration and the freedom to explore new ideas. To succeed in this role, you will be responsible for:
- Developing Cloud-native architectures, primarily on AWS (VPC, IAM, S3, EC2, EKS/ECS, Lambda, Glue, EMR, Redshift, Athena, etc.), with experience in hybrid or multi-cloud environments.
- Operating Large-scale data platforms, including batch and streaming processing, analytics, data lakes/lakehouses, and data governance frameworks.
- Distributed data coding and processing using PySpark / Apache Spark, including performance tuning, partitioning strategies, and fault-tolerant pipelines.
- Bringing modern software engineering practices, including CI/CD, test automation, and code quality standards.
- Leveraging APIs, microservices, and event-driven architectures, enabling scalable and reusable data and application services.
- Designing and orchestrating data pipelines and workflows using tools such as Apache Airflow, AWS Step Functions, or similar schedulers and orchestration platforms.
- Building and operating solutions in AWS, leveraging managed services where appropriate and understanding trade-offs between managed and custom components.
- Automating infrastructure provisioning and application deployment using Infrastructure as Code (Terraform, CloudFormation) and DevOps pipelines (Git-based workflows, CI/CD).
- Applying security-by-design principles, including IAM least privilege, encryption at rest and in transit, secrets management, and compliance-aligned architectures.
WHAT YOU´LL BRING
Our people are our greatest strength. Every individual contributes unique perspectives that make us stronger as a team and as an organization. We´re enabling teams to go beyond by valuing who they are and empowering what they bring.
The following requirements represent the knowledge, skills, and abilities essential for success in this role. Reasonable accommodations may be made to enable individuals with disabilities to perform the essential functions.
Professional Experience
- Hands-on technical leader capable of designing and implementing end-to-end cloud and data solutions, defining target architectures, and guiding teams through practical delivery using modern engineering best practices. (Preferred)
- Strong written and verbal communication skills, with the ability to explain complex cloud, data, and distributed-system architectures and translate them into concrete business outcomes for non-technical stakeholders, including senior leadership and executive committees. (Required)
- Excellent analytical and organizational skills, capable of managing multiple concurrent initiatives while maintaining high engineering quality and delivery velocity. (Preferred)
- Proven ability to manage complex technical programs, including planning, prioritization, budget tracking, and coordination with external vendors and partners. (Preferred)
Education
- Relevant degree program (Preferred)
Languages
- English (Required)
WE VALUE YOUR IMPACT
Your contribution matters, and it´s recognized. You can expect a fair, competitive reward package that reflects the impact you create and the value you deliver. But we know rewards go beyond numbers.
- We enable our teams to go beyond through global opportunities and broad career paths.
- Flexibility that works. Enjoy a hybrid working models-some days remote, some days onsite with your team-along with flexible hours.
- Learning for life. Access hundreds of courses on our platforms, including exclusive access to our global learning space: Santander Open Academy (www.santanderopenacademy.com)
- Competitive rewards. Receive a highly competitive salary with performance-based bonuses, motivating you to keep growing with us.
- Financial advantages. Benefit from preferential banking terms, special interest rates on loans, life insurance, and more.
- Your health is our priority. Through BeHealthy, our global wellness programme, we promote Holistic wellbeing.
- We know family is everything. That´s why we offer childcare support and family-friendly programmes tailored to each life stage.
- Always by your side. Get access to Santander Contigo, our program for employees and their families offering legal, emotional, and administrative advisory services.
- Extra benefits. Gym/WellHub membership, medical centers in some of our facilities, meal subsidy, parking, shuttle service from various points in Madrid, as well as exclusive discounts and offers for Santander employees. And that´s only the beginning-we´ll tell you more when you join!
We´re here to keep you motivated, help you reach your goals, and celebrate your progress, every step of the way.
DevOps (Inglés B2/C1)
13 de gen.CAS TRAINING
Madrid, ES
DevOps (Inglés B2/C1)
CAS TRAINING · Madrid, ES
Python AWS Bash DevOps Terraform
En CAS Training buscamos incorporar DevOps con inglés avanzado para incorporarse a un importante proyecto del sector de industria de materiales y soluciones para la construcción con disponibilidad para cumplir esquema hibrido en 📍Madrid.
✨Requisitos:
• Inglés avanzado (B2-C1)
• Disponibilidad para realizar viajes si se tuviera la necesidad
• Disponibilidad para colaborar en guardias/festivos si es necesario
• Disponibilidad para mantener un esquema hibrido en Madrid
Es deseable:
• Conocimiento de implementación de recursos en AWS con Terraform.
• Conocimiento de arquitectura de soluciones en AWS.
• Conocimiento de herramientas de análisis de código (Sonarqube y GHAS) y creación de pruebas de rendimiento (Jmeter).
• Scripting con Python, Bash o similar.
• Cumplimiento del SLA (Acuerdo de Nivel de Servicio).
🎯Tareas:
• Brindar servicio con capacidad para gestionar y dar soporte a la implementación de aplicaciones en una plataforma DevOps.
• Colaborar con los equipos de desarrollo de productos. Nos centraremos en la automatización de compilaciones mediante pipelines de CI/CD y en la puesta en producción del código de la forma más rápida y eficiente posible.
• Brindar soporte a los servicios antes de su lanzamiento mediante consultoría de diseño de sistemas, desarrollo de plataformas y frameworks de software, planificación de capacidad y revisiones de lanzamiento.
• Utilización de automatización para escalar sistemas de forma sostenible y contribuir a la implementación de mejoras, evolucionando sistemas e impulsando cambios que mejoren la fiabilidad, la velocidad y la seguridad.
• Colaborar con los equipos de producto de TI para implementar nuevas versiones de software en recursos en la nube.
• Colaborar con los equipos de DevOps para garantizar que los nuevos entornos cumplan los requisitos y se ajusten a las mejores prácticas.
• Propuesta de arquitectura (teniendo en cuenta las necesidades y restricciones de EDC), procedimiento de creación/integración/administración (IaC y automatización son obligatorios), transferencia completa de conocimientos (basada en la documentación previa y grabaciones de vídeo de la propia KT).
Técnicos Sistemas
13 de gen.Seltime
Técnicos Sistemas
Seltime · Madrid, ES
Teletreball Linux Ansible Git AWS Nginx Terraform
SELTIME compañía española en proceso de expansión, líder en dar soluciones tecnológicas específicas a cada cliente y un trato personalizado a nuestros profesionales.
Selecciona Técnicos de Sistemas con experiencia de al menos 2-3 años para incorporación en proyectos estables dentro de nuestra organización:
Buscamos profesionales que cumplan los siguientes requisitos:
- Estudios de CFGS Informática o similar
- Disponibilidad de incorporación inmediata
- Experiencia de al menos 2-3 años en :
- Servidores Web (Nginx, Apache)
- Servidores de Aplicaciones (JBoss, Wildfly)
- Experiencia en el despliegue y mantenimiento de aplicaciones bajo infraestructura en la nube
- Sistemas Operativos Linux
- Valorable: repositorios GIT, Ansible y Terraform, servidores IIS, balanceadores, Haproxy, nginx.... ) y redirecciones (apache, nginx, pound....)
Responsabilidad y funciones :
Administración de sistemas
Automatización de tareas
Resolución de incidencias y peticiones
Creación de nuevos entornos en AWS
SE OFRECE:
- Incorporación inmediata
- Teletrabajo 3 o 4 días a la semana
- Desarrollo profesional
- Formación personalizada
- Retribución flexible
- Ambiente dinámico de trabajo
Desarrollador/a Fullstack JAVA - ANGULAR
13 de gen.Digital Talent Agency
Desarrollador/a Fullstack JAVA - ANGULAR
Digital Talent Agency · Barcelona, ES
Teletreball Java Angular Linux Docker Cloud Coumputing AWS DevOps Spring Terraform
¡Hola! ¿Eres un/a crack del desarrollo Fullstack y te apasiona crear cosas increíbles? ¡En Zemsania estamos buscando a alguien como tú para unirse a nuestro equipo!
Buscamos un/a Desarrollador/a Fullstack con una experiencia sólida de al menos 3 años, que domine tanto Java (versión 17 o superior, ¡nada de versiones antiguas!) como AngularJS. Si te suenan a música las tecnologías más punteras, ¡sigue leyendo!
¿Qué harás en tu día a día?
Te sumergirás en un proyecto emocionante en el sector de los seguros , donde serás pieza clave en el desarrollo y mejora de aplicaciones. Tus misiones principales incluirán:
Desarrollar código limpio, eficiente y escalable usando Java y Angular.
Colaborar en la arquitectura y diseño de soluciones innovadoras.
Trabajar con herramientas y metodologías modernas como Docker, GitLab CI, Linux, Terraform y AWS.
Implementar y mantener aplicaciones seguras usando Spring, Spring Boot y Spring Security.
Participar activamente en la cultura DevSecOps, asegurando la calidad y seguridad en cada etapa del desarrollo.
Resolver desafíos técnicos complejos y proponer soluciones creativas.
¿Qué necesitamos que tengas?
Experiencia: Mínimo 3 años desarrollando como Fullstack.
Lenguajes: Dominio de Java (versión 17+) y AngularJS.
Frameworks: Experiencia con Spring, Spring Boot y Spring Security.
Cloud: Conocimiento práctico de AWS.
Contenedores: Experiencia con Docker.
CI/CD: Familiaridad con GitLab CI.
Infraestructura: Conocimiento de Linux y Terraform.
DevOps: Comprensión de conceptos de DevSecOps.
Idiomas: Inglés fluido (mínimo B2). ¡Toda la comunicación será en inglés!
¿Qué te ofrecemos?
Formar parte de un equipo dinámico y con mucho talento.
Trabajar en proyectos punteros y desafiantes.
Oportunidades de crecimiento y desarrollo profesional.
Flexibilidad: Combinamos el teletrabajo con 2 días de asistencia presencial en nuestras oficinas de Barcelona. Si vives fuera, ¡no hay problema! Pero tendrías que tener disponibilidad para viajar a Barcelona 1 vez cada 15 días.
Si te ves en este rol y crees que puedes aportar valor a nuestro equipo, ¡queremos conocerte! ¡Anímate a dar el siguiente paso en tu carrera con Zemsania!
API Developer
12 de gen.CAS TRAINING
Málaga, ES
API Developer
CAS TRAINING · Málaga, ES
API Java Python Azure Docker Cloud Coumputing Kubernetes TypeScript Spring Redis Terraform Kafka
Buscamos un/a AI-Native API Developer que lidere la capa global de APIs y la evolución de una plataforma bancaria distribuida, segura e inteligente, utilizada a nivel mundial.
🔍 ¿Qué harás?
Liderar la gobernanza global de APIs y el catálogo corporativo (Apigee Hybrid), garantizando estándares OpenAPI 3.1 y AsyncAPI.
Diseñar y operar despliegues multi-región en entornos hybrid-cloud (Azure & GCP).
Orquestar integraciones event-driven (Kafka ↔ Azure Event Hub).
Definir y aplicar seguridad a nivel plataforma: OAuth 2.1, OIDC y mTLS.
Implementar observabilidad AI-native y AIOps (Datadog AI, Dynatrace Davis, MAISA AI).
🛠️ Stack tecnológico
Lenguajes
Python 3.11+, TypeScript, Java 17+
Frameworks
FastAPI, Spring Boot 3, NestJS
API Management
Apigee Hybrid (core), Azure API Management, Kong
Eventos & Mensajería
Apache Kafka, Azure Event Hub, Confluent Schema Registry
Infra & Cloud
Docker, Kubernetes (AKS / GKE), Istio / Linkerd
CI/CD & IaC
GitHub Actions, ArgoCD, Terraform, Packer
Observabilidad & AIOps
Datadog AI, Dynatrace Davis, Prometheus, ELK, MAISA AI
AI & Datos
Azure AI Services, LangChain patterns, Pinecone / Redis Vector
Seguridad
OAuth 2.1, OIDC, mTLS, Azure Key Vault, HashiCorp Vault
✅ Qué buscamos
+5 años en API / Platform Engineering con entornos multi-región e híbridos.
Experiencia sólida en Apigee Hybrid (o equivalente) y gobernanza de APIs.
Dominio de Kafka y arquitecturas event-driven.
Experiencia en observabilidad AI-native.
Conocimiento práctico de Vector DBs y RAG.
Español e inglés profesional
Onsite en Málaga, trabajando con equipos internacionales.