No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
939Informàtica i IT
863Administració i Secretariat
645Transport i Logística
571Desenvolupament de Programari
350Veure més categories
Comerç i Venda al Detall
343Educació i Formació
341Dret i Legal
333Enginyeria i Mecànica
301Màrqueting i Negoci
250Disseny i Usabilitat
231Construcció
185Instal·lació i Manteniment
171Publicitat i Comunicació
151Sanitat i Salut
143Recursos Humans
138Comptabilitat i Finances
109Indústria Manufacturera
93Hostaleria
89Art, Moda i Disseny
67Producte
58Immobiliària
57Arts i Oficis
46Atenció al client
43Seguretat
40Turisme i Entreteniment
37Alimentació
26Banca
25Cures i Serveis Personals
19Farmacèutica
17Social i Voluntariat
13Editorial i Mitjans
8Esport i Entrenament
7Energia i Mineria
6Assegurances
2Telecomunicacions
2Agricultura
1Ciència i Investigació
0MAPFRE
Arquitecto/a Desarrollador/a Cloud & IA
MAPFRE · Madrid, ES
Teletreball . API Java Node.js Python Azure Cloud Coumputing Kubernetes AWS Agile Microservices Terraform
¡Dale un cambio a tu vida y sigue desarrollando tu carrera profesional en MAPFRE TECH! Formarás parte de un entorno internacional donde podrás innovar participando en proyectos globales y enfocados en las últimas tendencias tecnológicas. Todo esto en un entorno flexible y ágil rodeado de excelentes profesionales de todo el mundo… ¿estás list@?
¿Dónde estamos?
Las Tablas, Madrid.
¿Qué estamos buscando?
En el área de Transformación Tecnológica, equipo de Arquitectura & Innovación, buscamos un perfil de Arquitecto/a Desarrollador/a con sólida experiencia en entornos Cloud (AWS o Azure) y arquitecturas orientadas a microservicios, que además aporte una visión innovadora en el uso de la Inteligencia Artificial aplicada al desarrollo de software.
Este rol es clave para liderar la definición y evolución de soluciones tecnológicas escalables, seguras y eficientes, incorporando prácticas de ingeniería moderna y aprovechando el potencial de la IA para optimizar procesos de diseño, construcción, pruebas y despliegue del software.
¿Cuáles serán tus principales responsabilidades?
- Diseñar y evolucionar arquitecturas cloud-native basadas en microservicios, asegurando escalabilidad, resiliencia y buenas prácticas.
- Liderar la adopción de IA en el ciclo de vida del desarrollo de software, incluyendo generación de código, optimización de calidad, automatización de pruebas y mejora de la productividad de los equipos.
- Colaborar con equipos de desarrollo, producto y operaciones para garantizar la correcta implementación de las arquitecturas propuestas.
- Definir patrones, buenas prácticas y marcos de referencia para asegurar la consistencia tecnológica en los proyectos.
- Participar en la evaluación de nuevas tecnologías, frameworks y servicios cloud que aporten valor a la organización.
- Velar por la seguridad, observabilidad y mantenibilidad de las soluciones diseñadas.
¿Qué necesitamos que sepas?
- Formación académica: deseable grado en Ingeniería Informática.
- Nivel de inglés B2.
- Experiencia demostrable (mín. 5 años) en desarrollo y arquitectura de software.
- Experiencia sólida en Cloud (AWS o Azure), incluyendo servicios gestionados, contenedores y orquestación (ECS/EKS/AKS, Kubernetes, etc.).
- Conocimiento avanzado en arquitecturas de microservicios, API Management y patrones de integración.
- Experiencia en el uso de IA aplicada al desarrollo de software (ej. GitHub Copilot, LLMs, frameworks de IA generativa, herramientas de automatización con IA, etc.).
Conocimientos técnicos
- Lenguajes de programación: Java, Python o Node.js.
- Experiencia con DevOps/CI-CD (GitHub Actions y workflows), infraestructura como código (Terraform).
- Experiencia con prácticas de observabilidad (monitorización, logging, tracing).
- Familiaridad con metodologías ágiles y prácticas de desarrollo seguro (DevSecOps).
Habilidades clave
- Capacidad para combinar visión estratégica con ejecución técnica.
- Habilidad de comunicación y liderazgo técnico en equipos multidisciplinares.
- Mentalidad innovadora, orientada a aplicar IA como catalizador de productividad y calidad.
- Orientación a resultados, con fuerte foco en la excelencia técnica.
¿Qué te ofrecemos?
- Participar en proyectos estratégicos con alto impacto en la compañía.
- Entorno innovador, con foco en la aplicación práctica de IA en ingeniería de software.
- Oportunidad de crecimiento profesional en un rol transversal entre arquitectura, cloud y AI-driven development.
¿De qué beneficios podrás disfrutar en tu día a día?
- Horario flexible y teletrabajo, para facilitar la conciliación con tu vida personal.
- Un programa de retribución flexible en el que tendrás: subvención de comida, cheques guardería, seguro médico, seguro de vida, descuentos para empleados, etc. Y si vives en la ciudad de Madrid, tendrás disponible una ruta de autobuses para llegar a la oficina.
- Acceso a un plan de pensiones atractivo.
- Descuentos en los productos y servicios que nuestra entidad comercializa.
- Jornada intensiva de verano.
- Serás el protagonista de tu ruta de aprendizaje, por lo que contarás con miles de recursos para seguir impulsando tu conocimiento técnico. Además, de forma extra contarás con 1.100€ anuales para que puedas ampliar aún más tu expertise.
- Poder participar en proyectos de voluntariado.
- ¡Un lugar increíble para trabajar! Estamos en el ranking de las 50 mejores empresas para trabajar en España según la revista Forbes.
¡Diversos somos únicos!
Todo proceso de selección que se desarrolla en MAPFRE se realiza bajo el principio de IGUALDAD DE OPORTUNIDADES y NO DISCRIMINACIÓN, siendo las APTITUDES y la VALÍA PERSONAL Y PROFESIONAL de la persona candidata, los criterios en los que se basa su elección final para el puesto de trabajo.
Creamos entornos de trabajo en los que se valora la diversidad y en los que no se producen discriminaciones por razón de sexo, raza, ideología, religión, orientación sexual, edad, nacionalidad, discapacidad o cualquier otra condición personal, física o social.
Puedes consultar nuestra política de Diversidad e Igualdad de Oportunidades: politica-de-diversidad-e-igualdad-de-oportunidades.pdf (mapfre.com)
Al inscribirte en esta oferta quedas informado y consientes el tratamiento por parte de MAPFRE, de los datos personales que has facilitado voluntariamente a través de esta plataforma. Si facilitas datos de terceras personas físicas distintas de ti, garantizas haber recabado y contar con el consentimiento previo de los mismos para la comunicación de sus datos y haberles informado.
MAPFRE como responsable, tratará tus datos, con la única finalidad de tramitar su participación en procesos de selección, para lo cual se podrán elaborar perfiles y del tratamiento de sus datos se podrá derivar la existencia de decisiones automatizadas. Con la finalidad de gestionar tu participación en diversos procesos de selección en empresas del Grupo MAPFRE, filiales y participadas, y Fundación MAPFRE, tus datos podrán comunicarse a dichas entidades, y ser objeto de transferencia internacional.
Puedes consultar información adicional de protección de datos en MAPFRE en https://www.mapfre.com/corporativo-es/clausulas/RRHHseleccion.pdf donde te indicamos donde ejercer los derechos de acceso, rectificación, supresión, limitación, oposición y portabilidad de tus datos personales.
Data Engineer
NovaUST
Data Engineer
UST · Málaga, ES
Teletreball Python Docker Cloud Coumputing Kubernetes AWS Bash Terraform
Role description
We are still looking for the very Top Talent...and we would be delighted if you were to join our team!
More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.
What we look for?
We are looking for a Data Engineer specialized in Python, Bash, AWS and CI/CD to collaborate with a client from the banking sector.
High english level is required.
It is necessary to visit the client´s offices in Malaga 3 days a week.
Key Responsibilities:
- Responsible for designing, implementing, and optimizing automated delivery pipelines and cloud infrastructure supporting high-availability enterprise applications.
- Design and maintain CI/CD pipelines (GitHub Actions, Gradle/Maven build automation).
- Manage container orchestration on Kubernetes (provisioning, scaling, upgrades).
- Develop and manage Helm charts for repeatable deployments.
- Implement infrastructure and services on AWS (EKS, IAM, VPC, S3, RDS, CloudWatch).
- Enforce security, compliance, secrets management, and least-privilege access.
- Optimize observability: logging, metrics, tracing, dashboards
- Automate environment provisioning (IaC: Terraform or CloudFormation).
- Drive release management, rollback strategies, and deployment governance.
- Perform cost optimization and capacity planning.
- Collaborate with development teams to embed reliability and performance
Mandatory requirements:
- Strong CI/CD expertise with GitHub Actions (matrix builds, reusable workflows).
- Hands-on Kubernetes (networking, storage, RBAC, operators).
- Proficient with Helm (templating, chart versioning, repositories).
- AWS production experience (EKS and core services).
- Scripting (Bash, Python) and build tooling (Gradle/Maven).
- Containerization (Docker image optimization, multi-stage builds).
- Monitoring and logging stack (Prometheus, Grafana, ELK or OpenSearch).
- Security practices (image scanning, policy enforcement, secrets lifecycle).
- Performance tuning and incident response experience.
- Fluent English
Nice to Have: GitOps (Argo CD or Flux), experience in high-regulation financial environments
¿What can we offer?
- 23 days of Annual Leave plus the 24th and 31st of December as discretionary days!
- Numerous benefits (Heath Care Plan, Internet Connectivity, Life and Accident Insurances).
- `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Heath Care Plan...)
- Free access to several training platforms
- Professional stability and career plans
- UST also, compensates referrals from which you could benefit when you refer professionals.
- The option to pick between 12 or 14 payments along the year.
- Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime...)
- UST Club Platform discounts and gym Access discounts
If you would like to know more, do not hesitate to apply and we´ll get in touch to fill you in details. UST is waiting for you!
In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
Software Architect
3 de des.Airbus
Software Architect
Airbus · Madrid, ES
Teletreball API Python Jenkins Docker Kubernetes Ansible Microservices REST PowerShell SOAP Bash DevOps Flask Terraform DDD Office
Job Description:
Inside of TADY´s CoC (Aircraft Systems Centre of Competence), Highly Integrated Systems (HIS) is a newly created organization (Domain) with specific responsibilities in Multisystem Architectures, Airborne Computing Platforms, IMA and Modular Integration, HW/SW Certification and Infrastructure and Digitalization, acting as Multisystem and IMA Design Office and providing transversal support and services to the whole System´s CoC. This organization has been created to evolve and prepare the CoC´s organization to the new challenges and paradigms in the Systems design, to attend current and future customer needs and to foster reuse, common strategies alignment, economy of scale, multisystem architectures and digitalization. The aim is to deliver cross-functional strategies, artefacts and support for the design, development and certification of Air Power systems by centralizing competencies, expertise and activities to act as Multisystem Design Office.
Tasks and Responsibilities
The Software Architect T&A shall be responsible for the Design, implement, and maintain a robust Python-based automation framework.
The responsibilities of the Software Architect for the Tools & Automation Team will be the following:
- Automation Framework Development:
Design, implement, and maintain a robust Python-based automation framework used across multiple programs and environments. This includes defining architecture patterns, reusable components, libraries, and ensuring consistency, scalability, and maintainability across all automation projects.
- End-to-End Automation Lifecycle:
Lead the full development lifecycle of automation solutions - from requirements gathering and design to implementation, testing, deployment, and release to the end customer.
- Software Design & Architecture:
Define and enforce software design principles, coding standards, and architectural patterns (e.g., modular, hexagonal, and event-driven architectures).
- Programming & Scripting:
Develop high-quality, production-grade code primarily in Python, complemented by strong Shell scripting (Bash/PowerShell) skills for system-level automation.
- Containerization & CI/CD Integration:
Design and maintain Docker-based build environments and pipelines. Integrate automations into Jenkins CI/CD workflows, ensuring reliable build, test, and deployment processes.
- Code Quality & Testing:
Promote automated testing practices, including unit, integration, and regression testing. Implement continuous integration strategies to ensure code quality and early detection of issues.
- Collaboration & Stakeholder Management:
Work closely with internal customers and other DevOps teams to translate operational needs into software solutions.
- Documentation & Standards:
Ensure that all developed tools and automations are properly documented - including architectural decisions, API contracts, and deployment procedures - maintaining traceability and compliance with engineering standards.
- Innovation & Continuous Improvement:
Evaluate and integrate new technologies and methodologies to enhance the automation ecosystem.
Required Skills
- Degree in Software Engineering, Computer Science, or similar, with relevant experience in software architecture and DevOps environments.
- 3+ years of experience in software development and architecture, ideally in automation or tooling domains.
- Advanced level of Python programming, including design patterns, object-oriented programming, and modular architectures.
- Strong experience with Shell scripting (Bash or PowerShell) for automation and integration tasks.
- Proficiency with Docker and containerized development environments.
- Experience designing and maintaining CI/CD pipelines (preferably Jenkins).
- Solid understanding of software architecture patterns, API design, and versioning strategies.
- Strong focus on code quality, testing, and maintainability.
- Excellent communication and stakeholder management skills, with a customer-oriented mindset.
- Ability to work autonomously while aligning with team objectives and long-term vision.
- English at negotiation level - German and/or French is a plus.
Additional valuable skills:
- Experience in microservices architecture and event-driven systems.
- Knowledge of infrastructure automation tools (e.g., Ansible, Terraform) or orchestration platforms (e.g., Kubernetes).
- Familiarity with FastAPI, Flask, or similar Python backend frameworks.
- Experience with Git-based workflows, code review processes, and semantic versioning.
- Knowledge of API integration (e.g., REST APIs, SOAP APIs, RPC, etc.).
- Experience with logging, monitoring, and telemetry tools for automation health tracking.
- Exposure to domain-driven design (DDD) and hexagonal architecture principles.
- Strong analytical and problem-solving mindset, focused on delivering durable, scalable solutions.
WHICH BENEFITS WILL YOU HAVE AS AIRBUS EMPLOYEE?
At Airbus we are focused on our employees and their welfare. Take a look at some of our social benefits:
- Vacation days and additional days-off along the year (+35 days off in total)
- Attractive salary and compensation package
- Hybrid model of working when possible, promoting the work-life balance (40% remote work)
- Collective transport service in some sites
- Benefits such as health insurance, employee stock options, retirement plan...
- On-site facilities (among others): free canteen, kindergarten, medical office
- Possibility to collaborate in different social and corporate social responsibility initiatives
- Excellent upskilling opportunities and great development prospects in a multicultural environment
- Special rates in products & benefits
Desarrollador de back-end
1 de des.Hub4Retail
Barcelona, ES
Desarrollador de back-end
Hub4Retail · Barcelona, ES
. React Node.js Cloud Coumputing Git REST TypeScript SaaS AWS PostgreSQL Terraform
En Hub4Retail ayudamos a marcas y tiendas multimarca a entender y activar sus datos de ventas y producto en el punto de venta.
Conectamos POS, ERPs y catálogos en una única plataforma para tomar mejores decisiones comerciales y de marketing.
Estamos reforzando nuestro equipo de producto y buscamos un/a Backend Developer que quiera construir producto real, con impacto directo en el negocio de nuestros clientes.
Formarás parte del equipo que diseña y desarrolla el corazón de la plataforma Hub4Retail:
- APIs que consume nuestro front,
- integraciones con sistemas externos (POS, ERPs, ecommerce, ficheros),
- y procesos que mueven y transforman grandes volúmenes de datos de ventas y catálogo.
Es un rol hands-on: buscamos a alguien que disfrute programando, que entienda los datos y que se sienta cómodo trabajando cerca de negocio y producto, usando también tests automatizados y herramientas de IA para ganar velocidad sin perder calidad.
- Diseñar, desarrollar y mantener APIs backend que utiliza el front de Hub4Retail.
- Implementar y optimizar procesos de ingestión de datos (ventas, stock, catálogos) desde distintas fuentes (POS, ERPs, ecommerce, CSV/SFTP, etc.).
- Modelar y consultar datos en PostgreSQL (tablas transaccionales, vistas, consultas para reporting).
- Diseñar e implementar tests automatizados (unitarios y de integración) para las principales funcionalidades del backend.
- Velar por la calidad del código: buenas prácticas, manejo de errores, revisiones de código y cobertura mínima de tests.
- Colaborar con el equipo de producto para traducir necesidades de negocio en soluciones técnicas simples y mantenibles.
- Aprovechar herramientas de IA (asistentes de código, generación de tests, ayuda con refactors y documentación) para trabajar de forma más eficiente.
- Contribuir a mejorar la observabilidad del sistema (logs, métricas, alertas) junto al resto del equipo.
Imprescindible
- Mínimo 3 años de experiencia en desarrollo backend.
- Experiencia sólida desarrollando servicios con Node.js (TypeScript muy valorable).
- Conocimientos fuertes de bases de datos relacionales, idealmente PostgreSQL.
- Experiencia construyendo APIs REST para frontends tipo SPA (React o similar).
- Experiencia práctica escribiendo tests automatizados (unitarios, integración) y utilizando algún framework de testing en Node.js.
- Buen manejo de Git (Bitbucket, GitHub, GitLab…).
- Mentalidad de producto: entender el dominio (ventas, pedidos, catálogos de producto) y no solo la tecnología.
- Apertura a trabajar con herramientas de IA en el día a día para mejorar productividad y calidad del código.
- Capacidad para trabajar en equipo en un entorno dinámico, con autonomía y responsabilidad.
- Posibilidad de trabajar en modelo híbrido en Barcelona (presencia periódica en oficina).
Valoramos especialmente
- Experiencia en entornos cloud, idealmente AWS.
- Experiencia previa en productos B2B SaaS o plataformas de datos.
- Conocimientos de integración de sistemas (APIs REST, webhooks, SFTP, CSV masivos…).
- Experiencia con infra as code (Terraform) y, en general, sensibilidad por la parte de despliegue/ops.
- Comodidad usando IA para desarrollo (asistentes de código, generación de tests, análisis de logs, etc.) y curiosidad por aplicar IA a problemas de negocio.
- Experiencia en proyectos de retail / ecommerce / moda o analítica de datos.
- Incorporarte a una plataforma en crecimiento con mucho recorrido en el sector retail y multimarca.
- Proyecto de producto, no consultoría: lo que desarrollas se ve, se usa y se mejora continuamente.
- Modelo híbrido en Barcelona, en un entorno cercano y de colaboración directa con negocio.
- Contrato indefinido.
- Autonomía, responsabilidad y la posibilidad de influir en cómo evoluciona la plataforma a nivel técnico y funcional.
Senior Data Engineer
1 de des.Ultra Tendency
Senior Data Engineer
Ultra Tendency · Saiáns (San Salvador), ES
Teletreball . Python Azure Cloud Coumputing Ansible Scala Microservices AWS DevOps Terraform Kafka Spark Big Data Machine Learning Office
Our Engineering department is growing, and we're now looking for a Senior Data Engineer - Databricks (m/f/*) to join our team in Spain, supporting our global growth.
As Senior Data Engineer (m/f/*), you design and optimize data processing algorithms on a talented, cross-functional team.
You are familiar with the Apache open-source suite of technologies and want to contribute to the advancement of data engineering.
What We Offer
Flexible work options, including fully remote or hybrid arrangements (candidates must be located in Spain)
A chance to accelerate your career and work with outstanding colleagues in a supportive learning community split across 3 continents
Contribute your ideas to our unique projects and make an impact by turning them into reality
Balance your work and personal life through our workflow organization and decide yourself if you work at home, in the office, or on a hybrid setup
Annual performance review, and regular feedback cycles, generating distinct value by connecting colleagues through networks rather than hierarchies
Individual development plan, professional development opportunities
Educational resources such as paid certifications, unlimited access to Udemy Business, etc.
Local, virtual, and global team events, in which UT colleagues become acquainted with one another
What You'll Do
Design, implement, and maintain scalable data pipelines using Databricks Lakehouse Platform, with a strong focus on Apache Spark, Delta Lake, and Unity Catalog.
Lead the development of batch and streaming data workflows that power analytics, machine learning, and business intelligence use cases.
Collaborate with data scientists, architects, and business stakeholders to translate complex data requirements into robust, production-grade solutions.
Optimize performance and cost-efficiency of Databricks clusters and jobs, leveraging tools like Photon, Auto Loader, and Job Workflows.
Establish and enforce best practices for data quality, governance, and security within the Databricks environment.
Mentor junior engineers and contribute to the evolution of the team's Databricks expertise.
What You'll Bring
Deep hands-on experience with Databricks on Azure, AWS, or GCP, including Spark (PySpark/Scala), Delta Lake, and MLflow.
Strong programming skills in Python or Scala, and experience with CI/CD pipelines (e.g., GitHub Actions, Azure DevOps).
Solid understanding of distributed computing, data modeling, and performance tuning in cloud-native environments.
Familiarity with orchestration tools (e.g., Databricks Workflows, Airflow) and infrastructure-as-code (e.g., Terraform).
A proactive mindset, strong communication skills, and a passion for building scalable, reliable data systems.
Professional Spanish & English communication skills (C1-level, written and spoken).
Did we pique your interest, or do you have any questions?
We want to hear from you: contact us at ******
About Us
Ultra Tendency is an international premier Data Engineering consultancy for Big Data, Cloud, Streaming, IIoT and Microservices.
We design, build, and operate large-scale data-driven applications for major enterprises such as the European Central Bank, HUK-Coburg, Deutsche Telekom, and Europe's largest car manufacturer.
Founded in Germany in ****, UT has developed a reliable client base and now runs 8 branches in 7 countries across 3 continents.
We do more than just leverage tech, we build it.
At Ultra Tendency we contribute source code to +20 open-source projects including Ansible, Terraform, NiFi, and Kafka.
Our impact on tech and business is there for anyone to see.
Enterprises seek out Ultra Tendency because we solve the problems others cannot.
We love the challenge: together, we tackle diverse and unique projects you will find nowhere else.
In our knowledge community, you will be a part of a supportive network, not a hierarchy.
Constant learning and feedback are our drivers for stable development.
With us you can develop your individual career through work-life balance.
We evaluate your application based on your skills and corresponding business requirements.
Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age.
Data privacy statement: Data Protection for Applicants – Ultra Tendency
Software Engineer : AWS infrastructure
30 de nov.Inetum
Software Engineer : AWS infrastructure
Inetum · Madrid, ES
Teletreball . API Python AWS DevOps Terraform
Descripción de la empresa
Sobre Inetum
Inetum es líder europeo en servicios digitales. El equipo de 28.000 consultores y expertos de Inetum se esfuerza cada día por lograr un impacto digital en las empresas, en las entidades del sector público y en la sociedad. Las soluciones de Inetum quieren contribuir al rendimiento y la innovación de sus clientes, así como al interés general.
Presente en 19 países con una red de centros densa, Inetum colabora con los principales fabricantes de software para afrontar los retos de la transformación digital con proximidad y flexibilidad.
Impulsada por su ambición de crecimiento y expansión, Inetum generó una cifra de negocio de 2.500 millones de euros en 2023.
Descripción del empleo
Software Engineer: AWS infrastructure
Requisitos
RESPONSABILIDADES DEL PUESTO
- Implementar y mantener la infraestructura de AWS para soportar cargas de trabajo GenAI escalables y de nivel de producción mediante servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM.
- Desarrollar y mantener componentes GenAI reutilizables basados en Python, garantizando una integración fluida con los servicios de AWS, una invocación de modelos eficiente, registro, monitorización y pruebas unitarias automatizadas.
- Diseñar y gestionar bases de código Terraform para aprovisionar y orquestar la infraestructura en la nube para sistemas GenAI, priorizando la escalabilidad, la seguridad y la optimización de costes.
- Crear y mantener pipelines de CI/CD mediante GitHub Actions para automatizar la validación de código, las pruebas, la implementación y las comprobaciones posteriores a la implementación para los servicios GenAI.
- Implementar políticas sólidas de IAM y control de acceso para la ejecución segura de las cargas de trabajo GenAI, garantizando el cumplimiento de las mejores prácticas y los estándares empresariales.
- Colaborar con equipos multifuncionales, incluidos científicos de datos, ingenieros backend y equipos de DevOps, para brindar servicios GenAI bien integrados y de alto rendimiento.
- Supervisar, solucionar problemas y optimizar las cargas de trabajo de GenAI para optimizar el rendimiento, la fiabilidad y el coste, aprovechando AWS CloudWatch, X-Ray y el registro personalizado.
- Contribuir al intercambio interno de conocimientos, la documentación de mejores prácticas y los patrones de arquitectura reutilizables para los casos de uso de GenAI.
- Sólida experiencia en servicios de la nube de AWS, incluyendo, entre otros, Lambda, API Gateway, Bedrock, DynamoDB, S3, SageMaker e IAM, con especial atención a las cargas de trabajo de GenAI.
- Sólida experiencia en programación en Python para la creación, implementación y gestión de componentes reutilizables de GenAI, incluyendo la integración con servicios de AWS y pruebas unitarias.
- Sólida experiencia con Terraform para el aprovisionamiento y la gestión de infraestructura en AWS, garantizando implementaciones escalables, seguras y rentables.
- Sólido conocimiento de las canalizaciones de CI/CD mediante GitHub Actions, incluyendo la automatización de los flujos de trabajo de pruebas, implementación y monitorización de los componentes de GenAI.
- Sólidas habilidades de comunicación escrita y verbal en inglés
- Comunicación en inglés, tanto verbal como escrita
- Colaborativo
- Responsabilidad
- Prioriza la simplicidad
- Orientado a resultados
Ofrecemos
- Retribución salarial acorde con la experiencia aportada.
- Plan de carrera: carrera profesional en función de la experiencia y potencial personal dentro de una compañía en continua evolución y con un sólido crecimiento.
- Plan de formación en competencias tecnológicas de acuerdo con las exigencias de los proyectos y clientes.
- Retribución flexible: retribución a la carta pudiendo elegir diferentes productos y modelar tú mismo cómo distribuirlos: seguro de salud, tickets de comida, guardería, tarjeta transporte, etc.
- TELETRABAJO.
Senior Data Engineer
30 de nov.Ultra Tendency
Senior Data Engineer
Ultra Tendency · Ferrol, ES
Teletreball . Azure Cloud Coumputing AWS DevOps Terraform Spark Machine Learning Office
Our Engineering department is growing, and we're now looking for aSenior Data Engineer - Databricks (m/f/*)to join our team in Spain, supporting our global growth.AsSenior Data Engineer (m/f/*), you design and optimize data processing algorithms on a talented, cross-functional team.
You are familiar with the Apache open-source suite of technologies and want to contribute to the advancement of data engineering.WHAT WE OFFER
Flexible work options, including fully remote or hybrid arrangements (candidates must be located in Spain)
A chance to accelerate your career and work with outstanding colleagues in a supportive learning community split across 3 continents
Contribute your ideas to our unique projects and make an impact by turning them into reality
Balance your work and personal life through our workflow organization and decide yourself if you work at home, in the office, or on a hybrid setup
Annual performance review, and regular feedback cycles, generating distinct value by connecting colleagues through networks rather than hierarchies
Individual development plan, professional development opportunities
Educational resources such as paid certifications, unlimited access to Udemy Business, etc.
Local, virtual, and global team events, in which UT colleagues become acquainted with one anotherWHAT YOU'LL DO
Design, implement, and maintain scalable data pipelines usingDatabricks Lakehouse Platform,with a strong focus onApache Spark, Delta Lake,andUnity Catalog.
Lead the development of batch and streaming data workflows that power analytics, machine learning, and business intelligence use cases.
Collaborate with data scientists, architects, and business stakeholders to translate complex data requirements into robust, production-grade solutions.
Optimize performance and cost-efficiency of Databricks clusters and jobs, leveraging tools likePhoton, Auto Loader,andJob Workflows.
Establish and enforce best practices for data quality, governance, and security within the Databricks environment.
Mentor junior engineers and contribute to the evolution of the team's Databricks expertise.WHAT YOU'LL BRING
Deep hands-on experience withDatabricksonAzure,AWS, orGCP, including Spark (PySpark/Scala), Delta Lake, and MLflow.
Strong programming skills inPythonorScala, and experience with CI/CD pipelines (e.g., GitHub Actions, Azure DevOps).
Solid understanding of distributed computing, data modeling, and performance tuning in cloud-native environments.
Familiarity with orchestration tools (e.g., Databricks Workflows, Airflow) and infrastructure-as-code (e.g., Terraform).
A proactive mindset, strong communication skills, and a passion for building scalable, reliable data systems.
Professional Spanish & English communication skills (C1-level, written and spoken).
Did we pique your interest, or do you have any questions?
We want to hear from you: contact us ****** US
Ultra Tendency is an international premier Data Engineering consultancy forBig Data, Cloud, Streaming,IIoT andMicroservices.
We design, build, and operate large-scale data-driven applications for major enterprises such as the European Central Bank, HUK-Coburg, Deutsche Telekom, and Europe's largest car manufacturer.
Founded in Germany in ****, UT has developed a reliable client base and now runs 8 branches in 7 countries across 3 continents.
We do more than just leverage tech, we build it.
At Ultra Tendency we contribute source code to +20 open-source projects includingAnsible, Terraform,NiFi, andKafka.
Our impact on tech and business is there for anyone to see.
Enterprises seek out Ultra Tendency because we solve the problems others cannot.
We love the challenge: together, we tackle diverse and unique projects you will find nowhere else.
In our knowledge community, you will be a part of a supportive network, not a hierarchy.
Constant learning and feedback are our drivers for stable development.
With us you can develop your individual career through work-life balance.
We evaluate your application based on your skills and corresponding business requirements.
Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age.
Technical lead cloud operations
28 de nov.Aubay
Technical lead cloud operations
Aubay · Barcelona, ES
Teletreball Python Azure Jenkins Cloud Coumputing OpenShift AWS PowerShell DevOps Agile ITIL Terraform
Funciones
En Aubay buscamos un Cloud Operations Technical Lead para supervisar las operaciones diarias, el rendimiento y la fiabilidad de nuestra infraestructura en la nube. Este rol combina una profunda experiencia técnica con responsabilidades de liderazgo, garantizando la estabilidad, escalabilidad y seguridad de nuestros entornos cloud a través de múltiples plataformas (por ejemplo, AWS, Azure, OpenShift).
Requisitos
Experiencia:
Más de 5 años en infraestructura y operaciones en la nube.
- Liderando equipos técnicos en operaciones cloud, infraestructura o entornos DevOps.
- Escribiendo infraestructura como código con CDK, Terraform y/o CloudFormation (u otros equivalentes).
- Con herramientas de despliegue automatizado, como AWS CodePipeline/CodeBuild, Azure DevOps (o equivalentes)
- Gestionando prioridades, delegando tareas y asegurando la entrega puntual de objetivos operativos y basados en proyectos.
- Gestionar entornos de infraestructura, configuraciones y flujos de trabajo mediante automatización de autoservicio.
- Garantizar estabilidad operativa y aplicación de controles de seguridad mediante Policy-as-Code e IaC automatizado.
Habilidades técnicas requeridas:
- Computación en la nube (Microsoft Azure, AWS).
- Automatización de infraestructura como código con Terraform.
- Herramientas de redes en Azure (VNET, BGP, etc.).
- Automatización DevOps end-to-end mediante pipelines CI/CD para desplegar Infraestructura como Código (IaC) y uso de herramientas como ADO, GitHub Actions, Jenkins o equivalentes.
- Dominio de lenguajes de scripting: Python, PowerShell, YAML, KQL, entre otros.
- Familiaridad con metodologías Ágiles y prácticas de gestión de servicios basadas en ITIL.
- Marcos y herramientas de automatización de pruebas.
Se ofrece
Contrato indefinido
Proyecto estable
TELETRABAJO: 3 días/semana
Ubicación: Barcelona (Cornellá de Llobregat)
Formación a medida (tecnologías, idiomas, certificaciones...)
Salario a negociar en función de la experiencia
Retribución flexible (seguro médico, ticket restaurante, cheque guardería)
#LI_EP1
Senior Data Management
28 de nov.CMV Consultores
Senior Data Management
CMV Consultores · Barcelona, ES
Teletreball Linux Cloud Coumputing Ansible SaaS Terraform
Desde CMV Consultores estamos buscando un Senior Data Management con amplia experiencia en las soluciones Informatica Intelligent Data Management Cloud (IDMC). La persona seleccionada será responsable de impulsar la mejora del gobierno del dato y la calidad del dato, garantizando el cumplimiento de los estándares de gestión de datos personales en entornos cloud.
Requisitos Imprescindibles
Inglés fluido (nivel mínimo B2).
Experiencia demostrable con soluciones Informatica IDMC, especialmente en:
IDMC DGC (Data Governance and Catalog)
IDMC CDQ (Cloud Data Quality)
IDMC MDM SaaS
Data Privacy Management
Sólidos conocimientos técnicos en entornos Linux, orientados a integración de datos y operación de aplicaciones.
Experiencia con herramientas de automatización, especialmente Terraform y Ansible, para la instalación y configuración de agentes.
Responsabilidades Clave:
Gobierno y Calidad del Dato: Liderar iniciativas para mejorar el data governance y la data quality mediante los servicios IDMC, incluyendo DGC, CDQ y MDM/RDM.
Gestión de Plataforma: Administrar y mantener plataformas de integración y gestión de datos a gran escala, asegurando su disponibilidad y rendimiento.
Operaciones en Cloud: Configurar y operar servicios Informatica IDMC en entornos cloud, garantizando el cumplimiento de los estándares de seguridad.
Monitorización y Automatización: Supervisar servicios IDMC en la nube, asegurar un sistema de monitorización altamente disponible y automatizar tareas de plataforma mediante Terraform y Ansible.
Se ofrece:
Contrato indefinido
100% remoto