No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araComercial i Vendes
945Informàtica i IT
829Administració i Secretariat
646Transport i Logística
503Comerç i Venda al Detall
372Veure més categories
Desenvolupament de Programari
345Dret i Legal
316Educació i Formació
310Màrqueting i Negoci
277Enginyeria i Mecànica
265Disseny i Usabilitat
246Publicitat i Comunicació
177Construcció
173Sanitat i Salut
145Instal·lació i Manteniment
144Recursos Humans
114Indústria Manufacturera
101Comptabilitat i Finances
96Hostaleria
77Art, Moda i Disseny
76Arts i Oficis
44Atenció al client
44Producte
42Seguretat
41Immobiliària
39Turisme i Entreteniment
39Cures i Serveis Personals
29Alimentació
25Editorial i Mitjans
25Banca
21Farmacèutica
16Energia i Mineria
8Social i Voluntariat
8Esport i Entrenament
7Agricultura
2Assegurances
2Telecomunicacions
1Ciència i Investigació
0Desarrollador de back-end
1 de des.Hub4Retail
Barcelona, ES
Desarrollador de back-end
Hub4Retail · Barcelona, ES
. React Node.js Cloud Coumputing Git REST TypeScript SaaS AWS PostgreSQL Terraform
En Hub4Retail ayudamos a marcas y tiendas multimarca a entender y activar sus datos de ventas y producto en el punto de venta.
Conectamos POS, ERPs y catálogos en una única plataforma para tomar mejores decisiones comerciales y de marketing.
Estamos reforzando nuestro equipo de producto y buscamos un/a Backend Developer que quiera construir producto real, con impacto directo en el negocio de nuestros clientes.
Formarás parte del equipo que diseña y desarrolla el corazón de la plataforma Hub4Retail:
- APIs que consume nuestro front,
- integraciones con sistemas externos (POS, ERPs, ecommerce, ficheros),
- y procesos que mueven y transforman grandes volúmenes de datos de ventas y catálogo.
Es un rol hands-on: buscamos a alguien que disfrute programando, que entienda los datos y que se sienta cómodo trabajando cerca de negocio y producto, usando también tests automatizados y herramientas de IA para ganar velocidad sin perder calidad.
- Diseñar, desarrollar y mantener APIs backend que utiliza el front de Hub4Retail.
- Implementar y optimizar procesos de ingestión de datos (ventas, stock, catálogos) desde distintas fuentes (POS, ERPs, ecommerce, CSV/SFTP, etc.).
- Modelar y consultar datos en PostgreSQL (tablas transaccionales, vistas, consultas para reporting).
- Diseñar e implementar tests automatizados (unitarios y de integración) para las principales funcionalidades del backend.
- Velar por la calidad del código: buenas prácticas, manejo de errores, revisiones de código y cobertura mínima de tests.
- Colaborar con el equipo de producto para traducir necesidades de negocio en soluciones técnicas simples y mantenibles.
- Aprovechar herramientas de IA (asistentes de código, generación de tests, ayuda con refactors y documentación) para trabajar de forma más eficiente.
- Contribuir a mejorar la observabilidad del sistema (logs, métricas, alertas) junto al resto del equipo.
Imprescindible
- Mínimo 3 años de experiencia en desarrollo backend.
- Experiencia sólida desarrollando servicios con Node.js (TypeScript muy valorable).
- Conocimientos fuertes de bases de datos relacionales, idealmente PostgreSQL.
- Experiencia construyendo APIs REST para frontends tipo SPA (React o similar).
- Experiencia práctica escribiendo tests automatizados (unitarios, integración) y utilizando algún framework de testing en Node.js.
- Buen manejo de Git (Bitbucket, GitHub, GitLab…).
- Mentalidad de producto: entender el dominio (ventas, pedidos, catálogos de producto) y no solo la tecnología.
- Apertura a trabajar con herramientas de IA en el día a día para mejorar productividad y calidad del código.
- Capacidad para trabajar en equipo en un entorno dinámico, con autonomía y responsabilidad.
- Posibilidad de trabajar en modelo híbrido en Barcelona (presencia periódica en oficina).
Valoramos especialmente
- Experiencia en entornos cloud, idealmente AWS.
- Experiencia previa en productos B2B SaaS o plataformas de datos.
- Conocimientos de integración de sistemas (APIs REST, webhooks, SFTP, CSV masivos…).
- Experiencia con infra as code (Terraform) y, en general, sensibilidad por la parte de despliegue/ops.
- Comodidad usando IA para desarrollo (asistentes de código, generación de tests, análisis de logs, etc.) y curiosidad por aplicar IA a problemas de negocio.
- Experiencia en proyectos de retail / ecommerce / moda o analítica de datos.
- Incorporarte a una plataforma en crecimiento con mucho recorrido en el sector retail y multimarca.
- Proyecto de producto, no consultoría: lo que desarrollas se ve, se usa y se mejora continuamente.
- Modelo híbrido en Barcelona, en un entorno cercano y de colaboración directa con negocio.
- Contrato indefinido.
- Autonomía, responsabilidad y la posibilidad de influir en cómo evoluciona la plataforma a nivel técnico y funcional.
Senior Data Engineer
1 de des.Ultra Tendency
Senior Data Engineer
Ultra Tendency · Saiáns (San Salvador), ES
Teletreball . Python Azure Cloud Coumputing Ansible Scala Microservices AWS DevOps Terraform Kafka Spark Big Data Machine Learning Office
Our Engineering department is growing, and we're now looking for a Senior Data Engineer - Databricks (m/f/*) to join our team in Spain, supporting our global growth.
As Senior Data Engineer (m/f/*), you design and optimize data processing algorithms on a talented, cross-functional team.
You are familiar with the Apache open-source suite of technologies and want to contribute to the advancement of data engineering.
What We Offer
Flexible work options, including fully remote or hybrid arrangements (candidates must be located in Spain)
A chance to accelerate your career and work with outstanding colleagues in a supportive learning community split across 3 continents
Contribute your ideas to our unique projects and make an impact by turning them into reality
Balance your work and personal life through our workflow organization and decide yourself if you work at home, in the office, or on a hybrid setup
Annual performance review, and regular feedback cycles, generating distinct value by connecting colleagues through networks rather than hierarchies
Individual development plan, professional development opportunities
Educational resources such as paid certifications, unlimited access to Udemy Business, etc.
Local, virtual, and global team events, in which UT colleagues become acquainted with one another
What You'll Do
Design, implement, and maintain scalable data pipelines using Databricks Lakehouse Platform, with a strong focus on Apache Spark, Delta Lake, and Unity Catalog.
Lead the development of batch and streaming data workflows that power analytics, machine learning, and business intelligence use cases.
Collaborate with data scientists, architects, and business stakeholders to translate complex data requirements into robust, production-grade solutions.
Optimize performance and cost-efficiency of Databricks clusters and jobs, leveraging tools like Photon, Auto Loader, and Job Workflows.
Establish and enforce best practices for data quality, governance, and security within the Databricks environment.
Mentor junior engineers and contribute to the evolution of the team's Databricks expertise.
What You'll Bring
Deep hands-on experience with Databricks on Azure, AWS, or GCP, including Spark (PySpark/Scala), Delta Lake, and MLflow.
Strong programming skills in Python or Scala, and experience with CI/CD pipelines (e.g., GitHub Actions, Azure DevOps).
Solid understanding of distributed computing, data modeling, and performance tuning in cloud-native environments.
Familiarity with orchestration tools (e.g., Databricks Workflows, Airflow) and infrastructure-as-code (e.g., Terraform).
A proactive mindset, strong communication skills, and a passion for building scalable, reliable data systems.
Professional Spanish & English communication skills (C1-level, written and spoken).
Did we pique your interest, or do you have any questions?
We want to hear from you: contact us at ******
About Us
Ultra Tendency is an international premier Data Engineering consultancy for Big Data, Cloud, Streaming, IIoT and Microservices.
We design, build, and operate large-scale data-driven applications for major enterprises such as the European Central Bank, HUK-Coburg, Deutsche Telekom, and Europe's largest car manufacturer.
Founded in Germany in ****, UT has developed a reliable client base and now runs 8 branches in 7 countries across 3 continents.
We do more than just leverage tech, we build it.
At Ultra Tendency we contribute source code to +20 open-source projects including Ansible, Terraform, NiFi, and Kafka.
Our impact on tech and business is there for anyone to see.
Enterprises seek out Ultra Tendency because we solve the problems others cannot.
We love the challenge: together, we tackle diverse and unique projects you will find nowhere else.
In our knowledge community, you will be a part of a supportive network, not a hierarchy.
Constant learning and feedback are our drivers for stable development.
With us you can develop your individual career through work-life balance.
We evaluate your application based on your skills and corresponding business requirements.
Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age.
Data privacy statement: Data Protection for Applicants – Ultra Tendency
Software Engineer : AWS infrastructure
30 de nov.Inetum
Software Engineer : AWS infrastructure
Inetum · Madrid, ES
Teletreball . API Python AWS DevOps Terraform
Descripción de la empresa
Sobre Inetum
Inetum es líder europeo en servicios digitales. El equipo de 28.000 consultores y expertos de Inetum se esfuerza cada día por lograr un impacto digital en las empresas, en las entidades del sector público y en la sociedad. Las soluciones de Inetum quieren contribuir al rendimiento y la innovación de sus clientes, así como al interés general.
Presente en 19 países con una red de centros densa, Inetum colabora con los principales fabricantes de software para afrontar los retos de la transformación digital con proximidad y flexibilidad.
Impulsada por su ambición de crecimiento y expansión, Inetum generó una cifra de negocio de 2.500 millones de euros en 2023.
Descripción del empleo
Software Engineer: AWS infrastructure
Requisitos
RESPONSABILIDADES DEL PUESTO
- Implementar y mantener la infraestructura de AWS para soportar cargas de trabajo GenAI escalables y de nivel de producción mediante servicios como Lambda, API Gateway, DynamoDB, Bedrock, S3, SageMaker e IAM.
- Desarrollar y mantener componentes GenAI reutilizables basados en Python, garantizando una integración fluida con los servicios de AWS, una invocación de modelos eficiente, registro, monitorización y pruebas unitarias automatizadas.
- Diseñar y gestionar bases de código Terraform para aprovisionar y orquestar la infraestructura en la nube para sistemas GenAI, priorizando la escalabilidad, la seguridad y la optimización de costes.
- Crear y mantener pipelines de CI/CD mediante GitHub Actions para automatizar la validación de código, las pruebas, la implementación y las comprobaciones posteriores a la implementación para los servicios GenAI.
- Implementar políticas sólidas de IAM y control de acceso para la ejecución segura de las cargas de trabajo GenAI, garantizando el cumplimiento de las mejores prácticas y los estándares empresariales.
- Colaborar con equipos multifuncionales, incluidos científicos de datos, ingenieros backend y equipos de DevOps, para brindar servicios GenAI bien integrados y de alto rendimiento.
- Supervisar, solucionar problemas y optimizar las cargas de trabajo de GenAI para optimizar el rendimiento, la fiabilidad y el coste, aprovechando AWS CloudWatch, X-Ray y el registro personalizado.
- Contribuir al intercambio interno de conocimientos, la documentación de mejores prácticas y los patrones de arquitectura reutilizables para los casos de uso de GenAI.
- Sólida experiencia en servicios de la nube de AWS, incluyendo, entre otros, Lambda, API Gateway, Bedrock, DynamoDB, S3, SageMaker e IAM, con especial atención a las cargas de trabajo de GenAI.
- Sólida experiencia en programación en Python para la creación, implementación y gestión de componentes reutilizables de GenAI, incluyendo la integración con servicios de AWS y pruebas unitarias.
- Sólida experiencia con Terraform para el aprovisionamiento y la gestión de infraestructura en AWS, garantizando implementaciones escalables, seguras y rentables.
- Sólido conocimiento de las canalizaciones de CI/CD mediante GitHub Actions, incluyendo la automatización de los flujos de trabajo de pruebas, implementación y monitorización de los componentes de GenAI.
- Sólidas habilidades de comunicación escrita y verbal en inglés
- Comunicación en inglés, tanto verbal como escrita
- Colaborativo
- Responsabilidad
- Prioriza la simplicidad
- Orientado a resultados
Ofrecemos
- Retribución salarial acorde con la experiencia aportada.
- Plan de carrera: carrera profesional en función de la experiencia y potencial personal dentro de una compañía en continua evolución y con un sólido crecimiento.
- Plan de formación en competencias tecnológicas de acuerdo con las exigencias de los proyectos y clientes.
- Retribución flexible: retribución a la carta pudiendo elegir diferentes productos y modelar tú mismo cómo distribuirlos: seguro de salud, tickets de comida, guardería, tarjeta transporte, etc.
- TELETRABAJO.
Senior Data Engineer
30 de nov.Ultra Tendency
Senior Data Engineer
Ultra Tendency · Ferrol, ES
Teletreball . Azure Cloud Coumputing AWS DevOps Terraform Spark Machine Learning Office
Our Engineering department is growing, and we're now looking for aSenior Data Engineer - Databricks (m/f/*)to join our team in Spain, supporting our global growth.AsSenior Data Engineer (m/f/*), you design and optimize data processing algorithms on a talented, cross-functional team.
You are familiar with the Apache open-source suite of technologies and want to contribute to the advancement of data engineering.WHAT WE OFFER
Flexible work options, including fully remote or hybrid arrangements (candidates must be located in Spain)
A chance to accelerate your career and work with outstanding colleagues in a supportive learning community split across 3 continents
Contribute your ideas to our unique projects and make an impact by turning them into reality
Balance your work and personal life through our workflow organization and decide yourself if you work at home, in the office, or on a hybrid setup
Annual performance review, and regular feedback cycles, generating distinct value by connecting colleagues through networks rather than hierarchies
Individual development plan, professional development opportunities
Educational resources such as paid certifications, unlimited access to Udemy Business, etc.
Local, virtual, and global team events, in which UT colleagues become acquainted with one anotherWHAT YOU'LL DO
Design, implement, and maintain scalable data pipelines usingDatabricks Lakehouse Platform,with a strong focus onApache Spark, Delta Lake,andUnity Catalog.
Lead the development of batch and streaming data workflows that power analytics, machine learning, and business intelligence use cases.
Collaborate with data scientists, architects, and business stakeholders to translate complex data requirements into robust, production-grade solutions.
Optimize performance and cost-efficiency of Databricks clusters and jobs, leveraging tools likePhoton, Auto Loader,andJob Workflows.
Establish and enforce best practices for data quality, governance, and security within the Databricks environment.
Mentor junior engineers and contribute to the evolution of the team's Databricks expertise.WHAT YOU'LL BRING
Deep hands-on experience withDatabricksonAzure,AWS, orGCP, including Spark (PySpark/Scala), Delta Lake, and MLflow.
Strong programming skills inPythonorScala, and experience with CI/CD pipelines (e.g., GitHub Actions, Azure DevOps).
Solid understanding of distributed computing, data modeling, and performance tuning in cloud-native environments.
Familiarity with orchestration tools (e.g., Databricks Workflows, Airflow) and infrastructure-as-code (e.g., Terraform).
A proactive mindset, strong communication skills, and a passion for building scalable, reliable data systems.
Professional Spanish & English communication skills (C1-level, written and spoken).
Did we pique your interest, or do you have any questions?
We want to hear from you: contact us ****** US
Ultra Tendency is an international premier Data Engineering consultancy forBig Data, Cloud, Streaming,IIoT andMicroservices.
We design, build, and operate large-scale data-driven applications for major enterprises such as the European Central Bank, HUK-Coburg, Deutsche Telekom, and Europe's largest car manufacturer.
Founded in Germany in ****, UT has developed a reliable client base and now runs 8 branches in 7 countries across 3 continents.
We do more than just leverage tech, we build it.
At Ultra Tendency we contribute source code to +20 open-source projects includingAnsible, Terraform,NiFi, andKafka.
Our impact on tech and business is there for anyone to see.
Enterprises seek out Ultra Tendency because we solve the problems others cannot.
We love the challenge: together, we tackle diverse and unique projects you will find nowhere else.
In our knowledge community, you will be a part of a supportive network, not a hierarchy.
Constant learning and feedback are our drivers for stable development.
With us you can develop your individual career through work-life balance.
We evaluate your application based on your skills and corresponding business requirements.
Ultra Tendency welcomes applications from qualified candidates regardless of race, ethnicity, national or social origin, disability, sex, sexual orientation, or age.
Technical lead cloud operations
28 de nov.Aubay
Technical lead cloud operations
Aubay · Barcelona, ES
Teletreball Python Azure Jenkins Cloud Coumputing OpenShift AWS PowerShell DevOps Agile ITIL Terraform
Funciones
En Aubay buscamos un Cloud Operations Technical Lead para supervisar las operaciones diarias, el rendimiento y la fiabilidad de nuestra infraestructura en la nube. Este rol combina una profunda experiencia técnica con responsabilidades de liderazgo, garantizando la estabilidad, escalabilidad y seguridad de nuestros entornos cloud a través de múltiples plataformas (por ejemplo, AWS, Azure, OpenShift).
Requisitos
Experiencia:
Más de 5 años en infraestructura y operaciones en la nube.
- Liderando equipos técnicos en operaciones cloud, infraestructura o entornos DevOps.
- Escribiendo infraestructura como código con CDK, Terraform y/o CloudFormation (u otros equivalentes).
- Con herramientas de despliegue automatizado, como AWS CodePipeline/CodeBuild, Azure DevOps (o equivalentes)
- Gestionando prioridades, delegando tareas y asegurando la entrega puntual de objetivos operativos y basados en proyectos.
- Gestionar entornos de infraestructura, configuraciones y flujos de trabajo mediante automatización de autoservicio.
- Garantizar estabilidad operativa y aplicación de controles de seguridad mediante Policy-as-Code e IaC automatizado.
Habilidades técnicas requeridas:
- Computación en la nube (Microsoft Azure, AWS).
- Automatización de infraestructura como código con Terraform.
- Herramientas de redes en Azure (VNET, BGP, etc.).
- Automatización DevOps end-to-end mediante pipelines CI/CD para desplegar Infraestructura como Código (IaC) y uso de herramientas como ADO, GitHub Actions, Jenkins o equivalentes.
- Dominio de lenguajes de scripting: Python, PowerShell, YAML, KQL, entre otros.
- Familiaridad con metodologías Ágiles y prácticas de gestión de servicios basadas en ITIL.
- Marcos y herramientas de automatización de pruebas.
Se ofrece
Contrato indefinido
Proyecto estable
TELETRABAJO: 3 días/semana
Ubicación: Barcelona (Cornellá de Llobregat)
Formación a medida (tecnologías, idiomas, certificaciones...)
Salario a negociar en función de la experiencia
Retribución flexible (seguro médico, ticket restaurante, cheque guardería)
#LI_EP1
Senior Data Management
28 de nov.CMV Consultores
Senior Data Management
CMV Consultores · Barcelona, ES
Teletreball Linux Cloud Coumputing Ansible SaaS Terraform
Desde CMV Consultores estamos buscando un Senior Data Management con amplia experiencia en las soluciones Informatica Intelligent Data Management Cloud (IDMC). La persona seleccionada será responsable de impulsar la mejora del gobierno del dato y la calidad del dato, garantizando el cumplimiento de los estándares de gestión de datos personales en entornos cloud.
Requisitos Imprescindibles
Inglés fluido (nivel mínimo B2).
Experiencia demostrable con soluciones Informatica IDMC, especialmente en:
IDMC DGC (Data Governance and Catalog)
IDMC CDQ (Cloud Data Quality)
IDMC MDM SaaS
Data Privacy Management
Sólidos conocimientos técnicos en entornos Linux, orientados a integración de datos y operación de aplicaciones.
Experiencia con herramientas de automatización, especialmente Terraform y Ansible, para la instalación y configuración de agentes.
Responsabilidades Clave:
Gobierno y Calidad del Dato: Liderar iniciativas para mejorar el data governance y la data quality mediante los servicios IDMC, incluyendo DGC, CDQ y MDM/RDM.
Gestión de Plataforma: Administrar y mantener plataformas de integración y gestión de datos a gran escala, asegurando su disponibilidad y rendimiento.
Operaciones en Cloud: Configurar y operar servicios Informatica IDMC en entornos cloud, garantizando el cumplimiento de los estándares de seguridad.
Monitorización y Automatización: Supervisar servicios IDMC en la nube, asegurar un sistema de monitorización altamente disponible y automatizar tareas de plataforma mediante Terraform y Ansible.
Se ofrece:
Contrato indefinido
100% remoto
DevOps Engineer Azure
27 de nov.CAS TRAINING
DevOps Engineer Azure
CAS TRAINING · Madrid, ES
Teletreball Python Azure Cloud Coumputing Kubernetes PowerShell Bash DevOps Terraform
Buscamos DevOps Engineer Senior – Azure | Liderazgo | Madrid (Remote First)
¿Te gustaría liderar un squad de DevOps en una plataforma data de alto impacto, trabajar con tecnologías punteras de Azure y tener autonomía técnica real? ¡Entonces esta oportunidad es para ti!
📍 Ubicación: Madrid (1 día presencial al mes)
🌍 Idiomas: Español + Inglés C1
🔧 ¿Qué harás?
Serás el/la referente técnico del equipo DevOps-Infra (3–4 personas), liderando decisiones de arquitectura e infraestructura en una plataforma cloud con servicios avanzados de Azure.
Tu día a día incluirá:
🚀 Despliegue y mantenimiento de la infraestructura cloud de la Plataforma Data.
☸️ Administración y troubleshooting de AKS (Azure Kubernetes Services).
🧩 Infraestructura como Código con Ansible/Jinja2 y Terraform.
🧪 Automatización y scripting (PowerShell, Bash, Python).
🔐 Soporte de conectividad avanzada: Private Endpoints, VNETs, Gateways, WAF, F5, NSG...
📦 Trabajo con PaaS: Databricks, Data Factory, AzureML, OpenAI, KeyVault, Functions...
🚦 CI/CD con Azure DevOps Pipelines.
🤝 Interlocución con equipos de Microsoft internacionales.
Ingeniero DevOps Blockchain
27 de nov.MigaLabs
Barcelona, ES
Ingeniero DevOps Blockchain
MigaLabs · Barcelona, ES
Python Linux Docker Cloud Coumputing Kubernetes Ansible AWS Bash DevOps PostgreSQL Terraform
# MigaLabs
MigaLabs es un laboratorio de investigación especializado en análisis de blockchain, centrado en Ethereum. Desarrollamos infraestructura, herramientas y datasets que ayudan a comprender el rendimiento, la descentralización y el estado de la red. Colaboramos con equipos líderes del ecosistema y operamos sistemas distribuidos que procesan datos en tiempo real a gran escala.
# Puesto
Buscamos un DevOps Engineer con experiencia en tecnología blockchain, especialmente en Ethereum, para unirse a nuestro equipo y ayudarnos a escalar, automatizar y asegurar la infraestructura que soporta nuestros análisis y servicios.
# Responsabilidades
* Diseñar y mantener la infraestructura cloud para la captura, el procesamiento y el servicio de datos de blockchain.
* Automatizar despliegues y crear pipelines de CI/CD reproducibles.
* Administrar nodos de Ethereum (CL/EL), contenedores, bases de datos y servicios críticos.
* Implementar monitorización, métricas, logs y alertas (Prometheus, Grafana, Loki, etc.).
* Garantizar la fiabilidad, la seguridad y la escalabilidad de sistemas distribuidos.
* Colaborar con los equipos de backend y de data engineering.
* Documentar arquitectura y procedimientos.
# Requisitos
* Experiencia demostrable en entornos blockchain, preferiblemente Ethereum (ejecución de nodos, clientes, redes, sincronización, tooling).
* Dominio de Linux y de scripting.
* Experiencia con Docker y/o contenedores.
* CI/CD (GitHub Actions, GitLab CI o similar).
* Gestión de cloud (AWS, GCP, Azure...).
* Infrastructure as Code (Terraform, Ansible, Pulumi...).
* Monitorización y observabilidad (Prometheus, Grafana, Loki).
* Conocimientos de redes, seguridad y bases de datos PostgreSQL y Clickhouse.
* Programación en Python, Go o Bash.
# Bonus
* Experiencia con Geth, Nethermind, Lighthouse, Prysm, Teku u otros clientes de Ethereum.
* Kubernetes u orquestadores similares.
* Programación en Rust
* Conocimientos de sistemas distribuidos y de procesamiento de datos en tiempo real.
* Interés por la open data y la descentralización.
# Oferta
* Contrato full-time, híbrido (Barcelona).
* Proyectos de alto impacto en el ecosistema de Ethereum.
* Equipo técnico de alto nivel y entorno de investigación.
* Flexibilidad horaria y salario competitivo.
* Oportunidad de asistir a conferencias (Devcon, ETHCC, etc.).
Ingeniero de Cloud GCP
27 de nov.Meisters
Madrid, ES
Ingeniero de Cloud GCP
Meisters · Madrid, ES
Docker Cloud Coumputing Kubernetes DevOps Terraform
Buscamos un ingeniero de cloud con sólida experiencia en Google Cloud Platform (GCP) para unirse a nuestro equipo. El candidato ideal debe tener entre 3 y 5 años de experiencia en el diseño, implementación y gestión de soluciones en la nube, garantizando la disponibilidad y escalabilidad de los servicios.
El puesto requiere habilidades en la administración de recursos en GCP, así como experiencia en la automatización de procesos utilizando Terraform o herramientas similares. Se espera que el candidato participe en la creación de arquitecturas escalables y seguras, y colabore con equipos multidisciplinarios para impulsar la innovación y la eficiencia operativa.
El ingeniero de cloud trabajará estrechamente con desarrolladores y otros equipos técnicos para integrar soluciones de GCP y garantizar una transición fluida hacia la nube. Además, será responsable de monitorear el rendimiento de las aplicaciones y servicios, identificando oportunidades para optimizar costos y mejorar la seguridad.
Se valorará experiencia en DevOps y CI/CD, así como en contenedores utilizando Docker o Kubernetes. Buscamos un profesional con habilidades de resolución de problemas y una mentalidad analítica, que esté dispuesto a aprender y adaptarse a nuevas tecnologías en un entorno dinámico y en rápida evolución.