¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
923Comercial y Ventas
831Transporte y Logística
634Adminstración y Secretariado
616Desarrollo de Software
392Ver más categorías
Derecho y Legal
379Comercio y Venta al Detalle
363Educación y Formación
335Marketing y Negocio
281Ingeniería y Mecánica
234Instalación y Mantenimiento
173Diseño y Usabilidad
157Sanidad y Salud
136Publicidad y Comunicación
131Hostelería
130Industria Manufacturera
125Construcción
118Recursos Humanos
71Contabilidad y Finanzas
65Arte, Moda y Diseño
63Inmobiliaria
58Atención al cliente
54Turismo y Entretenimiento
53Artes y Oficios
46Alimentación
41Producto
37Cuidados y Servicios Personales
32Banca
31Farmacéutica
28Energía y Minería
27Seguridad
20Social y Voluntariado
9Deporte y Entrenamiento
2Ciencia e Investigación
1Telecomunicaciones
1Agricultura
0Editorial y Medios
0Seguros
0Arquitecto/a Backend Java
5 mar.sg tech
Madrid, ES
Arquitecto/a Backend Java
sg tech · Madrid, ES
.Net Java ASP.Net TSQL Jenkins Docker Kubernetes Hibernate REST PostgreSQL Spring Nginx Microservices .Net Core Terraform DDD SQL Server
Descripción
Precisamos incorporar un perfil de Arquitectura Backend, con un mínimo de 6 años de experiencia, para diseñar y gobernar la arquitectura de aplicaciones web y APIs, asegurando escalabilidad, seguridad, observabilidad y calidad de entrega, con foco en Java y .NET, despliegue en Kubernetes y prácticas sólidas de CI/CD y BBDD.
Responsabilidades:
- Definir arquitectura de microservicios / servicios (APIs, integración, eventos) y estándares (DDD, hexagonal, clean architecture).
- Liderar decisiones técnicas (trade-offs, ADRs), estándares de código y gobernanza cross-equipo.
- Diseñar y mantener pipelines CI/CD (build, test, security scans, deploy, rollback) y estrategia de entornos.
- Arquitectura y operación sobre Kubernetes: deployment patterns, ingress, autoscaling, secrets, config, networking.
- Definir estrategia de datos: modelado, performance, índices, migraciones, backup/restore, HA, troubleshooting.
- Asegurar seguridad: IAM/roles, TLS, hardening, OWASP, secrets management.
- Observabilidad: logs, métricas, trazas, SLO/SLI, alertas.
- Soporte a equipos (mentoring).
¿Qué ofrecemos?
- Contrato indefinido con nosotros.
- Horario: de L a V de 08:00 a 17:00 y los V y verano de 08:00 a 15:00
- Modalidad híbrida de 2 o 3 días en Madrid, y de 4 en Sevilla, Jaén, Córdoba y Granada.
- Desarrollo profesional.
- Estabilidad laboral.
- Salario: Abierto + acceso a la retribución flexible.
Requisitos
- 6-10+ años de experiencia en desarrollo, con rol actual o reciente de Arquitecto / Tech Lead.
- Experiencia real en proyectos con Java a nivel experto.
- Haber diseñado y operado despliegues en Kubernetes (no solo Kubernetes).
- Haber montado/gestionado CI/CD end-to-end.
- Buen nivel en bases de datos: tuning, índices, modelado, migraciones, troubleshooting.
- Stack tecnológico:
• Backend: Java (Spring Boot, hibernate), .NET opcional (ASP.NET Core, .NET Core), REST, OAuth2/JWT, mensajería (Kafka/RabbitMQ).
• CI/CD: Jenkins, GitLab, Bitbucket CI, GitHub Actions, Docker, artefactos (Nexus, Artifactory), quality gates (SonarQube).
• Kubernetes: Helm, Kustomize, Ingress (NGINX), cert-manager, autoscaling, storage (PV/PVC), service mesh opcional.
• DBA / Data: PostgreSQL y/o SQL Server, tuning, locking, replication/HA, migraciones (Flyway, Liquibase).
• Infra/Cloud: GCP; IaC (Terraform).
CAS TRAINING
Madrid, ES
Ingeniero/a DevOps (Data Azure)
CAS TRAINING · Madrid, ES
API Python Azure REST DevOps Terraform Spark
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un/a Ingeniero/a DevOps especializado/a en entornos de Datos en Azure, con experiencia demostrable en el diseño, desarrollo y mantenimiento de pipelines CI/CD orientados al despliegue y gestión del ciclo de vida de soluciones de datos en la nube.
Necesitamos un perfil sólido tanto en DevOps como en Data, con capacidad para trabajar de forma autónoma dentro de equipos multidisciplinares de ingeniería de datos.
Requisitos mínimos
- Mínimo 3 años de experiencia como DevOps en entornos Azure.
- Experiencia sólida en CI/CD aplicado a soluciones de datos.
- Experiencia práctica en servicios gestionados de datos en Azure.
- Conocimientos avanzados de gobernanza y administración de Azure DevOps.
- Experiencia en automatización de despliegues en Databricks.
- Experiencia con herramientas IaC (Terraform o Bicep).
Requisitos valorables:
- Experiencia con Python y/o Spark para validación y testing de pipelines de datos.
- Experiencia en prácticas de monitorización y observabilidad.
Funciones:
- Diseño, desarrollo y mantenimiento de pipelines CI/CD en Azure DevOps.
- Automatización del despliegue y gestión del ciclo de vida de soluciones de datos en Azure.
- Automatización de despliegues de notebooks, jobs, clusters y políticas de Databricks mediante pipelines.
- Gestión de artefactos, librerías y configuraciones específicas de entornos de datos.
- Integración de CI/CD mediante Databricks CLI o API REST.
Se ofrece:
- Formar parte de un equipo dinámico altamente cualificado en una empresa en proceso de expansión.
- Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
- Proyectos de larga duración, estabilidad profesional y progresión laboral.
- Contratación indefinida.
- Acceso gratuito al catálogo de formación anual de Cas Training.
- Salario negociable en base a la experiencia y valía del candidato/a.
Modalidad de trabajo: Híbrido en Madrid, Jaén, Sevilla, Granada, Córdoba
WIZELINE
Staff React Engineer (TypeScript + AI Experience)
WIZELINE · Madrid, ES
Teletrabajo React Javascript Agile Azure Cloud Coumputing GraphQL TypeScript AWS DevOps Redux Terraform Micro Frontends
Staff React Engineer (TypeScript + AI Experience)
We are:
Wizeline, a global AI-native technology solutions provider, develops cutting-edge, AI-powered digital products and platforms. We partner with clients to leverage data and AI, accelerating market entry and driving business transformation. As a global community of innovators, we foster a culture of growth, collaboration, and impact.
With the right people and the right ideas, there´s no limit to what we can achieve.
Are you a fit?
Sounds awesome, right? Now, let´s make sure you´re a good fit for the role:
Key Responsibilities
- Lead the architecture, design, and development of scalable, high-performance web applications using React and TypeScript.
- Define and execute the front-end technical strategy, ensuring scalability, performance, and alignment with product and AI goals.
- Collaborate closely with AI engineers, data scientists, designers, and product managers to deliver intelligent, data-driven user experiences.
- Integrate AI-powered components (e.g., chatbots, assistants, content generators, predictive UI) into modern web applications.
- Mentor other engineers, promoting excellence in coding practices, architecture decisions, and technical problem-solving.
- Establish and enforce standards for code quality, accessibility, performance optimization, and testing.
- Partner with backend and DevOps teams to optimize CI/CD pipelines and deployment processes.
- Continuously identify opportunities to use AI and automation to enhance both development workflows and end-user experiences.
Must-have Skills
- 8+ years of professional software development experience, with at least 5+ years specializing in React and TypeScript.
- Proven experience architecting and scaling enterprise-grade front-end applications.
- Knowledge of AI technologies and hands-on experience integrating AI/ML models or APIs (e.g., OpenAI, Hugging Face, Vertex AI, Anthropic, or similar).
- Demonstrated ability to design and implement AI-enhanced interfaces that improve usability, personalization, or automation.
- Deep understanding of JavaScript (ES6+), React Hooks, and state management patterns (Redux, Zustand, or Recoil).
- Proficiency with testing frameworks (Jest, React Testing Library, Cypress) and performance profiling tools.
- Experience integrating RESTful and GraphQL APIs.
- Bachelor´s degree in Computer Science, Software Engineering, or related field.
- Advanced English level, both written and verbal.
- Excellent communication, leadership, and mentoring skills.
Nice-to-have
- Familiarity with Next.js, Micro Frontends, and Server-Side Rendering (SSR).
- Experience with cloud platforms (AWS, GCP, Azure) and infrastructure-as-code tools such as Terraform.
- Background in data visualization or AI-driven UX design.
- Contributions to open-source projects or active participation in tech communities.
- Experience leading distributed teams in agile environments.
What we offer
- A High-Impact Environment - lead initiatives that shape AI-driven digital platforms.
- Commitment to Professional Development - access to WizeAcademy programs and industry-recognized certifications.
- Flexible and Collaborative Culture - hybrid and remote-friendly work options.
- Global Opportunities - collaborate with experts across multiple regions.
- Vibrant Community - hackathons, knowledge-sharing sessions, and innovation events.
- Total Rewards - competitive compensation, wellness benefits, and savings plans.
Specific benefits are determined by employment type and location.
Data Engineer
3 mar.B. Braun Group
Barcelona, ES
Data Engineer
B. Braun Group · Barcelona, ES
. Python Agile TSQL Azure Cloud Coumputing DevOps Terraform Power BI
We are seeking a Data Engineer to join our team, focusing on building scalable and governed data products in a cloud data mesh architecture for the SAP Finance & Controlling domain.
This specialized role is paramount for designing, maintaining, and optimizing robust data pipelines and semantic models on our Azure-based Data Analytics Platform, leveraging Databricks and Microsoft Fabric. The ideal candidate combines strong technical proficiency in modern data engineering with the ability to translate finance and controlling business logic into governed, performant data models.
Experience with SAP FI/CO processes is preferred, as well as advanced skills in data modeling, Data Contracts, and cost/performance optimization. You will be instrumental in ensuring high data quality, governance, and availability for critical business intelligence and analytical dashboards. We are looking for a proactive, solution-oriented individual eager to contribute to a multidisciplinary, agile, and international environment.
Your Tasks in the Team
- Design, build, and operate data pipelines on Azure Data Factory and Databricks (PySpark/SQL, Delta Lake) using Azure DevOps for CI/CD.
- Apply advanced data modeling techniques (dimensional/star, data vault, normalized models) and implement Medallion architecture (Bronze/Silver/Gold).
- Define and enforce Data Contracts: schemas, SLAs/SLOs, versioning, and validation gates.
- Optimize Databricks workloads for performance and cost (partitioning, Z ORDER, caching, Photon, autoscaling, cluster policies).
- Standardize delivery with Databricks Asset Bundles and implement observability (job metrics, audit logs).
- Ensure compliance with governance, security, and regulatory requirements via Unity Catalog and RBAC/ABAC policies.
- Embed data quality frameworks, automated tests, and monitoring for pipeline health, SLA breaches, and anomaly detection.
- Collaborate closely with Finance stakeholders and domain engineers to ensure KPI sign-off and business alignment.
- Contribute to technical documentation, participate in code reviews, and drive continuous improvement.
- (Preferred) Build semantic models in Microsoft Fabric/Power BI aligned with curated data and governed KPIs.
- (Preferred) Translate SAP FI/CO business logic (GL, AP/AR, allocations, exchange rates) into reconciled semantic models.
- Strong experience with Microsoft Azure (ADLS Gen2, Data Factory, Key Vault) and foundational networking/security.
- Hands-on expertise in Databricks: PySpark, SQL, Delta Lake, Unity Catalog, Asset Bundles; performance tuning and cost optimization.
- Advanced data modeling skills: dimensional/star, data vault, semantic layers; optimization for query performance.
- Proficiency in Python and SQL for data processing; modular code and unit testing.
- Experience with Azure DevOps (Repos, Pipelines, approvals) and CI/CD strategies with rollback procedures.
- Knowledge of Data Contracts: schema definition, SLAs/SLOs, versioning, compatibility policies.
- Familiarity with event-driven architectures and real-time data streaming.
- Experience working in Agile/Scrum environments.
- Fluent in English (written and spoken).
- SAP FI/CO domain knowledge (GL, AP/AR, Asset Accounting, Cost Center Accounting, Internal Orders, CO PA).
- Microsoft Fabric / Power BI: semantic modeling, dataset governance, KPI standardization.
- Infrastructure as Code (Terraform for Azure & Databricks).
- Data Quality & Anomaly Detection frameworks (DLT expectations, Great Expectations).
- Cost governance: tagging, dashboards, budgets/alerts.
- Advanced modeling patterns: slowly changing dimensions, snapshotting, late-arriving facts.
- Security & Compliance: data masking, tokenization, PII minimization.
Aubay
Barcelona, ES
AWS Cloud Engineer con inglés
Aubay · Barcelona, ES
Python Cloud Coumputing AWS Terraform
Funciones
- Diseñar y arquitectar infraestructuras AWS seguras y escalables.
- Implementar Infraestructura como Código (Terraform) y automatizar despliegues con GitLab-CI.
- Desarrollar y mantener código Python de alta calidad para soluciones cloud.
- Gestionar servicios AWS como Lambda, Fargate, S3, IAM, entre otros.
- Implementar y mantener arquitecturas serverless y containerizadas.
- Configurar y administrar soluciones SIEM (Splunk) y herramientas de seguridad AWS.
- Aplicar prácticas DevSecOps y seguridad en todo el ciclo de desarrollo.
- Configurar monitoreo, logging y alertas con CloudWatch, Prometheus, Grafana y PagerDuty.
Modalidad híbrida: 3-4 días en remoto + 1-2 días presenciales en nuestras oficinas (junto al metro Bogatell, Barcelona)
Requisitos
- Experiencia en ingeniería y arquitectura de soluciones de infraestructura AWS.
- Experiencia con: AWS Landing Zone, servicios de redes y seguridad de AWS, y estrategia multi-cuenta en AWS.
- Conocimiento de principios y diseño de Infraestructura como Código con Terraform.
- Experiencia con GitLab y GitLab-CI.
- Experiencia comprobada escribiendo código en Python.
- Profundo entendimiento de la infraestructura y servicios de AWS (Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config)
- Experiencia con soluciones SIEM, idealmente Splunk.
- Experiencia con los siguientes conceptos: enfoque Shift-left y DevSecOps, SBOM, SAST, servicios de seguridad y cumplimiento de AWS (AWS Config, Inspector, Network Firewall, etc.).
- Experiencia en mejores prácticas de registro, monitoreo y alertas basadas en AWS Cloud y herramientas estándar (Splunk, CloudWatch Logs, Prometheus, Grafana, Alert Manager y PagerDuty)
- Inglés
PRUEBA TÉCNICA PARA EL PUESTO PREVIA A LA ENTREVISTA
Se ofrece
AUBAY seleccionamos un/a AWS Cloud Engineer con inglés en Barcelona.
Ofrecemos la posibilidad de formar parte de una Compañía en continuo crecimiento, participando en innovadores proyectos que te permitirán completar tu formación y potenciar tus capacidades. Valoramos el compromiso y la dedicación en el trabajo realizado.
En Aubay somos una multinacional de servicios digitales (DSC) fundada en 1998. Actualmente, con un fuerte crecimiento. Operamos en mercados con un alto valor agregado, tanto en Francia como en otras partes de Europa. En Aubay actualmente tenemos 5 000 personas trabajando.
Desde el asesoramiento hasta todo tipo de proyectos tecnológicos, acompañamos la transformación y modernización de los sistemas de información en todos los sectores, incluidos la industria, I + D, telecomunicaciones e infraestructura, y especialmente los principales bancos y compañías de seguros, que representan más del 80% de nuestra facturación francesa y el 65% de nuestra facturación europea.
Únete a nosotros, te esperamos!
#LI-LR1
FeverUp
Madrid, ES
Senior Software Engineer - AI Platform
FeverUp · Madrid, ES
API Python Docker Cloud Coumputing Kubernetes AWS Terraform Office
Hey there!
We´re Fever, the world´s leading tech platform for culture and live entertainment,
Our mission? To democratize access to culture and entertainment. With our proprietary cutting-edge technology and data-driven approach, we´re revolutionizing the way people engage with live entertainment.
Every month, our platform inspires over 300 million people in +40 countries (and counting) to discover unforgettable experiences while also empowering event creators with our data and technology, helping them scale, innovate, and enhance their events to reach new audiences.
Our results? We´ve teamed up with major industry leaders like Netflix, F.C. Barcelona, and Primavera Sound, presented international award-winning experiences, and are backed by several leading global investors! Impressive, right?
To achieve our mission, we are looking for bar-raisers with a hands-on mindset who are eager to help shape the future of entertainment!
Ready to be part of the experience?
Now, let´s discuss this role and what you will do to help achieve Fever´s mission.
Location: Spain
What are we looking for:
We are looking for an AI Software Engineer with an AI-First mindset, focused on leveraging AI to optimize workflows, automate processes, and enhance applications. This role does not involve training models from scratch but instead focuses on implementing and integrating existing AI models and APIs into real-world applications.
What would you do at Fever?
- Configure and implement applications using Large Language Models (LLMs) and other Generative AI models (multimodal, AI agents, etc.).
- Integrate AI APIs and tools from providers like OpenAI, Anthropic, Google, Meta, Hugging Face, Stability AI, and others.
- Continuously improve and experiment with new AI architectures, frameworks, and best practices.
- Collaborate with development teams to incorporate AI-powered functionalities into the engineering processes and tools.
On your first month in Fever:
- Fully integrate into the team, participating in planning, reviews, and retrospectives while getting to know different departments within the company.
- Familiarize yourself with our tech stack, CI/CD workflows, and cloud infrastructure that support our operations.
- Have multiple Pull Requests (PRs) merged and running in production.
- Attend some of Fever´s original experiences, such as Candlelight.
After 3 months in Fever:
- Be actively involved in AI-powered automation, improving processes and workflows across engineering and product teams.
- Work on integrating LLMs and AI APIs into internal and external applications, ensuring smooth adoption of AI capabilities.
- Implement prompt engineering strategies to optimize AI responses and performance.
- Participate in hackathons and innovation days, collaborating with cross-functional teams.
On your 6th month in Fever:
- Own multiple AI-powered projects, optimizing engineering productivity and automation.
- Experiment with new architectures, frameworks, and best practices to enhance automation.
- Mentor and guide other engineers on AI adoption, best practices, and effective implementations.
- Help shape Fever´s AI strategy, ensuring ethical and efficient AI deployment.
About you
Must have skills:
- Bachelor´s and/or Master´s degree in Artificial Intelligence, Data Science, Mathematics, Physics, or Engineering fields.
- Programming: Strong proficiency in Python
- LLM Experience: Hands-on experience with integration of LLM into existing or new applications.
- Generative AI Techniques: Experience applying Retrieval-Augmented Generation (RAG), prompt engineering, and fine-tuning.
- Production Deployment: Experience with Continuos integration and continuos deployment pipelines to take the code from development to production and monitoring
We use these technologies, so it would be a plus if you have experience in:
- Python - Django/Fast API
- Event-driven-architectures and highly distributed services.
- Cloud Infrastructure on AWS
- Docker, Kubernetes, Terraform
- Datadog
Benefits & Perks
- Opportunity to have a real impact in a high-growth global category leader
- 40% discount on all Fever events and experiences
- Home office friendly anywhere in Spain
- Relocation package for international candidates
- Great work environment with a young, international team of talented people to work with!
- Health insurance and other benefits such as Flexible remuneration with a 100% tax exemption through Cobee.
- English Lessons
- Wellhub Membership
- Possibility to receive in advance part of your salary by Payflow.
- Attractive compensation package consisting of base salary and the potential to earn a significant bonus for top performance and Stock Options
DevOps Engineer
2 mar.Digital Talent Agency
Madrid, ES
DevOps Engineer
Digital Talent Agency · Madrid, ES
Jenkins Kubernetes Ansible Git Jira OpenShift DevOps Terraform
Descripción
Buscamos un/a DevOps Engineer con experiencia en automatización, CI/CD, contenedores y herramientas de integración continua. La persona seleccionada trabajará en un entorno altamente técnico, colaborando con equipos de desarrollo para optimizar pipelines, automatizar despliegues y mejorar la cadena de suministro de software.
🏢 Modalidad y ubicación
Modalidad 100% REMOTA
🎯 Requisitos mínimos
3 años de experiencia en roles DevOps
Conocimientos sólidos en:
Jenkins
GitHub / Bitbucket
ArgoCD
Ansible
Terraform
Experiencia en automatización, CI/CD y despliegues
✨ Requisitos deseables
Conocimientos en:
Confluence
Jira
SonarQube
OpenShift
Experiencia adicional en monitorización (Grafana, Prometheus)
Experiencia con Kubernetes e infraestructura como código
🛠️ Funciones principales
Trabajar con herramientas DevSecOps: Git, Sonar, Jenkins, monitorización (Grafana, Prometheus), OpenShift, Kubernetes e IaC
Desarrollar integraciones necesarias para pipelines y cadenas de suministro de software
Implementar automatizaciones para acelerar despliegues en el producto interno
Colaborar con equipos de desarrollo y DevOps para mejorar procesos
Asegurar calidad, seguridad y eficiencia en los flujos de integración
🌟 Qué ofrece el proyecto
Proyecto estable y de largo recorrido
Entorno técnico avanzado
Trabajo híbrido con flexibilidad
Participación en iniciativas de automatización y modernización
🤝 Compromiso con la igualdadEn Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social.
Grupo Digital
Málaga, ES
AI Native API Developer (Backend Lead)
Grupo Digital · Málaga, ES
API Java Python REST Spring Microservices Terraform Kafka
Descripción
Diseño APIs y microservicios en una plataforma global BaaS con foco en Payments y Cash Management.
Un entorno enterprise, cloud-native y con integración real de IA/LLMs en producción.
Condiciones:
Contrato indefinido
Lugar de trabajo: Málaga (100% presencial – zona centro)
Horario: 9:00 a 18:00 (verano: 08:00 a 15:00)
Salario: Hasta 40.000 € brutos/año
Funciones:
Diseño y ciclo de vida de APIs de dominio (Payments, Collections, Cash Management).
Diseñar APIs REST con OpenAPI 3.1 y flujos de eventos con AsyncAPI.
Implementar autenticación y autorización segura (OAuth 2.1, OIDC, mTLS, JWT).
Desarrollar microservicios resilientes con Java 17+ (Spring Boot 3) y Python 3.11+ (FastAPI).
Implementar arquitecturas event-driven con Kafka y gestión de esquemas (Avro/JSON).
Integrar service mesh (Istio/Linkerd) para seguridad y observabilidad.
Construir pipelines CI/CD con GitHub Actions y despliegues GitOps con ArgoCD.
Gestionar infraestructura como código con Terraform y Packer.
Implementar observabilidad avanzada (Datadog, Dynatrace, Prometheus, ELK).
Aplicar buenas prácticas de LLMOps y gobernanza IA (versionado de prompts, auditoría, control de alucinaciones).
Asegurar cumplimiento normativo (PSD2, GDPR, DORA).
CAS TRAINING
Madrid, ES
Azure Cloud Engineer (Data Analytics Platform)
CAS TRAINING · Madrid, ES
C# Python Agile Azure Linux Cloud Coumputing Ansible Git Jira PowerShell DevOps Terraform
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un profesional con experiencia como Azure Cloud Engineer.
En este rol, será responsable de construir soluciones escalables en las plataformas de Azure para Data & Analytics Platform. Se espera que pueda liderar un equipo de ingenieros Junior hacia la entrega exitosa de soluciones de ingeniería. El candidato debe aportar una mezcla de habilidades técnicas y capacidad de liderazgo, con las habilidades de comunicación y trabajo en equipo necesarias para colaborar con otros miembros del departamento de IT.
Gestión de Entorno: Gestionar y administrar el entorno de nube de Microsoft Azure, incluyendo aprovisionamiento, configuración, monitoreo de rendimiento, gobernanza de políticas y seguridad.
Diseño de Soluciones: Diseñar, desarrollar e implementar soluciones de alta disponibilidad y multi-región dentro de Microsoft Azure.
Mejora de Procesos: Analizar los estándares operativos, procesos y/o gobernanza existentes para identificar e implementar mejoras.
Pruebas de Concepto (PoC): Participar en la realización de Pruebas de Concepto de varias soluciones de proveedores y presentar recomendaciones finales.
Migración: Migrar servicios de infraestructura existentes a soluciones basadas en la nube.
Seguridad: Gestionar la seguridad y los controles de acceso de las soluciones basadas en la nube.
Infraestructura como Código (IaC): Desarrollar infraestructura como código (IaC) aprovechando herramientas nativas de la nube para asegurar despliegues de plataforma automatizados y consistentes.
Protección de Datos: Desarrollar e implementar mejores prácticas de protección de datos impulsadas por políticas para asegurar que las soluciones en la nube estén protegidas contra la pérdida de datos.
Estándares: Asegurar que todos los componentes de infraestructura cumplan con los estándares adecuados de rendimiento y capacidad.
Guardias: Participar en una rotación de guardias (on-call rotation) para abordar y resolver escaladas técnicas.
Capacidades Requeridas:
Experiencia Azure: Más de 4 años de experiencia en Microsoft Azure involucrando diseño, despliegue, configuración y optimización.
IaaS/PaaS: Más de 6 años de experiencia con soluciones IaaS y PaaS.
Infraestructura Empresarial: Experiencia en el diseño y operación de infraestructura empresarial, bases de datos y sistemas de aplicaciones de mediana a gran escala.
Agile: Experiencia trabajando dentro de un marco de trabajo Agile.
IaC: Experiencia en desarrollo de IaC con Terraform, Azure CLI, Puppet y Ansible.
Scripting: Experiencia con Azure PowerShell.
Desarrollo: Experiencia con Python (análisis de datos y soluciones en Azure) y C# (frameworks para apps y soluciones en Azure).
Sistemas y Redes: Experiencia con VMs de Windows y Linux, redes, enrutamiento y firewalls.
Servicios de Azure: Experiencia con servicios como Azure App Services, ADF, Logic Apps, AKS, ADLS, etc.
Control de versiones: Competencia con GIT y ADO (Azure DevOps) para realizar gestión de código fuente.
Herramientas: Experiencia con Terraform Cloud, Azure DevOps, Jira y ServiceNow.
Conocimientos Generales de TI: Competencia en una amplia gama de habilidades de TI, incluyendo redes, administración de sistemas, protección de datos, seguridad de la información y herramientas de CI/CD.
Certificaciones de Azure:
Azure Administrator Associate
Azure Developer Associate
DevOps Engineer Expert
Los profesionales tienen que estar ubicados en (Jaén, Granada, Sevilla, Córdoba, Madrid).
Aunque en principio no es necesario, el profesional tiene que tener disponibilidad para acudir a oficina.
NIVEL DE INGLÉS C1