¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercial y Ventas
642Informática e IT
619Transporte y Logística
446Adminstración y Secretariado
397Desarrollo de Software
332Ver más categorías
Comercio y Venta al Detalle
270Derecho y Legal
248Educación y Formación
241Ingeniería y Mecánica
222Marketing y Negocio
214Instalación y Mantenimiento
125Diseño y Usabilidad
116Sanidad y Salud
113Industria Manufacturera
112Publicidad y Comunicación
92Construcción
77Contabilidad y Finanzas
75Hostelería
64Recursos Humanos
55Arte, Moda y Diseño
48Atención al cliente
45Turismo y Entretenimiento
36Producto
33Artes y Oficios
28Inmobiliaria
25Alimentación
17Seguridad
16Energía y Minería
14Social y Voluntariado
12Banca
11Farmacéutica
11Cuidados y Servicios Personales
9Deporte y Entrenamiento
7Telecomunicaciones
3Seguros
1Agricultura
0Ciencia e Investigación
0Editorial y Medios
0DevOps Engineer (INGLÉS)
NuevaCAS TRAINING
Barcelona, ES
DevOps Engineer (INGLÉS)
CAS TRAINING · Barcelona, ES
Python Azure Docker Cloud Coumputing Kubernetes AWS PowerShell DevOps
En CAS Training, empresa líder con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, buscamos incorporar un/una profesional Senior Azure DevOps Engineer con alta cualificación para diseñar, transformar y gestionar soluciones escalables.
Skills técnicas requeridas: experiencia profunda en servicios cloud y arquitectura Azure; infraestructura como código con Bicep y ARM templates; desarrollo de pipelines CI/CD con Azure DevOps; scripting avanzado con PowerShell y Python; conocimiento de prácticas de seguridad cloud y estándares de cumplimiento; monitorización y troubleshooting de sistemas basados en Azure.
Skills opcionales: Azure Data Factory y Azure Databricks; Contenerización y orquestación con Docker y Kubernetes; conocimiento de otros proveedores cloud como AWS y GCP; comprensión de redes, VPNs y entornos cloud híbridos.
Capacidades : buen nivel de inglés; fuerte capacidad analítica y de resolución de problemas; excelente comunicación y trabajo en equipo; capacidad para trabajar en entornos dinámicos y gestionar múltiples prioridades; actitud proactiva y aprendizaje continuo. Soft skills: mentalidad colaborativa, foco en calidad y seguridad, adaptabilidad, ownership de proyectos, organización y accountability.
Background y experiencia: Grado en Computer Science, IT o similar; 5+ años de experiencia en DevOps, Cloud Engineering o roles relacionados; experiencia demostrable en entornos Azure enterprise a gran escala; experiencia en automatización y scripting en entornos corporativos.
Misión: desarrollo y migración de la nueva AI Platform.
Entregables solicitados: Azure Infrastructure Design document, Automated CI/CD Pipelines, IaC Templates, Scripting Module. Entorno técnico: DevOps Engineer.
Sector: Seguros. Modalidad: Híbrido Barcelona
Kanguro
Senior Engineer, Data Engineering
Kanguro · Vitoria-Gasteiz, ES
Teletrabajo . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
~ Python para procesamiento de datos y scripting de pipelines
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
~ Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés .
Si te interesa la posición y cumples los requisitos, envía un email a ****** dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
Data Engineer
6 abr.Kanguro
Data Engineer
Kanguro · Ferrol, ES
Teletrabajo . MySQL Python TSQL Azure Cloud Coumputing Power BI
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.
Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
¿En qué consiste la posición?
Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.
Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje.
Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.
Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.
Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.
Responsabilidades
Data warehouse e infraestructura
Diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT
Power BI y modelo semántico
Ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos
Calidad y fiabilidad del dato
Ser responsable de que cada número que aparece en un dashboard sea correcto y verificable
Implementar validaciones y tests de calidad en cada etapa del pipeline
Monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers
¿Qué perfil buscamos?
4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción
SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado
Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental
Python para procesamiento de datos y scripting de pipelines
Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)
Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables
Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing
Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible
Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte
Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos
Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos
Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos
Valorable: conocimiento del dominio logístico o de integración con APIs de terceros
Castellano fluido.
Inglés B2 o superior
¿Qué ofrecemos?
Contrato indefinido a jornada completa
Salario de *************€ brutos anuales según experiencia
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol
Equipo con muy buen ambiente, joven y multidisciplinar
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero
¿Cómo aplicar?
El responsable de este proceso de selección es
Josep Francesc Cortés
Si te interesa la posición y cumples los requisitos, envía un email a
dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
GCP Data Engineer- Banca
6 abr.Devoteam
Madrid, ES
GCP Data Engineer- Banca
Devoteam · Madrid, ES
TSQL Cloud Coumputing AWS Machine Learning Salesforce
Descripción de la empresa
Devoteam es una consultora europea líder enfocada en estrategia digital, plataformas tecnológicas, ciberseguridad y transformación empresarial a través de la tecnología. Centrada en 6 áreas de especialización, abordamos los desafíos estratégicos de nuestros clientes: Digital Business & Products, Data-driven Intelligence, Distributed Cloud, Business Automation, Ciberseguridad y la Sostenibilidad conseguida por la Digitalización.
La Tecnología está en nuestro ADN y creemos en ella como una palanca capaz de impulsar el cambio para mejorar, manteniendo un equilibrio que nos permite ofrecer a nuestros clientes herramientas tecnológicas de primer nivel pero siempre con la cercanía y profesionalidad de un equipo que actúa como guía durante el camino.
Nuestros 30 años de experiencia nos convierten en una consultora innovadora, consolidada y madura que permite el desarrollo de nuestras 12000 personas , certificando continuamente a nuestros consultores en las últimas tecnologías y contando con expertos en: Cloud, BI, Data Analytics, Excelencia en Procesos de Negocio, Gestión de la Relación con clientes, Ciberseguridad, Marketing Digital, Machine Learning, Ingeniería y desarrollo del Software. Devoteam ha sido premiado como Partner del año 2021 de los 5 líderes de la nube: AWS, Google Cloud, Microsoft, Salesforce y ServiceNow.
Descripción del empleo
Desde Devoteam G Cloud estamos buscando un Data Engineer de GCP para importante cliente del sector bancario.
Responsabilidades:
- Asistir en el desarrollo y mantenimiento de modelos de datos simples bajo supervisión, principalmente en BigQuery.
- Escribir y optimizar consultas SQL para extracción y transformación de datos, enfocándose en la eficiencia y la calidad de la información.
- Colaborar con el equipo para entender los requerimientos de datos y ayudar a implementar soluciones básicas de ingesta y transformación.
- Participar en el diseño inicial de tablas de hechos y estructuras de datos analíticas, aprendiendo sobre las necesidades del negocio.
- Documentar los procesos de transformación de datos y las consultas SQL desarrolladas.
Requisitos:
- Interés y/o experiencia inicial (prácticas, proyectos personales, cursos) en el campo de la ingeniería de datos.
- Dominio de SQL a nivel intermedio/avanzado: Capacidad para escribir consultas complejas (JOIN, funciones de ventana, optimización básica). Indispensable.
- Conocimiento preferible de BigQuery y familiaridad con el entorno de Google Cloud Platform (GCP).
- Comprensión de los conceptos básicos de modelado de datos (por ejemplo, diferencias entre tablas de hechos y dimensiones).
- Proactividad, ganas de aprender rápidamente y habilidad para trabajar en equipo, pidiendo ayuda cuando sea necesario.
Deseable:
- Conocimiento o interés en herramientas de orquestación de datos (Airflow, dbt) o scripts de automatización.
- Habilidad para la comunicación básica con el equipo técnico para reportar el progreso y problemas.
- Experiencia o familiaridad con la manipulación de grandes volúmenes de datos.
Cloud Engineer
6 abr.Devoteam
Cloud Engineer
Devoteam · Madrid, ES
Teletrabajo API Cloud Coumputing REST AWS Kafka Machine Learning Salesforce
Descripción de la empresa
Devoteam es una consultora europea líder enfocada en estrategia digital, plataformas tecnológicas, ciberseguridad y transformación empresarial a través de la tecnología. Centrada en 6 áreas de especialización, abordamos los desafíos estratégicos de nuestros clientes: Digital Business & Products, Data-driven Intelligence, Distributed Cloud, Business Automation, Ciberseguridad y la Sostenibilidad conseguida por la Digitalización.
La Tecnología está en nuestro ADN y creemos en ella como una palanca capaz de impulsar el cambio para mejorar, manteniendo un equilibrio que nos permite ofrecer a nuestros clientes herramientas tecnológicas de primer nivel pero siempre con la cercanía y profesionalidad de un equipo que actúa como guía durante el camino.
Nuestros 25 años de experiencia nos convierten en una consultora innovadora, consolidada y madura que permite el desarrollo de nuestras 10000 personas, certificando continuamente a nuestros consultores en las últimas tecnologías y contando con expertos en: Cloud, BI, Data Analytics, Excelencia en Procesos de Negocio, Gestión de la Relación con clientes, Ciberseguridad, Marketing Digital, Machine Learning, Ingeniería y desarrollo del Software. Devoteam ha sido premiado como Partner del año 2021 de los 5 líderes de la nube: AWS, Google Cloud, Microsoft, Salesforce y ServiceNow.
#TecnologíaCreativaParaUnMejorCambio
Descripción del empleo
Estamos buscando un/a Cloud Engineer para incorporarse a nuestro equipo de manera estable y en modalidad 100% teletrabajo.
El candidato seleccionado será responsable de diseñar, operar y asegurar nuestra plataforma de eventos distribuida y nuestra pasarela de servicios. Se encargará de mantener la estabilidad de los flujos de datos en tiempo real y la conectividad de nuestras aplicaciones en la nube. Es necesario que haya realizado tareas de soporte.
Requisitos técnicos y conocimientos:
- Infraestructura Cloud: Experiencia consolidada en servicios de Amazon Web Services, especialmente en el despliegue y gestión de contenedores mediante Amazon EKS.
- Ecosistema de Streaming y Kafka: Dominio avanzado de Apache Kafka y sus componentes asociados, incluyendo Kafka Connect, Kafka REST Proxy, Kafka Schema Registry y ksqlDB. Experiencia en la administración de clusters, configuración de retención y compactación de datos, cuotas de trafico y replicación mediante Mirrormaker. Se valorará positivamente el uso de herramientas de gestión como Lenses o Kpow.
- Gestion y Arquitectura de APIs: Administración de Kong API Gateway (incluyendo Kong Ingress-Controller y Konnect) en entornos de alta disponibilidad y multi-region. Experiencia en el diseño de APIs bajo estándares de la industria y uso de herramientas como SwaggerHub. Conocimiento en estrategias de balanceo de carga y mallas de servicios.
- Seguridad y Observabilidad: Implementación de políticas de seguridad en APIs, gestión de límites de tasa (Rate Limiting) y despliegue de soluciones de firewall de aplicaciones web (WAF). Experiencia en monitoreo integral utilizando Grafana, Loki y Opensearch, así como implementación de auto-escalado de consumidores mediante Keda y Burrow.
Requisitos
Inglés: nivel B2 mínimo.
Información adicional
UST
Senior Data Engineer (Python)
UST · Madrid, ES
Teletrabajo Python TSQL Azure Docker Kubernetes AWS Office
We are still looking for the very Top Talent…and we would be delighted if you were to join our team!
More in details, UST is a multinational company based in North America, certified as a Top Employer and Great Place to Work company with over 35.000 employees all over the world and presence in more than 35 countries. We are leaders on digital technology services, and we provide large-scale technologic solutions to big companies.
What we look for?
A Senior Data Engineer has a strong expertise in Python and modern data engineering tools to help build and evolve our enterprise data ecosystem.
Work Location
Hybrid. Madrid city center (Sol area). 3 days a week in the office + 2 days remote.
Main tasks and accountabilities will be:
- Design, build, and optimize scalable Python-based ETL/ELT pipelines using tools such as pandas, Polars, or similar frameworks
- Build and orchestrate data pipelines using Dagster, Airflow or similar tools
- Develop efficient data ingestion pipelines for batch, incremental and streaming scenarios
- Integrate with internal and external APIs, ensuring robust authentication, error handling and data quality
- Work with Docker, Kubernetes, and GitLab to deploy, operate, and monitor data pipelines in production
- Develop and maintain CI/CD pipelines for data workflows, library packaging, and infrastructure components
What UST expects from you?
- Expert-level Python skills (pandas/Polars, typing, packaging, testing, performance optimization)
- Solid experience with data orchestration frameworks (Dagster preferred; Airflow or similar tool is a strong plus)
- Strong understanding of data modelling, ETL patterns, and performance considerations
- Proficiency with Docker, Kubernetes, and GitLab CI/CD
- Hands-on experience with SQL and relational databases (MS SQL preferred, PostgreSQL/Oracle is a plus)
- Practical experience with Azure data and compute services (Databricks, ADLS, ADF) and foundational knowledge of Azure networking, AAD, and security concepts; comparable experience with AWS or GCP is equally valued
- 5+ years of experience in data engineering or backend engineering with a strong data focus
- English: fluent (written and spoken); Spanish: nice-to-have
What can we offer?
- 23 days of Annual Leave plus the 24th and 31st of December as discretionary days!
- Numerous benefits (Health Care Plan, Internet Connectivity, Life and Accident Insurances).
- `Retribución Flexible´ Program: (Meals, Kinder Garden, Transport, online English lessons, Health Care Plan…)
- Free access to several training platforms
- Professional stability and career plans
- UST also compensates referrals from which you could benefit when you refer professionals.
- The option to pick between 12 or 14 payments along the year.
- Real Work Life Balance measures (flexibility, WFH or remote work policy, compacted hours during summertime…)
- UST Club Platform discounts and gym Access discounts
If you would like to know more, do not hesitate to apply and we’ll get in touch to fill you in details. UST is waiting for you!
In UST we are committed to equal opportunities in our selection processes and do not discriminate based on race, gender, disability, age, religion, sexual orientation or nationality. We have a special commitment to Disability & Inclusion, so we are interested in hiring people with disability certificate.
GCP DevOps Engineer
6 abr.Devoteam
Madrid, ES
GCP DevOps Engineer
Devoteam · Madrid, ES
Python Jenkins Docker Cloud Coumputing Kubernetes Bash DevOps Terraform
Descripción de la empresa
Devoteam is a leading European consultancy focused on digital strategy, technology platforms, cybersecurity and business transformation through technology.
Technology is in our DNA and we believe in it as a lever capable of driving change for the better, maintaining a balance that allows us to offer our client portfolio first class technological tools but always with the proximity and professionalism of a team that acts as a guide along the way.
Devoteam has been committed to technology at the service of people for more than 30 years. With more than 11,000 people in the group, in 25 countries in Europe, the Middle East and Africa.
Descripción del empleo
From Devoteam G Cloud we are looking for Cloud Engineer with experience in Google Cloud Platform cloud to join our team of Cloud experts. As a key member of our organization, you will play a crucial role in designing, implementing, and maintaining our cloud infrastructure on the Google Cloud Platform (GCP).
- Architect, deploy, and manage scalable and secure GCP infrastructure
- Implement and optimize DevOps practices to streamline development and operations processes
- Design and maintain CI/CD pipelines for efficient software delivery
- Collaborate with development teams to improve application performance and reliability
- Analyze and troubleshoot complex issues in GCP environments
- Implement infrastructure as code (IaC) solutions for automated provisioning and management
- Develop and maintain documentation for cloud infrastructure and processes
- Continuously evaluate and implement new technologies to enhance our cloud capabilities
- Ensure compliance with security best practices and industry standards
- Provide technical guidance and mentorship to junior team members
Requisitos
- Bachelor´s degree in Computer Science, Information Technology, or a related field
- Minimum of 2-3 years of experience in GCP infrastructure analysis and management
- Proven experience with cloud migrations, particularly to GCP
- Strong knowledge of Google Cloud Platform services and best practices
- Proficiency in DevOps practices and tools
- Excellent scripting skills in languages such as Python and Bash
- Experience with CI/CD pipelines and tools (e.g., Jenkins, GitLab CI)
- Familiarity with containerization and orchestration technologies (e.g., Docker, Kubernetes)
- Solid understanding of infrastructure as code (IaC) principles and tools (e.g., Terraform)
- Experience with monitoring and logging solutions in cloud environments
- Strong problem-solving and analytical skills
- Excellent communication and collaboration abilities
- Fluency in English (B2/C1 level)
- Google Cloud certifications (e.g., Professional Cloud DevOps Engineer) are a plus
Ingeniero/a de Datos
6 abr.HAYS
Ingeniero/a de Datos
HAYS · Nafarroa, ES
Teletrabajo
Desde HAYS estamos buscando un/a Ingeniero/a de Datos / Analista de Datos para unirse a una empresa tecnológica de referencia con más de 30 años impulsando soluciones innovadoras para la transformación digital, Si quieres potenciar tus habilidades, ¡anímate y acompáñanos en nuestro proceso de evolución continua!
¿Qué buscamos? Estamos buscando reforzar nuestro equipo de DATA ANALYTICS con un perfil técnico, orientado a trabajar en la parte crítica del ciclo del dato, asegurando que la información esté lista para generar valor en los análisis y modelos analíticos.
Tu misión
- Recopilar y limpiar datos de diversas fuentes.
- Procesos de extracción, tratamiento y limpieza de datos (ETL).
- Implementar almacenes de datos corporativos (Datawarehouse).
- Diseñar e implementar modelos semánticos para el análisis de los datos.
- Desarrollar informes y dashboards.
- Colaborar con equipos de negocio para entender sus necesidades y proporcionar soluciones basadas en datos.
- Asegurar la calidad y precisión de los datos.
¿Qué necesitamos ver en tu perfil?
- Experiencia de 2-3 años en roles de ingeniería de datos o analista técnico.
- Experiencia en procesos ETL y de modelado de datos (experiencia con distintas herramientas a valorar)
- Experiencia en soluciones con Potencia BI y Fabric (deseable certificaciones relacionadas)
- Capacidad para trabajar de forma autónoma y orientada a la calidad.
- Proactividad, resolución de problemas y adaptabilidad. Valoraremos experiencia práctica en construcción de modelos analíticos.
¿Qué te ofrecemos?
- Teletrabajo (3+2). Pamplona/Donostia.
- Retribución flexible (Restaurantes, guarderías, transporte, masters...).
- Formación pagada por la empresa: certificaciones oficiales, inglés...
- Jornada intensiva los viernes, vísperas de festivo y en verano y Navidad.
- Desarrollo profesional y plan de carrera, con revisión anual.
- Excelente ambiente de trabajo: equipo joven y dinámico, con buena relación interna.
- Entorno cooperativo e incorporación a un equipo técnico clave en proyectos de datos estratégicos.
- Participación directa en la construcción de soluciones basadas en datos.
Industrial Test Engineer
5 abr.Valeo
Martos, ES
Industrial Test Engineer
Valeo · Martos, ES
.
- Analyse customer requirements, legal regulations and internal specification to be applied in Testing strategies of products
- Develop EOLT specifications for new equipments (Hardware & Software)
- Design and develop complex test programs, process and systems to measure product functionality and integrality in the electrical and programming domains
- Analyse test cases and failure, providing scenarios and proposing actions based on results
- Checks product SW and Test Methodology/Coverage during DFT Design Review, with R&D interaction
- May make himself some functional Tester software development and improvements
- Checks the Functional Testers development (review of technical issues and planning)
- Work with the Software Validation Team to ensure complete test coverage of all requirements
- Analyze the customer specifications, legal requirements and internal specifications towards the development of electronic test plans
- Support the creation of test equipment specifications and tester hardware specifications used in the development of automated test rack systems
- Perform validation, capabilities, test coverage and stability performance of testers
- Monitor testing TLR, analyse defects, and propose action plans to reduce
- Validate PG RAISE and CdC standards which are created by M/D Standard Owners
- Validate any change of standard propose by sites in new investments for Testing equipments
- Validate the assembly line included on each CAA, in concept, cycle time and investment values
- Contribute to product & process FMEA, assisting Testing technicians in daily activities
- Support transition of newly developed processes into series production, providing process / equipment specification and qualification
- Define activities to permit integration of Testing equipments into more complex manufacturing cells
- Perform survey of equipment in continuous improvement & cost reduction mindset to optimize investments, material & labor costs
- Develop an industrial cross-project competence
- Promote the Valeo Industrial standard rules and procedures
- Ensure the respect of Safety and Environment procedures of Valeo Group