¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
872Comercial y Ventas
788Adminstración y Secretariado
576Transporte y Logística
516Desarrollo de Software
370Ver más categorías
Marketing y Negocio
355Educación y Formación
351Comercio y Venta al Detalle
274Derecho y Legal
267Ingeniería y Mecánica
265Diseño y Usabilidad
226Instalación y Mantenimiento
159Recursos Humanos
121Industria Manufacturera
114Construcción
105Contabilidad y Finanzas
100Publicidad y Comunicación
99Sanidad y Salud
94Arte, Moda y Diseño
76Hostelería
72Inmobiliaria
54Producto
51Artes y Oficios
43Atención al cliente
37Seguridad
33Turismo y Entretenimiento
31Banca
29Alimentación
27Social y Voluntariado
11Energía y Minería
9Farmacéutica
9Cuidados y Servicios Personales
8Telecomunicaciones
3Agricultura
1Editorial y Medios
1Ciencia e Investigación
0Deporte y Entrenamiento
0Seguros
0Institut Català d'Oncologia (ICO)
Girona, ES
Titulat/da Mitjà: Enginyer/a de dades (junior) per a la UERCG (ICO Girona)
Institut Català d'Oncologia (ICO) · Girona, ES
. Python TSQL NoSQL Docker Kubernetes
L’Institut Català d’Oncologia (ICO), inicia un procés de selecció per a incorporar un/a Titulat/da de Grau a la Unitat d’epidemiologia i registre de càncer de Girona (UERCG), perfil Enginyer/a de Dades, per al centre de treball de l’ICO Girona, ubicat a Carrer del Sol, 15, 17003 Girona.
Cerquem un/a Enginyer/a de Dades Júnior amb una forta inclinació a l'autonomia i ganes d'aprendre, per unir-se al nostre equip informàtic. El/la candidat/a ideal serà capaç de navegar pels processos d'administració i mostrarà una proactivitat especial a buscar la complicitat i el coneixement dels/de les enginyers/res sèniors, prioritzant la col·laboració tècnica per al seu desenvolupament professional.
Funcions
- Integració de Sistemes: Col·laborar en la connexió i integració de les dades procedents dels diversos sistemes de registre.
- Disseny i Desenvolupament: Participar en el disseny, desenvolupament i manteniment de canals de dades (data pipelines) bàsics per al processament i transformació d'informació.
- Desplegament d'Extracció de Dades: Suport en el desplegament de sistemes d’extracció de dades, posant èmfasi en el compliment estricte dels protocols de privacitat i seguretat.
- Gestió de Sortides: Integrar les sortides de dades generades a partir del registre de càncer en els sistemes definits.
- Col·laboració Tècnica i Documentació:
- Treballar estretament amb experts/es clínics/ques i investigadors/es per entendre les necessitats i garantir la precisió de les dades, participant en la implementació de processos de validació.
- Documentar de forma clara i completa els processos d’enginyeria de dades i els procediments bàsics de ML Ops (operacions d'aprenentatge automàtic) per facilitar la reutilització i el manteniment futur.
- Col·laboració amb els projectes europeus de la Unitat. Participació activa en les tasques a desenvolupar en els diferents projectes europeus on participa la Unitat.
- Contracte de treball de durada d'1 any amb possibilitat de continuitat.
- Jornada laboral completa (1.605 hores/any – 37,5 hores/setmana).
- Les condicions de contractació i remuneració es regularan per contracte laboral i s'ajustaran a les normes establertes a l'ICO segons conveni col·lectiu de treball dels hospitals d'aguts, centres d'atenció primària, centres sociosanitaris i centres de salut mental, concertats amb el Servei Català de la Salut (SISCAT) del grup professional 5 Persona de gestió i serveis.
- Retribució anual fixa (RAF): 31.015,88€ (No inclou retribució anual variable (RAV) / DPO/incentius del 6% al 12%).
- Data incorporació: 19 de gener 2026
- Lloc de treball: Institut Català d’Oncologia, Carrer del Sol, 15, 17003 Girona
Formaràs part d’un servei dinàmic on el treball en equip és una prioritat.
Increment salarial mitjançant la carrera professional (SIPDP) acreditant 6 anys d'experiència professional, dels quals almenys 1 ha d'haver transcorregut a l'ICO.
Conciliació personal i flexibilitat laboral segons pacte de condicions laborals que millora el conveni SISCAT.
Creixement personal i professional: Apostem per la teva formació continuada amb la possibilitat de realitzar cursos, assistir a jornades formatives, sessions, etc.
Política d’igualtat de tracte i d’oportunitats en les condicions de treball.
Desenvolupament del procés de selecció
El procés de selecció es durà a terme en dos fases diferenciades: valoració del mèrits aportats en el currículum i realització d’una entrevista personal.
L’ICO podrà declarar deserta aquesta convocatòria si, segons el seu criteri, el/la candidat/a no reuneix les condicions que la Institució estima necessàries per ocupar el lloc.
Només es considerarà, a efectes de valoració curricular, els mèrits que s'aportin documentalment.
La Direcció es reserva el dret a realitzar les proves que estimi oportunes.
Amb l'objectiu de garantir la transparència i l'objectivitat en el procés de selecció, s'estableix la creació d'un Tribunal Avaluador constituït per la Direcció per a les Persones, i el responsable de la Unitat d’epidemiologia i registre de càncer de Girona (UERCG)
Aquest tribunal tindrà la responsabilitat de revisar les candidatures, realitzar les entrevistes pertinents i emetre un informe amb les seves valoracions sobre les candidatures presentades.
Requisits:
- Estar en possessió (1) de la titulació de Llicenciatura / Grau universitari (o equivalent) en Enginyeria Informàtica o Enginyeria de Dades (expedit per una Universitat Espanyola vs certificat d'Homologació).
- O acreditació documental de l'equivalència a nivell 3 MECES del Marc Espanyol de Qualificacions per a l'Educació Superior o EQF Level 7 del Marc Europeu de Qualificacions
- Acreditar coneixements en:
- Comprensió operativa i coneixement de sistemes d’informació de registres i bases de dades (SQL).
- Consciència i coneixement de treballar amb dades sensibles i regulades (privacitat de dades).
- Actitud:
- Alta motivació per aprendre i desenvolupar-se en un entorn tècnic.
- Proactivitat per buscar mentoria i aprenentatge continu dels/ de les enginyers/res sèniors.
- Capacitat per gestionar tasques de manera autònoma dins dels marcs definits.
- Idiomes:
- Nivell de castellà (equivalent a C1 o superior).
- Nivell d'anglès (equivalent a B2 o superior).
- Nivell de català equivalent a C1.
- Experiència Pràctica o Acadèmica en l'ús i/o creació de data pipelines (conceptes ETL/ELT).
- Familiaritat amb SQL i coneixements de bases de dades NoSQL.
- Coneixements bàsics sobre data warehousing i bones pràctiques de govern de dades.
- Programació: Domini de Python (obtingut en projectes acadèmics o personals). Familiaritat amb llibreries estàndard de ciència de dades (Pandas, NumPy).
- Entorns Tècnics: Comprensió del desplegament on-premise per la seguretat de les dades. Coneixement bàsic de contenidors (Docker, Kubernetes) per al desplegament local.
- Tecnologies Emergents:
- Coneixement pràctic o teòric de Natural Language Processing (NLP).
- Familiaritat amb Large Language Models (LLMs), incloent-hi conceptes de desplegament i prompt engineering.
- Regulacions: Coneixement de les regulacions de privacitat de dades (ex: GDPR, EU AI Act) i els requisits tècnics de seguretat.
- Addicionals:
- Coneixements de català (nivell C1).
- Referències i/o cartes de recomanació.
Carta de presentació amb explicació de les motivacions per desenvolupar aquest lloc de treball.
Currículum Vitae actualitzat.
Fotocòpia de la titulació sol·licitada i dels mèrits indicats al CV.
Termini presentació de candidatures fins el 29/12/2025 a les 14:00h
Data Engineer Airflow
17 dic.WIZELINE
Barcelona, ES
Data Engineer Airflow
WIZELINE · Barcelona, ES
Python Docker AWS Terraform
We are:
Wizeline, a global AI-native technology solutions provider, develops cutting-edge, AI-powered digital products and platforms. We partner with clients to leverage data and AI, accelerating market entry and driving business transformation. As a global community of innovators, we foster a culture of growth, collaboration, and impact.With the right people and the right ideas, there´s no limit to what we can achieve
Are you a fit?
Sounds awesome, right? Now, let´s make sure you´re a good fit for the role:
Must-have Skills:
- Strong expertise in DBT Core.
- Hands-on experience with MWAA (AWS Managed Airflow).
- Advanced proficiency in Python.
- Practical experience with Terraform.
- Proficiency with container technologies, especially Docker.
Nice-to-have:
- AI Tooling Proficiency: Leverage one or more AI tools to optimize and augment day-to-day work, including drafting, analysis, research, or process automation. Provide recommendations on effective AI use and identify opportunities to streamline workflows.
What we offer:
- A High-Impact Environment
- Commitment to Professional Development
- Flexible and Collaborative Culture
- Global Opportunities
- Vibrant Community
- Total Rewards
*Specific benefits are determined by the employment type and location.
Find out more about our culture here.
Cloud Engineer en AWS
17 dic.Serem
Cloud Engineer en AWS
Serem · Madrid, ES
Teletrabajo .Net Java Python TSQL Linux Cloud Coumputing Kubernetes Oracle Jira AWS PowerShell Bash DevOps Terraform
Buscamos un Cloud Engineer en AWS para unirse a nuestro equipo y brindar soporte a la producción, identificando y resolviendo problemas en los sistemas y entornos cloud. La misión será garantizar la estabilidad, disponibilidad y rendimiento de nuestras plataformas, facilitando la detección y resolución de incidentes en producción, automatizando procesos y promoviendo buenas prácticas en la administración de entornos cloud.
Responsabilidades:
Monitorización y Diagnóstico: Identificar y analizar problemas en entornos productivos mediante CloudWatch, Dynatrace, herramientas de sistemas, proponiendo soluciones rápidas y efectivas.
Soporte a Producción: Colaborar con los equipos de desarrollo y operaciones para la resolución de incidencias en AWS, sistemas Linux (RHEL) y Windows.
Automatización: Trabajar con scripts de automatización (Bash, PowerShell, Python, Terraform, CloudFormation) para despliegues y resolución de problemas.
Optimización de entornos: Evaluar la configuración de sistemas y bases de datos (Oracle y SQL) para mejorar el rendimiento y la estabilidad.
Gestión de Sistemas: Administración y troubleshooting en entornos basados en EC2, ECS y EKS, RDS, S3. Entender Arquitectura de Redes complejas (VPC, TGW).
CI/CD y DevOps: Trabajar con pipelines de despliegue en GitHub Actions. Código versionado en Github.
Mejoras en la Observabilidad: Implementar dashboards, alertas y herramientas de logging para mejorar la detección y análisis de problemas.
Formación y documentación: Crear guías y sesiones de formación para mejorar el conocimiento del equipo en AWS y administración de sistemas.
Requisitos:
Experiencia mínima de 3-5 años en administración de sistemas Linux (RHEL) y Windows en entornos AWS.
Conocimientos básicos en administración y optimización de bases de datos Oracle y SQL.
Experiencia en troubleshooting de producción, identificando cuellos de botella en sistemas, redes y bases de datos.
Conocimiento en herramientas de monitorización y logging (CloudWatch, Dynatrace, OS Tools).
Experiencia con Infraestructura como Código (Terraform, CloudFormation).
Administración y soporte básico de aplicaciones .NET en Windows y Java sobre JBoss/Tomcat.
Experiencia en contenedores y Kubernetes (ECS y EKS).
Conocimientos en CI/CD con GitHub Actions.
Experiencia con scripting (Bash, PowerShell, Python) para tareas de automatización.
Capacidad de comunicación y trabajo en equipo, con habilidad para transmitir conocimientos técnicos a perfiles no especializados en sistemas.
Deseable:
Certificaciones en AWS (AWS Solutions Architect, SysOps Administrator).
Experiencia con herramientas ITSM y gestión de incidencias (ServiceNow, Jira).
Data Engineer Databricks
16 dic.Deloitte
Data Engineer Databricks
Deloitte · Madrid, ES
Teletrabajo Python TSQL Git AWS
´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer con amplio conocimiento de PySpark, Python, AWS y/o Databricks y control de versiones con Git, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Science, o similares.
- Posees entre 2-5 años de experiencia como ingeniero de datos trabajando en procesamiento de grandes volúmenes de datos.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Has desarrollado soluciones de datos utilizando servicios de AWS y/o Databricks (certificaciones valorables).
- Posees experiencia con sistemas de control de versiones, preferiblemente Git.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Posees conocimientos de los sistemas de bases de datos, modelado de datos y SQL.
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Data Engineer (Cloud Azure)
16 dic.PANEL Sistemas Informáticos
Data Engineer (Cloud Azure)
PANEL Sistemas Informáticos · Madrid, ES
Teletrabajo Azure Cloud Coumputing
🚀 ¡Estamos contratando!
👩💻 Puesto: Data Engineer (Cloud & Modern Data Stack)
📍 Ubicación: 100% remoto (candidatos en la Unión Europea)
🛠️ Experiencia: 3-5 años
🌐 Idioma: Inglés fluido (mínimo B2)
🔍 ¿Qué buscamos?
✔ Experiencia sólida en modelado de datos, migración y diseño de arquitectura (no solo pipelines).
✔ Dominio de herramientas Azure.
💻 Tech Stack:
Azure Synapse
Databricks
Lambda Architecture
Data Vault
DBT
✅ Si te apasiona la ingeniería de datos y quieres trabajar en un entorno 100% remoto, esta es tu oportunidad.
📩 Postúlate ahora y forma parte de nuestro equipo.
#DataEngineer #Azure #RemoteWork #Hiring #TechJobs #DataArchitecture #Databricks #DBT #CloudData #EUJobs
WayOps
Senior Data Engineer (Snowflake Expert)
WayOps · Madrid, ES
Teletrabajo Python TSQL Cloud Coumputing Git AWS Machine Learning
Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional integrando grandes volúmenes de datos en soluciones de IA de vanguardia.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar el "Core" de datos de la compañía con los nuevos agentes de IA. El Data Engineer deberá diseñar y construir pipelines robustos de extracción, transformación y carga (ELT) que alimenten los sistemas inteligentes, garantizando la calidad y disponibilidad del dato. Será imprescindible contar con un dominio experto de Snowflake y habilidades sólidas en Python, SQL y entorno AWS.
PROYECTO & EQUIPO
El proyecto requiere desbloquear el valor de los datos almacenados en el Data Lake corporativo para su consumo por modelos de IA Generativa. Esto implica la creación de conectores seguros, optimización de queries complejas y la estructuración de datos no estructurados.
Para el éxito del proyecto, necesitamos especialistas que entiendan cómo modelar el dato para ser consumido por un LLM. Este perfil trabajará en estrecha colaboración con los AI Engineers y el equipo de Backend, bajo la supervisión del Product Manager y siguiendo las directrices del Arquitecto.
EXPERIENCIA & CONOCIMIENTOS
El perfil a incorporar deberá contar con al menos 5 años de experiencia en Ingeniería de Datos, con una especialización profunda y demostrable en Snowflake en entornos productivos. Deberá tener un fuerte background en desarrollo de pipelines ETL/ELT escalables.
Se valorará experiencia previa integrando plataformas de datos con servicios de Machine Learning o IA.
Será necesario tener experiencia previa con tecnologías:
- Core Data: Snowflake (Experto), SQL Avanzado, Python (Pandas, PySpark)
- Orquestación: Airflow, AWS Glue, dbt
- Cloud: AWS (S3, Lambda, Kinesis)
- Ingeniería de Software: Git, CI/CD para datos, Testing de datos
Además se valorará positivamente contar con experiencia o conocimientos en:
- Databricks: PySpark, Delta Lake
- Vector Databases: Preparación de datos para vectorización
- Formatos: Manejo de JSON, Parquet, Avro y datos no estructurados
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).
Deloitte
Data Engineer especialista MS Fabric
Deloitte · Madrid, ES
Teletrabajo Azure Cloud Coumputing Git DevOps
´Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer especialista en Microsoft Fabric, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Science, o similares.
- Posees al menos 2 años de experiencia como ingeniero de datos trabajando en procesamiento de grandes volúmenes de datos, tanto con servicios Cloud como con herramientas de integración.
- Tienes experiencia en desarrollo y optimización de queries complejas SQL/NoSQL.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Posees conocimientos y experiencia sobre sistemas de bases de datos, data modeling, data quality, data profiling y data lineage.
- Tienes experiencia con la suite de Microsoft Fabric (Lakehouse, Data Warehouse, Notebooks, Pipelines).
- Tienes experiencia y/o conocimiento del framework de dbt para la transformación de datos.
- Estás habituado/a a implementar prácticas de DevOps para datos (DataOps), incluyendo control de versiones (Git) y CI/CD.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Orientación a resultados, capacidad analítica y de espíritu de equipo.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
- Valoraríamos especialmente certificaciones de Microsoft, como Azure Data Engineer Associate y/o Fabric Analytics Engineer Associate.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
WayOps
Senior Data Engineer (Data Scraping)
WayOps · Madrid, ES
Teletrabajo MySQL MongoDB Python HTML Selenium AWS PostgreSQL
Buscamos un perfil Senior Data Scraping & Analysis Specialist con sólida experiencia en Python que quiera desarrollar su carrera profesional construyendo pipelines de crawling inteligente y extracción masiva de datos desplegados en ecosistemas AWS de alto rendimiento.
CONTEXTO & RESPONSABILIDADES
La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar fuentes externas de información con los sistemas internos de análisis y los nuevos agentes de IA en la nube. El rol implica diseñar y mantener pipelines avanzados de scraping y crawling, capaces de operar a gran escala en entornos AWS, garantizando resiliencia, trazabilidad, observabilidad y cumplimiento de estándares de seguridad.
Será imprescindible dominar técnicas clásicas de scraping (Playwright, Selenium, BeautifulSoup) junto con nuevas soluciones impulsadas por IA, como Firecrawl, Crawl4AI o agentes LLM capaces de automatizar la navegación y extracción de contenido en webs dinámicas y altamente protegidas. El especialista también deberá procesar y transformar grandes volúmenes de datos dentro de arquitecturas cloud-native, integrando los resultados en los sistemas analíticos de la organización.
PROYECTO & EQUIPO
El proyecto tiene como objetivo habilitar la automatización completa de la adquisición de datos externos y su disponibilidad en AWS para alimentar plataformas analíticas y modelos de IA Generativa. Esto incluirá el desarrollo de crawlers inteligentes, estrategias anti-bot, rotación de proxies y la estructuración de datos no estructurados en formatos optimizados para su posterior consumo.
El perfil seleccionado trabajará en estrecha colaboración con los Data Scientists, AI Engineers y equipos de Backend, bajo la supervisión del Product Manager y siguiendo las directrices arquitectónicas definidas para entornos AWS. El ecosistema integra servicios como Lambda, ECS, S3, Step Functions y bases de datos distribuidas, por lo que la capacidad de diseñar pipelines cloud-native será clave para el éxito del rol.
EXPERIENCIA & CONOCIMIENTOS
Buscamos un perfil con al menos 4 años de experiencia en scraping avanzado y análisis de datos, y una profunda especialización en Python aplicada a crawling masivo y automatización web.
Se valorará especialmente la experiencia construyendo scrapers distribuidos en AWS y la exposición reciente a tecnologías de scraping impulsado por IA.
Será necesario tener experiencia con:
- Core Scraping & Crawling:- Playwright, Selenium, BeautifulSoup, Requests / aiohttp
- Firecrawl, Crawl4AI, Browserless o agentes LLM para crawling inteligente
- Estrategias anti-bot, rotación de proxies y browser fingerprinting
- Procesamiento & Data Engineering:- Python (Pandas, Polars, PySpark)
- Pipelines ETL/ELT, normalización y limpieza de datos masivos
- Parsing avanzado (HTML, JSON, XML, documentos estructurados y no estructurados)
- Infraestructura en AWS (imprescindible):- S3, Lambda, ECS/ECR, Step Functions
- CloudWatch (monitorización de crawlers), IAM (segmentación de permisos)
- SQS/SNS (orquestación y comunicación)
- AWS Glue o EMR (deseable)
- Bases de datos:- PostgreSQL, MySQL, MongoDB o DynamoDB
- Integración de datos y diseño de modelos de almacenamiento para alto volumen
Además se valorará positivamente contar con experiencia o conocimientos en:
- Orquestación: Airflow, Prefect o Dagster
- Infraestructura serverless y contenedores optimizados para crawling
- Integración de datos con LLMs, RAG pipelines o agentes inteligentes
- Visualización o análisis exploratorio de datos
- Diseño de pipelines distribuidos de alta concurrencia
CONTRATACIÓN & UBICACIÓN
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).
BASF
Barcelona, ES
Systems Engineering Internship (m/f/d)
BASF · Barcelona, ES
. Excel Office
The world needs innovations, and our team needs you!
BASF is the world's leading chemical company #WeCreateChemistry and one of the best places to work and develop your career. We are looking for diverse, passionate, and creative talent who wants to do their internship with us, learn from experienced tutors and make a difference. BASF Española S.L. markets more than 5,000 products to meet the needs of our customers and society across a wide variety of sectors.
The chemical industry is changing; and so is BASF. Discover our new strategy: #WinningWays
Do you want to put your knowledge into practice and create chemistry with our team?
What You Will Do
With the support and guidance of the assigned tutor, the intern will have the opportunity to consolidate their academic training at BASF’s Zona Franca site. They will have the unique opportunity of participating in the migration to a new Enterprise Management System covering all processes from logistics to manufacturing and collaborating on various specific tasks:
- Support cleansing and formatting of local data for uploading and migration.
- Support review and approval Excel data before migration to S/4HANA, flagging issues as needed.
- Support migrated data validation in S/4HANA and confirm alignment with process an design.
- Help UAT definition and create test scripts with input from Key Users and Local Experts.
- Run test cases, log defects, retest fixes, and enures timely completion of all scenarios.
- Validate system stability across waves and maintain test suites for consistent quality.
- Prepare tailored training materials in coordination with Central IT.
- Conduct classroom sessions for End Users, track training progress, and provide ongoing learning support.
- Collaborate with Site Captains, Key Users and Rollout Leads to prepare and support cutover at site.
- Perform site-level cutover activities.
What We Need From You
- Degree in Systems Engineering, Industrial Engineering, or an equivalent academic qualification.
- Ability to sign an internship agreement; if studies have been completed, meet the requirements for a SOC scholarship.
- A high level of English will be valued.
- Proficiency in MS Office.
- Interest in developing in industrial environments.
- Strong communication and teamwork skills.
What We Offer
Our internship program offers you the perfect start into the world of BASF. From the very beginning we will accompany your learning. In addition, you will get:
- Individualized tutoring: with a tutor at your side to support your professional development, solve doubts and give you continuous feedback.
- Real projects: you will participate from day one in projects and activities that impact on the business and our clients.
- Paid internships: you will receive monthly financial support proportional to the time spent during your stay.
- Inclusion: we want you to be part of the team, and you will also be able to participate in company events during this period.
- Continuous training: in addition to daily learning, you will be able to take interesting courses to make the most of your time here.
- Flexibility: we will adapt the internship schedules to your workload so that you can combine them in the best way possible.
How To Participate In The Process
Send your CV through the job offer so we can get to know each other. If your profile matches, we will call you from the Spanish Talent Acquisition team in Germany (prefix +49) and support you throughout the process. With each step, you will be closer to meeting your future team!
If you have any further questions about this process, please contact:
Sara Prado ([email protected])*
- Please note that we will not be able to accept your resume via this email.
More About Basf
We celebrate diversity and actively promote an inclusive work environment where every voice is heard and every idea is valued, regardless of age, gender, marital status, ethnicity, religion, physical/mental condition, or sexual orientation. #BeYourself
We are Creative, Open, Responsible and Entrepreneurial people. This are our values, they guide us and describe who we are and how we act. If you identify with them, BASF is the place for you!
Diversity is our greatest strength!
Become a part of our winning formula for success and develop the future with us - in a global team that embraces inclusion and equal opportunities irrespective of gender, age, origin, sexual orientation, disability or belief.