¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
865Comercial y Ventas
692Adminstración y Secretariado
534Transporte y Logística
444Desarrollo de Software
306Ver más categorías
Comercio y Venta al Detalle
305Educación y Formación
291Derecho y Legal
278Marketing y Negocio
249Ingeniería y Mecánica
219Publicidad y Comunicación
183Instalación y Mantenimiento
142Diseño y Usabilidad
141Sanidad y Salud
112Construcción
83Recursos Humanos
82Industria Manufacturera
79Hostelería
75Arte, Moda y Diseño
53Atención al cliente
51Contabilidad y Finanzas
50Inmobiliaria
49Producto
39Artes y Oficios
38Turismo y Entretenimiento
36Banca
20Farmacéutica
20Alimentación
19Cuidados y Servicios Personales
18Energía y Minería
14Social y Voluntariado
10Seguridad
9Deporte y Entrenamiento
7Seguros
4Agricultura
1Editorial y Medios
1Telecomunicaciones
1Ciencia e Investigación
0Data Engineer
NuevaEY
Málaga, ES
Data Engineer
EY · Málaga, ES
Python TSQL Azure Cloud Coumputing Machine Learning Power BI Office
Data Engineer - EY GDS Spain - Hybrid
The opportunity
This is a fantastic opportunity to be part of a leading firm whilst being instrumental in the growth as you get to work with high quality team to support clients ensuring the stability of global companies through best-in-class solutions, automation and innovation, working with an international team
As a member of our team in the EY GDS Spain office in Malaga, you´ll have a chance to extend your knowledge & experience by working on interesting projects with the newest technologies and approaches. You´ll support clients in choosing the most suitable business solution and take part in digital transformation.
Your key responsibilities
As a Data Engineer, your responsibilities will include:
- Design, implement, and test solutions for various Analytics use cases (Batch Analysis; Streaming Analytics; Advanced Analytics or Machine Learning; Generative AI) on major public cloud infrastructures (e.g., Azure, Google Cloud) and cloud-agnostic data warehousing solutions (Snowflake, Databricks).
- Lead the design and development of scalable and efficient data pipelines, integrating them into cloud-native architectures.
- Research and evaluate innovative technologies in the Data & AI domain.
- Collaborate with interdisciplinary teams to ensure project delivery.
- Support the management of relationships with clients and technology partners.
Skills and attributes for success
To thrive in this role, key skills and attributes for success include:
- Curiosity and commitment to researching and adopting innovative technologies in the Data & AI space.
- Excellent collaboration skills to work effectively with cross-functional and interdisciplinary teams.
- Strong communication skills for clear stakeholder engagement and client relationship support.
- Ability to thrive in consulting or enterprise environments, balancing technical delivery with client-facing responsibilities.
- Proactive mindset and team-oriented attitude, contributing to a positive and productive work environment.
- Fluent in English.
To qualify for the role, you must have
- Degree in engineering or scientific (STEM) disciplines.
- 2 years of experience Data & Analytics projects, preferably in consulting or enterprise environments
- Experience developing solutions in at least two of the following platforms: Azure, Databricks, Google Cloud (BigQuery), Snowflake.
- SQL and Python
- Experience in designing and developing modern data architectures (Data Lake, Data Warehouse, Data Mesh).
- Good communication skills and a strong team-oriented attitude.
- Fluency in English
Ideally, you´ll also have
- B2 in Italian is a plus
- Experience in Machine Learning.
- Knowledge of Data Integration tools (e.g., Informatica, Talend, Data Factory, etc.).
- Experience with Generative AI or MLOps projects.
- Familiarity with visualization tools (Qlik, Power BI).
What we look for
We seek individuals who are passionate about their work and possess outstanding skills in their field. If You have a highly developed business acumen, exceptional interpersonal skills, and a willingness to embrace new professional challenges, this role is for You.
What we offer
In EY GDS Spain, we´re committed to fostering a vibrant environment where every team member can thrive. We provide a space for continuous learning and the flexibility to define your own success, empowering you to make a meaningful impact in your own way. Our diverse and inclusive culture values who you are and encourages you to help others find their voice.
Ingeniero/a Cloud
NuevaKrell Consulting & Training
Barcelona, ES
Ingeniero/a Cloud
Krell Consulting & Training · Barcelona, ES
Cloud Coumputing
Descripción
🔐Ingeniero/a Cloud – Sector Asegurador
Modalidad: Híbrido (2 días presenciales/semana)
Ubicación: Barcelona
🧩 Descripción del Servicio
Se requiere un Technical Security Consultant para dar soporte en un entorno corporativo del sector asegurador, con foco en operaciones de seguridad y gestión de incidentes. El perfil se integrará en un entorno regulado, colaborando con equipos SOC y participando en actividades de monitorización, análisis y respuesta ante incidentes de seguridad.
🎯 Responsabilidades
Gestión y respuesta ante incidentes de seguridad.
Análisis de eventos y alertas de seguridad.
Revisión y correlación de logs.
Soporte en tareas de investigación forense básica.
Colaboración con equipos internos y externos en la mitigación de amenazas.
Aplicación de buenas prácticas de seguridad en entornos on-premise y cloud.
DevOps (Inglés B2/C1)
13 ene.CAS TRAINING
Madrid, ES
DevOps (Inglés B2/C1)
CAS TRAINING · Madrid, ES
Python AWS Bash DevOps Terraform
En CAS Training buscamos incorporar DevOps con inglés avanzado para incorporarse a un importante proyecto del sector de industria de materiales y soluciones para la construcción con disponibilidad para cumplir esquema hibrido en 📍Madrid.
✨Requisitos:
• Inglés avanzado (B2-C1)
• Disponibilidad para realizar viajes si se tuviera la necesidad
• Disponibilidad para colaborar en guardias/festivos si es necesario
• Disponibilidad para mantener un esquema hibrido en Madrid
Es deseable:
• Conocimiento de implementación de recursos en AWS con Terraform.
• Conocimiento de arquitectura de soluciones en AWS.
• Conocimiento de herramientas de análisis de código (Sonarqube y GHAS) y creación de pruebas de rendimiento (Jmeter).
• Scripting con Python, Bash o similar.
• Cumplimiento del SLA (Acuerdo de Nivel de Servicio).
🎯Tareas:
• Brindar servicio con capacidad para gestionar y dar soporte a la implementación de aplicaciones en una plataforma DevOps.
• Colaborar con los equipos de desarrollo de productos. Nos centraremos en la automatización de compilaciones mediante pipelines de CI/CD y en la puesta en producción del código de la forma más rápida y eficiente posible.
• Brindar soporte a los servicios antes de su lanzamiento mediante consultoría de diseño de sistemas, desarrollo de plataformas y frameworks de software, planificación de capacidad y revisiones de lanzamiento.
• Utilización de automatización para escalar sistemas de forma sostenible y contribuir a la implementación de mejoras, evolucionando sistemas e impulsando cambios que mejoren la fiabilidad, la velocidad y la seguridad.
• Colaborar con los equipos de producto de TI para implementar nuevas versiones de software en recursos en la nube.
• Colaborar con los equipos de DevOps para garantizar que los nuevos entornos cumplan los requisitos y se ajusten a las mejores prácticas.
• Propuesta de arquitectura (teniendo en cuenta las necesidades y restricciones de EDC), procedimiento de creación/integración/administración (IaC y automatización son obligatorios), transferencia completa de conocimientos (basada en la documentación previa y grabaciones de vídeo de la propia KT).
Consultor IT - Data Engineer
13 ene.Deloitte
Zaragoza, ES
Consultor IT - Data Engineer
Deloitte · Zaragoza, ES
Python TSQL Azure AWS
´Seguimos caminando juntos?
¿Qué buscamos?
Buscamos un/a Data Engineer con al menos 2 años de experiencia en proyectos de backend orientados a datos, que haya participado en el diseño y desarrollo de pipelines de datos end-to-end, cubriendo las distintas capas de ingesta, transformación y almacenamiento.
¿Qué funciones desarrollaras?
- Diseñar, desarrollar y mantener pipelines de datos end-to-end, desde la ingesta hasta la capa de consumo.
- Implementar procesos de ingesta de datos desde múltiples fuentes (APIs, bases de datos, ficheros, sistemas externos).
- Desarrollar procesos de transformación y enriquecimiento de datos asegurando calidad, trazabilidad y eficiencia.
- Diseñar y optimizar modelos de datos orientados a analítica y reporting.
- Trabajar con servicios de Azure como:
- Azure Data Factory para orquestación de pipelines.
- Azure Data Lake Storage para almacenamiento de datos.
- Azure Synapse, Databricks y/o Microsoft Fabric para procesamiento y transformación.
- Implementar buenas prácticas de versionado, control de errores, logging y monitorización de pipelines.
- Colaborar con equipos de BI, analítica y negocio para entender requisitos y traducirlos a soluciones técnicas.
- Participar en decisiones de arquitectura de datos y mejora continua de las soluciones existentes.
- Documentar los desarrollos y flujos de datos de forma clara y mantenible.
Requisitos:
- Al menos 2 años de experiencia en proyectos de Data Engineering o backend orientados a datos.
- Experiencia en Azure (Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake o Microsoft Fabric) o AWS.
- Experiencia programando en Python y SQL.
- Conocimientos de modelado de datos y arquitecturas tipo Data Lake / Data Warehouse / Lakehouse.
- Nivel intermedio de inglés.
¿Qué te ofrecemos?
- Contarás con un modelo de trabajo híbrido-flexible
- Podrás optar a un sistema de retribución flexible, servicio médico, seguro de salud, seguro de vida y accidente
- Contarás con un plan de formación a lo largo de tu trayectoria profesional
- Te desarrollarás en una cultura de feedback donde fomentar tu aprendizaje continuo
- Participarás si te interesa en programas de acción social y voluntariado de alcance nacional e internacional
- Disfrutarás de una oferta cultural y deportiva
¡Ahora la decisión es tuya! Si crees que este puesto está hecho para ti, haz clic en ´Solicitar´ y completa tu perfil para que podamos valorar tu solicitud. Si encajas en el perfil, nuestro equipo de captación se pondrá en contacto contigo para conocerte.
A partir de ahí te iremos guiando por nuestro proceso de selección y comenzará tu historia en Deloitte.
What impact will you make?
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad, no discriminando por motivos de sexo, expresión de género, raza, religión o creencias, origen étnico o nacional, discapacidad, enfermedad o condición de salud, predisposición genética a sufrir patologías, edad, ciudadanía, estado civil, orientación o identidad sexual, situación socioeconómica o cualquier otra condición o circunstancia personal o social.
Consultor IT - Data Engineer
13 ene.Deloitte
Madrid, ES
Consultor IT - Data Engineer
Deloitte · Madrid, ES
Python TSQL Azure AWS
´Seguimos caminando juntos?
¿Qué buscamos?
Buscamos un/a Data Engineer con al menos 2 años de experiencia en proyectos de backend orientados a datos, que haya participado en el diseño y desarrollo de pipelines de datos end-to-end, cubriendo las distintas capas de ingesta, transformación y almacenamiento.
¿Qué funciones desarrollaras?
- Diseñar, desarrollar y mantener pipelines de datos end-to-end, desde la ingesta hasta la capa de consumo.
- Implementar procesos de ingesta de datos desde múltiples fuentes (APIs, bases de datos, ficheros, sistemas externos).
- Desarrollar procesos de transformación y enriquecimiento de datos asegurando calidad, trazabilidad y eficiencia.
- Diseñar y optimizar modelos de datos orientados a analítica y reporting.
- Trabajar con servicios de Azure como:
- Azure Data Factory para orquestación de pipelines.
- Azure Data Lake Storage para almacenamiento de datos.
- Azure Synapse, Databricks y/o Microsoft Fabric para procesamiento y transformación.
- Implementar buenas prácticas de versionado, control de errores, logging y monitorización de pipelines.
- Colaborar con equipos de BI, analítica y negocio para entender requisitos y traducirlos a soluciones técnicas.
- Participar en decisiones de arquitectura de datos y mejora continua de las soluciones existentes.
- Documentar los desarrollos y flujos de datos de forma clara y mantenible.
Requisitos:
- Al menos 2 años de experiencia en proyectos de Data Engineering o backend orientados a datos.
- Experiencia en Azure (Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake o Microsoft Fabric) o AWS.
- Experiencia programando en Python y SQL.
- Conocimientos de modelado de datos y arquitecturas tipo Data Lake / Data Warehouse / Lakehouse.
- Nivel intermedio de inglés.
¿Qué te ofrecemos?
- Contarás con un modelo de trabajo híbrido-flexible
- Podrás optar a un sistema de retribución flexible, servicio médico, seguro de salud, seguro de vida y accidente
- Contarás con un plan de formación a lo largo de tu trayectoria profesional
- Te desarrollarás en una cultura de feedback donde fomentar tu aprendizaje continuo
- Participarás si te interesa en programas de acción social y voluntariado de alcance nacional e internacional
- Disfrutarás de una oferta cultural y deportiva
¡Ahora la decisión es tuya! Si crees que este puesto está hecho para ti, haz clic en ´Solicitar´ y completa tu perfil para que podamos valorar tu solicitud. Si encajas en el perfil, nuestro equipo de captación se pondrá en contacto contigo para conocerte.
A partir de ahí te iremos guiando por nuestro proceso de selección y comenzará tu historia en Deloitte.
What impact will you make?
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad, no discriminando por motivos de sexo, expresión de género, raza, religión o creencias, origen étnico o nacional, discapacidad, enfermedad o condición de salud, predisposición genética a sufrir patologías, edad, ciudadanía, estado civil, orientación o identidad sexual, situación socioeconómica o cualquier otra condición o circunstancia personal o social.
Systems Engineer - Automotive
12 ene.IAV GmbH
Martorell, ES
Systems Engineer - Automotive
IAV GmbH · Martorell, ES
. Jira
Job-ID: Spain Technology -22860
Systems Engineer - Automotive
______
Berufserfahrene — Unbefristet
IAV Martorell
Diese Herausforderung Erwartet Dich
Wir suchen Absolvent:innen mit einem Master- oder Doktortitel in einem technischen Beruf, die bereit sind, sich in technische Themen zu vertiefen und Spaß an der Arbeit in einem interdisziplinären internationalen Team haben. Abhängig von Ihren aktuellen Fähigkeiten, Vorlieben und dem absolvierten Studium suchen wir die Stelle, die am besten zu Ihnen passt.
Deine Aufgaben
- Du erstellst Testspezifikationen und implementierst Testautomatisierungsroutinen
- Du planst und organisierst Testaktivitäten
- Du aktualisierst Fahrzeuge und Prototypen und passt HiL Testumgebungen an
- Du führst Testaktivitäten in Fahrzeugen, Prototypen und HiL Systemen durch, einschließlich Fehleranalyse und Erstellung von Testberichten
- Du analysierst und handhabst komplexe Prozesse und mechatronische Systeme
- Du erstellst modellbasierte Lösungsansätze mittels klassischer und neuer Methoden
- Du entwickelst neue regelungstechnische Konzepte mit Bezug zu physikalischen Problemstellungen
- Du setzt diese Konzepte in serienreife und für Steuergeräte geeignete Algorithmen um
- Du überprüfst detaillierte Software Entwürfe
- Du erstellst Softwarecode in C oder modellbasierten Softwarecode
- Du führst funktionale Softwaretests durch
- Du überprüfst Softwarecode oder modellbasierte Code Implementierungen
- Hochschulabsolventen oder Berufseinsteiger mit Master- oder Doktortitel in den Bereichen Steuerungstechnik, Elektronik, Mechatronik, Informationstechnologie o.ä.
- Gut strukturierter und sehr zielorientierter Arbeitsstil mit sehr guten zwischenmenschlichen und analytischen Kompetenzen
- Gutes Verständnis für Signalaufbereitung und -Verarbeitung
- Gute Kenntnisse in der Programmierung und in Programmiersprachen
- Selbstständige Koordination von Aufgaben in enger Zusammenarbeit mit dem Fachteam in Deutschland
- Kenntnisse bzw. praktische Erfahrungen mit folgenden Tools: Confluence, JIRA, CANOE, Diagnose- und Test-Management-Tools, TargetLink
- Grundlegendes Verständnis von SW-Testprozessen, Methodiken und HIL-Systemen
- Basiswissen über Fahrzeugarchitekturen/Fahrzeugnetzwerke und Systemtechnik
- Grundkenntnisse über das Testen eingebetteter Software (Black Box, Regression...)
- Grundkenntnisse über ASPICE
Verantwortung übernehmen statt Rädchen im Getriebe sein. Bei IAV vertrauen wir dir step by step immer wichtigere Aufgaben an. Dank Fachmentor:innen bist du nicht allein und kannst so mit den Projekten wachsen. Du arbeitest mit den großen Namen der Mobilitäts- und Forschungswelt zusammen. Und qualifizierst dich gezielt weiter, z.B. durch inhouse Seminare oder auf Kongressen.
Uns sind Vielfalt und Chancengleichheit wichtig. Für uns zählt der Mensch mit seiner Persönlichkeit und seinen Stärken.
Senior SAP SD DevOps Engineer
12 ene.BASF
Madrid, ES
Senior SAP SD DevOps Engineer
BASF · Madrid, ES
Agile Scrum DevOps Kanban
WELCOME TO BASF
Digitalization will be a true part of BASF´s DNA that creates new exciting customer experiences and business growth and drives efficiencies in processes. This is our digital VISION for BASF.
RESPONSIBILITIES
- Support gathering of requirements and creation of user stories.
- Design solutions and do configurations/customization.
- Support the technical consultants in functional topics.
- Prepare and execute functional tests.
- Maintain user documentation.
- Maintenance and Creation of Outputs via Adobe Form
- Collaborate with internal BASF partners.
- Support ongoing activities related to output. Work on tickets, this comprises analysis of the issues, implementation of solutions, instruction, and training of the affected user.
- Support change requests / projects with effort estimations.
- Active participation in Scrum events; proactive, self-organized pulling of tasks from an agile backlog.
- Support of the BASF Digital roadmap, helping GDS to identify, execute and implement customer-centric digital solutions in an actionable and measurable way.
QUALIFICATIONS
- Successfully completed studies in computer science, business informatics or a comparable qualification
- Minimum 4-6 years related working experience with complex SAP applications.
- Experience with S/4 HANA
- Good functional knowledge of processes in SAP SD / Order-To-Cash
- Good knowledge of SAP SD customization.
- Knowledge of SAP output technologies: Adobe Forms
- Working in an international environment, excellent English language skills
- Agile mindset, self-organized way of working.
Nice to have
- Experience with SAP Fiori
- Know-how of SAP Business Technology Platform (BTP)
- Know-how of other SAP modules like MM / FI / TM
- Experience with agile frameworks like Scrum or Kanban
- Good communication skills
- Good team player
WHAT WE OFFER
- A secure work environment because your health, safety and wellbeing is always our top priority.
- Flexible work schedule and Home-office options, so that you can balance your working life and private life.
- Learning and development opportunities
- 23 holiday days per year
- 5 additional days (readjustment)
- 2 cultural days
- A collaborative, trustful and innovative work environment
- Being part of an international team and work in global projects
- Relocation assistance to Madrid provided
At BASF, the chemistry is right
Because we are counting on innovative solutions, on sustainable actions, and on connected thinking. And on you. Become a part of our formula for success and develop the future with us - in a global team that embraces diversity and equal opportunities irrespective of gender, age, origin, sexual orientation, disability or belief.
DevOps Integration Expert
12 ene.Sanofi
Barcelona, ES
DevOps Integration Expert
Sanofi · Barcelona, ES
Agile TSQL Cloud Coumputing DevOps
- Location: Barcelona
Collaborative Platform Strategy and Program:
At Sanofi, we are committed to a digital transformation that integrates key external partners as native stakeholders within our operating model. We aim to transform our supply chain by enhancing collaboration with external partners such as CMOs, suppliers, 3PLs, and freight forwarders. The initiative supports Sanofi´s broader digital priorities by providing end-to-end visibility, boosting operational efficiency, and improving compliance. Key goals include streamlining operations, automating data collection and reporting, and fostering better decision-making while ensuring adherence to regulations.
The program´s ambitions focus on achieving excellence, increasing efficiency, and delivering superior service. Deliverables include enhanced visibility across the supply chain, improved delivery performance, optimized inventory levels, and standardized processes. By leveraging digital tools for intelligent automation and evolving collaboration with third parties, Sanofi aims to achieve a best-in-class supply chain that is responsive and aligned with its strategic objectives.
Main Responsibilities
Your mission is to develop and maintain scalable, secure integration solutions that connect Sanofi´s supply chain ecosystem with external partners - including suppliers, contract manufacturing organizations (CMOs), and logistics providers (3PLs/4PLs/LLPs).
This entry-level role emphasizes learning and professional growth. You will gain hands-on experience with SAP BTP integration technologies while collaborating with experienced engineers, Product Owners, business stakeholders, and external partners. Your work will help ensure seamless data flow, end-to-end supply chain visibility, and actionable intelligence across the enterprise.
You will play a key role in Sanofi´s digital transformation journey by supporting activities related to integration design, build, deployment, and operations. In addition, you will benefit from mentoring and training to build expertise in supply chain integration and cloud-based integration platforms.
Other Specific Responsibilities Include:
- Configure and develop SAP BTP solutions: Assist in designing and customizing workflows, integration services, and APIs to support supply chain collaboration.
- Design, develop, and maintain integration solutions between SAP BTP and external partners (suppliers, CMOs, logistics providers).
- Ensure seamless data flow and synchronization across Sanofi´s digital supply chain ecosystem, focusing on high availability and reliability.
- Collaborate with project teams to translate business requirements into effective integration solutions.
- Support testing activities including unit testing, integration testing, and user acceptance testing to validate functionality.
- Participate in troubleshooting integration issues, escalating where necessary, and learning best practices in problem resolution.
- Contribute to operational excellence by helping monitor performance and documenting integration processes.
- Learn and adopt Agile ways of working, participating in ceremonies and contributing to iterative delivery.
- Engage in continuous learning and knowledge sharing, building expertise in SAP BTP integration and end-to-end data flow management.
- Stay informed on emerging integration technologies, with guidance from senior team members, to bring new ideas for future enhancements.
About You
- Education: Bachelor´s degree (or equivalent) in Computer Science, Information Systems, Engineering, or related field. Recent graduates or early-career professionals are encouraged to apply.
- Experience: Internship, academic, or project exposure to cloud platforms, APIs, or integration technologies preferred; direct SAP BTP knowledge a plus but not required.
- Mindset: Curious, motivated, and eager to learn new technologies and supply chain concepts.
- Skills:
- - Basic understanding of integration concepts (APIs, data mapping, ETL, middleware)
- Exposure to SQL or relational databases is a plus
- Strong analytical and problem-solving abilities
- Effective communication and collaboration skills
- Ways of Working: Ability to work effectively in teams, within a matrix environment, and with global stakeholders. Capacity to work independently and proactively to take initiative.
- Growth Orientation: Self-starter with a proactive approach to professional development, supported by Sanofi´s training and mentoring programs.
- Language: Fluent in English (written and spoken).
- undefined
Pursue progress, discover extraordinary
Better is out there. Better medications, better outcomes, better science. But progress doesn´t happen without people - people from different backgrounds, in different locations, doing different roles, all united by one thing: a desire to make miracles happen. So, let´s be those people.
At Sanofi, we provide equal opportunities to all regardless of race, colour, ancestry, religion, sex, national origin, sexual orientation, age, citizenship, marital status, disability, or gender identity.
Watch our ALL IN video and check out our Diversity Equity and Inclusion actions at sanofi.com!
Pursue progress, discover extraordinary
Better is out there. Better medications, better outcomes, better science. But progress doesn´t happen without people - people from different backgrounds, in different locations, doing different roles, all united by one thing: a desire to make miracles happen. So, let´s be those people.
At Sanofi, we provide equal opportunities to all regardless of race, colour, ancestry, religion, sex, national origin, sexual orientation, age, citizenship, marital status, ability or gender identity.
Watch our ALL IN video and check out our Diversity Equity and Inclusion actions at sanofi.com!
Senior Data Engineer
12 ene.Ebury
Madrid, ES
Senior Data Engineer
Ebury · Madrid, ES
Python TSQL Cloud Coumputing REST Fintech Big Data Office
Ebury is a global fintech firm dedicated to empowering businesses to expand internationally through tailored and forward-thinking financial solutions. Since our founding in 2009, we´ve grown to a diverse team of over 1,700 professionals across 40+ offices and 29+ markets worldwide. Joining Ebury means becoming part of a collaborative and innovative environment where your contributions are valued. You´ll play a key role in shaping the future of cross-border finance, while advancing your own career in a dynamic, high-growth industry.
Senior Data Engineer
Madrid Office - Hybrid: 4 days in the office, 1 day working from home
Join Our Data Team at Ebury Madrid Office.
Ebury´s strategic growth plan would not be possible without our Data team and we are seeking a Senior Data Engineer to join our Data Engineering team!
Our data mission is to develop and maintain Ebury´s Data Platform and serve it to the whole company, where Data Scientists, Data Engineers, Analytics Engineers and Data Analysts work collaboratively.
As a Senior Data Engineer, you will work closely with the rest of the team to help model and maintain the Data Platform.
What we offer:
- Competitive salary and benefits package
- Discretionary bonus based on performance
- Continued personal development through training and certification
- We are Open Source friendly, following Open Source principles in our internal projects and encouraging contributions to external projects
Responsibilities:
- Be mentored by one of our outstanding performance team member along a 30/60/90 plan designed only for you
- Participate in data modelling reviews and discussions to validate the model´s accuracy, completeness, and alignment with business objectives
- Design, develop, deploy and maintain ELT/ETL data pipelines from a variety of data sources (transactional databases, REST APIs, file-based endpoints)
- Serve hands-on delivery of data models using solid software engineering practices (eg. version control, testing, CI/CD)
- Manage overall pipeline orchestration using Airflow (hosted in Cloud Composer), as well as execution using GCP hosted services such as Container Registry, Artifact Registry, Cloud Run, Cloud Functions, and GKE
- Work on reducing technical debt by addressing code that is outdated, inefficient, or no longer aligned with best practices or business needs
- Collaborate with team members to reinforce best practices across the platform
About you:
- 5+ years of data/analytics engineering experience building, maintaining & optimising data pipelines & ETL processes on big data environments
- Proficiency in Python and SQL
- Knowledge of software engineering practices in data (SDLC, RFC...)
- Stay informed about the latest developments and industry standards in Data
- Fluency in English
- As a plus:
• Experience with our modern Data stack tools
• Dimensional modelling/data warehousing concepts knowledge
• Spanish language
If you´re excited about this job opportunity but your background doesn´t match exactly the requirements in the job description, we strongly encourage you to apply anyway. You may be just the right candidate for this or other positions we have.
You can also connect with me on LinkedIn - Gabriella Cheston
#LI-GC2
#LI-HYBRID