¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraInformática e IT
925Comercial y Ventas
733Adminstración y Secretariado
515Transporte y Logística
459Desarrollo de Software
422Ver más categorías
Educación y Formación
377Comercio y Venta al Detalle
359Marketing y Negocio
328Derecho y Legal
255Diseño y Usabilidad
237Ingeniería y Mecánica
235Sanidad y Salud
132Industria Manufacturera
129Instalación y Mantenimiento
129Publicidad y Comunicación
127Construcción
113Recursos Humanos
96Artes y Oficios
69Contabilidad y Finanzas
69Hostelería
69Arte, Moda y Diseño
49Atención al cliente
49Producto
44Turismo y Entretenimiento
38Inmobiliaria
35Seguridad
31Banca
24Alimentación
22Cuidados y Servicios Personales
16Energía y Minería
12Farmacéutica
11Social y Voluntariado
9Telecomunicaciones
3Deporte y Entrenamiento
2Agricultura
1Seguros
1Ciencia e Investigación
0Editorial y Medios
0Technical Expert - Data AI
23 dic.Talan
Málaga, ES
Technical Expert - Data AI
Talan · Málaga, ES
Java Python Agile TSQL Azure NoSQL Scrum Docker Cloud Coumputing Kubernetes Scala Oracle Hadoop AWS R Kafka Spark Big Data Machine Learning Salesforce Office
Company Description
Talan - Positive Innovation
Talan is an international consulting group specializing in innovation and business transformation through technology. With over 7,200 consultants in 21 countries and a turnover of €850M, we are committed to delivering impactful, future-ready solutions.
Talan at a Glance
Headquartered in Paris and operating globally, Talan combines technology, innovation, and empowerment to deliver measurable results for our clients. Over the past 22 years, we´ve built a strong presence in the IT and consulting landscape, and we´re on track to reach €1 billion in revenue this year.
Our Core Areas of Expertise
- Data & Technologies: We design and implement large-scale, end-to-end architecture and data solutions, including data integration, data science, visualization, Big Data, AI, and Generative AI.
- Cloud & Application Services: We integrate leading platforms such as SAP, Salesforce, Oracle, Microsoft, AWS, and IBM Maximo, helping clients transition to the cloud and improve operational efficiency.
- Management & Innovation Consulting: We lead business and digital transformation initiatives through project and change management best practices (PM, PMO, Agile, Scrum, Product Ownership), and support domains such as Supply Chain, Cybersecurity, and ESG/Low-Carbon strategies.
We work with major global clients across diverse sectors, including Transport & Logistics, Financial Services, Energy & Utilities, Retail, and Media & Telecommunications.
Job Description
The Technical Expert - Data & AI is responsible for providing technical leadership, advanced expertise, and deep knowledge in data and artificial intelligence to design, build, optimize, and support data and AI platforms, pipelines, and architectures. The role acts as a technical reference within the CIO organization, ensuring that data and AI initiatives are robust, scalable, secure, and aligned with business strategy and the group´s data governance framework.
Key Responsibilities
Platform leadership, build, and maintenance:
Define standards, best practices, and frameworks for the construction, deployment, and maintenance of data and AI infrastructures (on-premises, cloud, or hybrid).
ML/AI model implementation and operations:
Participate in the implementation and deployment of machine learning, deep learning, and AI models, ensuring integrity, performance, monitoring, and ongoing maintenance.
Technical validation and tool evaluation:
Evaluate new technologies, tools, and platforms (open source, commercial, cloud) to optimize the data/AI ecosystem; lead proof-of-concepts (PoCs) and benchmarking activities.
Architecture definition and solution design support:
Support the design of data and AI technical solutions - including data pipelines, data lakes/warehouses, streaming, MLOps, and analytics platforms - to meet strategic objectives.
Integration and deployment:
Coordinate the integration of data and AI solutions with other corporate systems, ensuring compatibility, security, and efficiency.
Governance, security, and compliance:
Ensure solutions comply with data governance, security, privacy, and regulatory standards (e.g., data regulations, internal policies).
Technical support and mentoring:
Act as a technical point of reference by resolving questions from architects, data engineers, and data scientists; guiding and reviewing technical designs; and promoting best practices and standards.
Cross-functional collaboration:
Work closely with business, analytics, cybersecurity, infrastructure, and compliance teams to ensure alignment between business needs, regulations, and technical capabilities.
Documentation and technical communication:
Document architectures, processes, and technical decisions; communicate risks, technical decisions, and project status to the CIO and relevant stakeholders.
Continuous innovation:
Stay current with emerging trends in AI, big data, MLOps, automation, cost optimization, and performance. Promote piloting of new technologies when appropriate.
Qualifications
- Minimum of 5-8 years of relevant experience in advanced technical roles related to data, big data, cloud, AI, ML, or data engineering.
- At least 3 years of experience designing and architecting data/AI solutions in complex environments (large-scale data, security/regulatory constraints, corporate environments).
- Hands-on experience implementing data pipelines, data lakes/warehouses, ingestion processes, transformation, and batch and/or streaming processing.
- Experience deploying ML/AI models into production using MLOps best practices, including monitoring and maintenance.
Strong Technical Knowledge
Programming languages:
Python, SQL. Preferred: Scala, Java, R.
Platforms / Big Data / Cloud:
Experience with cloud services (AWS, Azure, GCP) or hybrid/on-prem environments. Knowledge of tools such as Spark, Databricks, Hadoop, Kafka, Airflow, Trino, etc.
Databases and modeling:
Relational and dimensional modeling; NoSQL databases (document, key-value, columnar); data lakes and data warehouses.
Machine Learning / AI / MLOps:
ML/AI frameworks, training and inference pipelines, orchestration, containers (Docker, Kubernetes), deployment, monitoring, and model versioning.
Infrastructure & automation:
Infrastructure as Code (IaC), containers, orchestration, CI/CD pipelines, and automation tools.
Security and compliance:
Knowledge of data governance regulations, data protection, encryption, access control, and security best practices.
Additional Information
What do we offer you?
- Hybrid position based in Malaga, Spain
- Possibility to manage work permits.
- Permanent, full-time contract.
- Smart Office Pack so that you can work comfortably from home.
- Training and career development.
- Benefits and perks such as private medical insurance, life insurance, Language lessons, etc
- Possibility to be part of a multicultural team and work on international projects.
If you are passionate about data, development & tech, we want to meet you!
Desarrollador/a Spark Scala
22 dic.CMV Consultores
Desarrollador/a Spark Scala
CMV Consultores · Cantabria, ES
Teletrabajo Scala AWS Spark Big Data
En CMV Consultores buscamos desarrolladores/as Spark Scala con 2-3 años de experiencia para un proyecto estable en el sector Banca para colaborar con uno de nuestros clientes más importantes.
Modalidad 100% teletrabajo y ubicación vinculada a Santander.
Funciones
Desarrollo y mantenimiento de procesos Big Data con Spark + Scala.
Tratamiento e integración de datos en entornos distribuidos.
Implementación de soluciones sobre AWS.
Colaboración con equipos técnicos del área de Banca.
Mejora, optimización y calidad del código.
Requisitos
Experiencia de 2-3 años con Spark y Scala.
Conocimientos en AWS.
Valorable experiencia previa en proyectos de Banca o entornos Big Data.
Capacidad para trabajo en equipo y resolución de problemas.
Beneficios
100% teletrabajo.
Proyecto estable en cliente líder del sector financiero.
Incorporación a un equipo técnico consolidado.
Salario competitivo según experiencia. (Máx 31K)
Si buscas un proyecto estable, 100% remoto y con tecnología puntera, este puede ser tu momento. ¡Súmate y da el siguiente paso en tu carrera!
Desarrollador/a Spark Scala
22 dic.Tuyú Technology
Málaga, ES
Desarrollador/a Spark Scala
Tuyú Technology · Málaga, ES
Scala AWS Spark
💻 ¡Impulsa tu carrera con TUYÚ Technology! 💻
Buscamos incorporar desarrolladores/as con experiencia en Spark Scala y conocimientos en AWS para un proyecto del sector bancario. Si tienes entre 2 y 3 años de experiencia esta puede ser tu ocasión.
📌 ¿Qué te ofrecemos?
- Contrato indefinido, apostando por tu crecimiento y continuidad.
- Trabajo principalmente en remoto, manteniendo la posibilidad de convocatorias presenciales puntuales en el centro de trabajo (Málaga).
- Participación en un proyecto del sector Banca con tecnologías de datos.
🔍 ¿Qué buscamos en ti?
- Entre 2 y 3 años de experiencia como desarrollador/a en Spark Scala.
- Conocimientos en AWS.
- Residencia en Málaga o alrededores (requisito necesario).
✨ ¿Qué podemos valorar?
- Experiencia previa en proyectos del sector bancario.
- Capacidad de trabajo en equipo y orientación a resultados.
🚀 ¿Te interesa formar parte de un equipo tecnológico en crecimiento? Envíanos tu CV y demos forma a tu próximo reto profesional. 🚀
Data Engineer
20 dic.Talan
Málaga, ES
Data Engineer
Talan · Málaga, ES
. TSQL Scala IoT Spark Big Data Office
Passionate about digital, data, IoT or AI and willing to join a dynamic and ambitious team on a human scale?
For more than 15 years, we have been advising companies and administrations and supporting them in the implementation of their transformation projects in Brussels and abroad.
To do so, we rely both on technological leverage and on the strength of our DNA based on collective intelligence, agility and entrepreneurial spirit.
With a presence on five continents and more than 4,000 employees, our goal is to reach more than a €1 billion revenue by 2024. Innovation is at the heart of our development and we are involved in areas linked to the technological changes of major groups, such as Big Data, IoT, Blockchain and Artificial Intelligence.
Job Description
Participation in Markets Data Hub tasks as a Data Engineer in the definition and automation of processes developed using Big Data technologies (Spark Scala, Databricks, Airflow) in Market Risk. The key responsibilities will not be those of a Spark Scala developer, but rather process definition, data preparation, request creation following the department's procedures for process automation and configuration, and execution and validation of integrated tests. Process automation will be achieved through software deployments via Job as a Code.
Qualifications
Required skills: Min 3y experience:
- Experience in technology-related projects
- High knowledge of SQL statements
- Experience in ETL design and data models
- Knowledge of Control-M and Job as Code
- Experience in testing and data validation
Desirable skills:
- Technical knowledge of programming languages (Scala) and Big Data technologies (Spark Scala, Databricks, Airflow)
- Experience in the banking sector
- Knowledge of financial products or market risk metrics
- Permanent, full-time contract
- Smart Office Pack so that you can work comfortably from home.
- Training and career development
- Benefits and perks such as private medical insurance, life insurance, lunch and travel cards as part of the flexible remuneration package
- Possibility to be part of a multicultural team and work on international projects
- Hibrid position based in Malaga, Spain
- Possibility to manage work permits if necesary
Data Architect
16 dic.GFR Technologies SE
Data Architect
GFR Technologies SE · Barcelona, ES
Teletrabajo API TSQL Azure Docker Cloud Coumputing Kubernetes Scala AWS PostgreSQL Kafka Spark SQL Server
GFT es una compañía pionera en transformación digital. Diseñamos soluciones de negocio centradas en la inteligencia artificial (AI-Centric), modernizamos infraestructuras de TI y desarrollamos sistemas core de nueva generación para líderes del sector bancario, asegurador e industrial. En estrecha colaboración con nuestros clientes, desafiamos los límites para ayudarles a alcanzar todo su potencial.
¿Qué estamos buscando?
Actualmente queremos incorporar a nuestra compañía a un/a Data Architect con experiencia en Spark y Scala. Buscamos una persona entusiasta y dinámica dispuesta a empezar y crecer en un entorno multicultural, motivador y desafiante.
Tus principales responsabilidades son:
- Diseñar y mantener la arquitectura de referencia de datos (batch y streaming).
- Definir estrategias de ingesta (CDC, API, streaming), almacenamiento (Data Lake, Data Warehouse, Lakehouse) y orquestación.
- Asegurar la calidad, integridad y disponibilidad de los datos a lo largo de su ciclo de vida.
- Liderar la adopción de patrones y frameworks de integración de datos (ETL/ELT, Data Mesh, Event-Driven).
- Colaborar con equipos de ingeniería, analítica y negocio para definir modelos de datos y necesidades de explotación.
- Supervisar la seguridad, gobernanza y cumplimiento normativo (GDPR, políticas de acceso, catalogación).
- Evaluar nuevas tecnologías y proponer mejoras de rendimiento, coste o mantenibilidad.
- Liderazgo técnico y coaching
Requisitos deseados:
-Experiencia en el diseño de arquitecturas distribuidas y escalables.
- Procesamiento batch y streaming.
- Integración de datos (CDC, APIs, colas, mensajería, ETL/ELT).
- Patrones de Data Lake / Data Warehouse / Lakehouse / Data Mesh.
- Principios de seguridad, gobierno y calidad de datos.
- Modelado de datos relacional y dimensional.
Valorable:
Conocer o aportar experiencia en las siguientes tecnologías:
- Cloud Platforms: Azure (Data Factory, Synapse, Databricks, Event Hub), AWS (Glue, Redshift, S3, Kinesis), GCP (BigQuery, Dataflow, Pub/Sub).
- Procesamiento de datos: Spark, Databricks, Flink, Beam, Airflow.
- Bases de datos y almacenamiento: SQL Server, PostgreSQL, Snowflake, Delta Lake, Parquet, BigQuery.
- Ingesta y streaming: Kafka, Debezium, NiFi, AirByte, Event Hub, Pub/Sub.
- Gobernanza y catálogo: Unity Catalog, Collibra, Anjana, OpenMetadata, Purview.
- Contenedores y orquestación: Docker, Kubernetes.
Competencias personales:
-Capacidad de trabajo en equipo y comunicarse con áreas técnicas y no técnicas.
-Atención al detalle y enfoque en la calidad.
-Organización y gestión eficiente del tiempo.
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas.
GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo
¡Únete a nuestro equipo global!
Als Partner für IT-Beratung und Software-Entwicklung sind wir auf die digitale Transformation unserer Kunden aus den Bereichen Finanzen, Versicherungen und Industrie spezialisiert. Unsere rund 700 Talente in Deutschland entwickeln mit modernsten Technologien nachhaltige Lösungen.
Qué ofrecemos
- Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos.
- Formación y Desarrollo: Plan personalizado, programas formativos.
- Beneficios Sociales: Seguro vida, apoyo teletrabajo.
- Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible.
- Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas.
- Programa de Recomendaciones.
- Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito.
- Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras.
- Cultura corporativa internacional.
Data Engineer
15 dic.UST
Data Engineer
UST · Madrid, ES
Teletrabajo Java Agile TSQL Scrum Jenkins Scala Git Hadoop Kanban Kafka Spark Big Data Tableau
Role description
¡Seguimos buscando talento...y nos encantaría que te unieras a nuestro equipo!
Para que nos conozcas algo mejor, UST es una multinacional norteamericana certificada como Top Employer y Great Place to Work con más de 35.000 empleados a nivel global y con presencia en más de 35 países. Somos líderes en servicios de tecnología digital y proporcionamos soluciones tecnológicas de gran alcance a grandes compañías.
¿Qué buscamos?
Para uno de nuestros principales clientes del sector Banca. Nos encontramos en la búsqueda de un Data Engineer con experiencia trabajando con SQL y Spark.
Funciones
Diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
Gestionar y optimizar la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad.
Colaborar con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación.
Realizar análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento.
Desarrollar e implementar flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio.
Qué esperamos de ti:
Al menos 3 años de experiencia como Data Engineer.
Experiencia en Big Data: conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka.
Dominio avanzado de SQL para la gestión y optimización de bases de datos.
Sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts.
Experiencia con plataformas Cloudera en la nube.
Experiencia en la creación de pipelines de datos con herramientas de automatización y orquestación con Oozie.
Familiaridad con herramientas de versionado de código y CI/CD (Git, Jenkins).
Familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial. Otras Competencias
Experiencia en la aplicación de metodologías Agile (Scrum, Kanban) para el desarrollo de proyectos y entrega continua.
¿Qué te ofrecemos?
23 días laborables de vacaciones y el 24 y 31 de diciembre.
Numerosos beneficios sociales (seguro médico, ayuda al teletrabajo, seguro de vida y seguro de accidentes).
Programa de Retribución Flexible (tarjeta comida, cheques guardería, tarjeta transporte, clases de inglés online, seguro médico para tu familia...).
Acceso gratuito a varias plataformas de formación.
Estabilidad y carrera profesional.
Tenemos implantado un plan de compensación de referencias internas.
Posibilidad de elección de percibir tu salario en 12 o 14 pagas.
Medidas de conciliación (horario flexible, teletrabajo, asesoramiento de especialistas (psicólogo, nutricionista, entrenador personal), jornada intensiva los viernes y en verano según proyecto).
Plataforma UST Club descuentos y descuentos en gimnasios.
Si quieres conocer más, no dudes en inscribirte y nos pondremos en contacto contigo para ampliarte información de la posición ¡Te estamos esperando!
En UST nos comprometemos con la igualdad de oportunidades en nuestros procesos de selección y no realizamos ningún tipo de discriminación por razón de raza, género, discapacidad, edad, religión, orientación sexual o nacionalidad. Estamos comprometidos con la discapacidad y apostamos por la incorporación de personas con certificado de discapacidad.
Data Engineer
9 dic.Michael Page
Barcelona, ES
Data Engineer
Michael Page · Barcelona, ES
Java Python Azure Cloud Coumputing Scala AWS Terraform Kafka Spark
Perfil buscado (Hombre/Mujer)
• Design and implement scalable data pipelines from scratch using cloud-native patterns on AWS.
• Build curated, self-service data products that empower analysts, scientists, and product teams.
• Shape platform architecture by contributing to decisions on tooling, patterns, and technical direction.
• Establish engineering standards for Infrastructure as Code (IaC), CI/CD, testing, monitoring, and documentation.
• Enable self-service capabilities for internal teams, ensuring reliable and accessible data.
• Own end-to-end solutions, including ingestion, transformation, and delivery for both batch and streaming systems.
• Operate and improve production systems, monitoring performance and troubleshooting issues.
• Shape a cutting-edge data platform / Work with modern cloud-native technologies
• Enjoy great benefits and flexibility
The Successful Candidate
• Has strong foundations in data engineering, including data modeling, pipeline design, and data quality.
• Demonstrates solid programming skills in Python, Java, or Scala, writing clean and testable code.
• Brings experience with cloud platforms (AWS, GCP, or Azure) and distributed systems.
• Is familiar with Spark or similar frameworks for processing data at scale.
• Possesses a collaborative mindset, able to explain technical concepts and work effectively in a team.
• Shows curiosity and pragmatism, eager to learn new technologies while delivering practical solutions.
Bonus Skills
• Knowledge of Infrastructure as Code (Terraform, CloudFormation).
• Experience with streaming/real-time data (Flink, Kafka, Kinesis).
• Background in platform engineering or building shared services.
• Understanding of data product thinking or domain-driven design.
• Contributions to open-source projects or technical writing.
• Participation in migration or greenfield platform projects.
A leading international media and entertainment group with a strong presence in streaming, TV, and radio. The organization focuses on delivering high-quality content and innovative digital experiences to millions of users worldwide. With headquarters in Northern Europe and a growing tech hub in Barcelona, the company combines creativity and technology to shape the future of entertainment. Its culture emphasizes collaboration, continuous learning, and cutting-edge solutions, offering employees the chance to work on impactful projects in a dynamic, global environment.
• Competitive benefits package including health insurance, meal vouchers, and flexible remuneration.
• 30 days of paid vacation and flexible working hours with a hybrid work model.
• Continuous learning and development opportunities, with a strong learning culture and upskilling support.
• Innovative environment featuring annual Hack Days to foster creativity and technical experimentation.
• Access to premium entertainment services, including unlimited streaming of series, movies, and live events.
• A dynamic, international tech hub in Barcelona, offering collaboration with global teams and cutting-edge projects.
Michael Page
Galicia, ES
Internal Audit & Risk (Galicia)
Michael Page · Galicia, ES
Java Python TSQL Azure Scala R Excel Power BI
- Inglés alto
- Mínimo 7 años de experiencia en puesto similar.
¿Dónde vas a trabajar?
Importante empresa sector textil está buscando un/a Internal Audit basado en Galicia. El candidato ideal tendrá mínimo 7 años de experiencia como auditor externo o interno. valorable experiencia previa en Big4. Imprescindible tener un nivel alto de inglés. MUY valorable dominio de las herramientas Azure Databricks, Power BI y lenguajes de programación SQL, Python. Imprescindible experiencia gestionando equipos. Posición 100x100 presencial.
Descripción
Reportando a la CAO el candidato seleccionado será responsable de las siguientes funciones;
- Realizar la evaluación de riesgos de los procesos a auditar y definir los programas de trabajo y pruebas de auditoría que permitan concluir sobre la gestión de riesgos, el entorno de control y gobierno de los procesos auditados.
- Elaboración del informe y presentación de los resultados de las auditorías a la Dirección, y a las áreas y departamentos auditados
- Consecución de implantación de los planes de acción que permitan mejorar el entorno de control del proceso.
- Establecer un modelo de comunicación periódica con la dirección y principales stakeholders de los procesos, con el objetivo de identificar riesgos de la compañía y potenciales proyectos de auditoría y/o consultoría.
- Participar en proyectos de Consultoría y/o Grupos de Trabajo en colaboración con las áreas.
- Asesorar sobre riesgos emergentes, deficiencias de control y otros asuntos significativos a la Dirección.
¿A quién buscamos (H/M/D)?
- Grado en ADE, Economía, Finanzas o similar. Valorable Máster.
- Nivel avanzado de Excel.
- Nivel Avanzado de Inglés.
- Mínimo 7 años en un puesto de auditoría
- Experiencia previa gestionando equipo
- Experiencia de trabajo con empresas multinacionales globales.
- Excelentes habilidades de comunicación oral y escrita en inglés
- Capacidad para trabajar bajo presión y cumplir plazos ajustados.
- Diligente con gran atención al detalle
- Sólida capacidad de toma de decisiones
- Considerando el alto nivel de digitalización de la compañía, se requiere conocimiento y experiencia en análisis de datos y comprensión de los riesgos tecnológicos.
- Capacidad para recolectar, analizar e interpretar grandes volúmenes de datos, y dominio de las tecnologías de la Información: Conocimientos en redes, ciberseguridad, y sistemas operativos.
- Dominio de las herramientas Azure Databricks, Power BI y lenguajes de programación SQL, Python, R y Scala o Java.
¿Cuáles son tus beneficios?
- Oportunidades de carrera y desarrollo profesional
- Banda salarial 65.000€ - 80.000€ + Bonus + Beneficios
- La oferta final dependerá de la valía y experiencia demostrada por el candidato a lo largo del proceso de selección
- Posición 100% presencial
- Ubicación: Galicia