¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraTransporte y Logística
1.274Comercial y Ventas
982Adminstración y Secretariado
856Informática e IT
789Educación y Formación
514Ver más categorías
Industria Manufacturera
464Comercio y Venta al Detalle
444Ingeniería y Mecánica
429Instalación y Mantenimiento
359Derecho y Legal
316Desarrollo de Software
295Marketing y Negocio
241Arte, Moda y Diseño
234Hostelería
156Diseño y Usabilidad
136Sanidad y Salud
125Artes y Oficios
108Alimentación
102Construcción
97Recursos Humanos
93Publicidad y Comunicación
90Atención al cliente
86Contabilidad y Finanzas
84Cuidados y Servicios Personales
44Farmacéutica
42Producto
33Seguridad
29Inmobiliaria
27Banca
26Turismo y Entretenimiento
23Energía y Minería
22Social y Voluntariado
10Telecomunicaciones
9Deporte y Entrenamiento
5Seguros
4Agricultura
0Ciencia e Investigación
0Editorial y Medios
0Apache Hadoop
WikipediaData Analyst
18 may.Valid
Madrid, ES
Data Analyst
Valid · Madrid, ES
Java MySQL MongoDB Python TSQL Azure Cloud Coumputing Scala Hadoop AWS PostgreSQL Kafka Spark Big Data Office
If you have a passion for technology and thrive on innovative and diverse projects, you've found your ideal destination. If you don't know us yet, we are a global technology provider that offers a complete portfolio of solutions in Payment, Mobile and Identity Solutions. With a rich history spanning 65 years of global experience, we have built a solid legacy that continues to grow. Comprising over 4,000 dedicated professionals across 16 countries, we collaboratively work towards creating a more trustworthy and secure world.
Our vertical offers solutions for the Telecommunications market, such as SIM Cards, eSIMs, Subscription Management, iSE, to secure connectivity and guarantee interoperability, connecting people, companies, and objects efficiently and with secure processes.
We are actively seeking a passionate Data Analyst ready to embark on a journey of continuous learning and professional growth with our team. Based in our Madrid office, you will play a crucial role in designing, developing, and maintaining the architecture and infrastructure necessary for extracting, transforming, and loading (ETL) data from various sources.
The ideal candidate will have a recent background in data engineering and some expertise in designing and data pipelines management.
Key job responsibilities:
- Data Architecture: Design, implement, and maintain scalable and robust data architecture to support the organization's data needs. Collaborate with analysts, and other stakeholders to understand data requirements and translate them into technical specifications.
- ETL Development: Develop, optimize, and maintain ETL processes to ensure the efficient and accurate flow of data from source systems to data warehouses. Implement data cleansing, transformation, and enrichment techniques to ensure data quality and consistency.
- Data Warehousing: Optimize data warehouse structures for fast querying and reporting. Work with large datasets and implement strategies for partitioning, indexing, and optimizing query performance.
- Data Integration: Integrate data from various sources, both internal and external, ensuring seamless data flow and consistency. Implement real-time data integration solutions to support business needs.
- Data Modeling: Design and implement data models that align with business requirements and support analytical processes. Ensure data models are scalable, flexible, and meet performance requirements.
- Monitoring and Maintenance: Implement monitoring systems to proactively identify and address data pipeline issues. Perform regular maintenance, updates, and optimizations to enhance data pipeline performance.
If you want this position to be yours, we would like you to have the following:
- Fresh graduated in computer science, data science, or a related field.
- Proficient in English, both verbally and in writing.
- Strong programming skills in languages such as Python, Java, or Scala.
- Proficiency in SQL and experience with database systems (e.g., PostgreSQL, MySQL, MongoDB).
- Knowledge in big data technologies (e.g., Hadoop, Spark, Kafka).
- Knowledge of data warehousing concepts and technologies (e.g., Snowflake, Redshift).
- Familiarity with cloud platforms such as AWS, Azure, or Google Cloud.
- Excellent problem-solving and analytical skills.
- Strong communication and collaboration skills.
What do we offer?
- Join our team Valid by entering into technological and innovative projects within multicultural and multidisciplinary teams.
- Flexibility. We have flexible hours and possibilities of working from home to improve the work-life balance of our employees.
- We care about your well-being. You will have private medical insurance
- Do you need a break? You will find our cafeteria at your disposal
If you believe this opportunity is a good fit for you, please either apply through LinkedIn or send your application to: [email protected]
Join this great team and be part of our story!
Valid creates an inclusive environment for all employees. We are committed to building a company that reflects the diversity of the world that means fighting for equal opportunities based on a responsible and inclusive management of its human team with actions as non-discrimination concerning sex, age, race, sexual orientation, religion, education, social status, culture, or special needs such as illness or disability.
arelance
Madrid, ES
Analista de Datos (Python PySpark)
arelance · Madrid, ES
Python Scala Hadoop AWS Big Data
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento buscamos a un/a profesional con experiencia en proyectos de Big Data y Análisis de Datos (Python).
¿Qué buscamos en ti?
- Al menos un año y medio de experiencia en análisis de datos Python
- Experiencia con PySpark o Scala
- Experiencia trabajando con DataLakes – Hadoop
- Conocimiento en desarrollo de ETLs
- Muy valorable experiencia en AWS
- Disponibilidad para trabajar en modalidad híbrida (Madrid, Zona Norte)
¿Qué ofrecemos?
- Modalidad de trabajo híbrida
- Acceso a formación
- Contrato indefinido
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
***Sólo se valorarán candidatxs con permiso de trabajo y residencia***
BE TALENT BBVA: Data Program V
15 may.BBVA
Madrid, ES
BE TALENT BBVA: Data Program V
BBVA · Madrid, ES
Python Agile Scala Hadoop R Spark Machine Learning Tableau
Crees que puedes contribuir a lograr el objetivo de BBVA desarrollando soluciones y servicios que aporten valor a sus clientes y a la sociedad?
Nuestra misión es transformar BBVA en una organización cuya toma de decisiones esté basada en datos, los cuales sean seguros, regulados y fiables.
¡Únete a Be Talent BBVA: Data Program y desarrolla todo tu potencial!
En este programa, podrás desarrollar tus habilidades y talento, además de formar parte de una comunidad en donde creamos oportunidades de crecimiento.
Si te has graduado recientemente o estás a punto de hacerlo, eres una persona comprometida y quieres vivir una experiencia única en una entidad financiera líder en la transformación digital del sector, ¡queremos contar contigo!
Como Data Scientist Analyst, te unirás a una de nuestras áreas y tu objetivo principal será contribuir a traducir las necesidades del negocio en desafíos que se resuelvan por medio de la extracción y el procesamiento de datos. Tus objetivos profesionales, experiencia, habilidades y preferencias se tendrán en cuenta para que, en la medida de lo posible, coincidan con la asignación del área.
Conoce más sobre BBVA aquí: https://www.bbva.com/es/
Sobre el Puesto:
Ofrecemos oportunidades para dos tipos de perfiles diferenciados, entre los cuales se hará la asignación:
- Core Bancario: se enfoca en construir engines, modelos econométricos y algoritmos matemáticos para la solución de problemas de negocios en las áreas core del Banco.
- Áreas de aplicación en BBVA: Finanzas, Global Risk Management, Auditoría Interna.
- Desarrollo de producto: se enfoca en aplicar técnicas avanzadas de análisis y machine learning para desarrollar productos que ayuden a transformar el negocio.
- Áreas de aplicación en BBVA: AI Factory (Data), Corporate & Investment Banking: Banking, Corporate & Investment Banking: Global Markets, Client Solutions, Engineering.
Tareas en común para ambos perfiles:
- Colabora en la planificación de sprints, las daily meetings, demos y realiza las retrospectivas correspondientes. Trabajo en metodologías agile.
- Con el apoyo y liderazgo de Managers, Expert o Associate Data Scientist, desarrolla algoritmos de exploración, análisis y procesamiento de datos, estadísticos y de machine learning, con múltiples orígenes y formatos.
- Realizar tareas de limpieza y preparación de datos.
- Aplicar los estándares de desarrollo y de calidad definidos por la disciplina en: análisis exploratorio, entrenamiento de modelos, selección de modelos analíticos y puesta en producción, conforme a los requerimientos de negocio y regulatorios.
- A través de la Community of Practice (CoP), se mantiene al día con la última tecnología, herramientas, software, técnicas y métodos, identificando los casos de uso idóneos para las nuevas metodología propuestas.
- Colabora activamente en el desarrollo de la disciplina de Analítica Avanzada, compartiendo conocimiento, y colaborando en la formación de otros científicos de datos.
- Evaluar de manera regular el uso y el funcionamiento adecuado de los modelos, y es responsable del control del versionado.
- Participa activamente en las dinámicas, meetups, que se definen en la disciplina y especialidad.
Tareas específicas del perfil de Core Bancario:
- Auditorías.
- Validación de modelos.
- Análisis estadísticos y predictivos.
- Parametrización de riesgos.
- Modelos econométricos.
- Proyecciones de capital.
Tareas específicas del perfil de Desarrollo de Producto:
- Modelos de aprendizaje automático.
¿Por qué deberías unirte al programa?
- Empezarás en septiembre de 2024, firmarás un contrato indefinido a jornada completa y desarrollarás tu rol desde las oficinas de la Ciudad de BBVA, en Madrid.
- Modalidad semipresencial: formato híbrido de trabajo (40% en remoto y 60% presencial por trimestre).
- Serás parte de un equipo con el que explorarás, analizarás y tomarás decisiones en los proyectos estratégicos globales de BBVA, así como creando una red de contactos.
- Recibirás formación durante los primeros meses de trabajo enfocada al conocimiento de negocio, metodologías y plataforma de trabajo.
- Tendrás acceso a una formación continua, así como a herramientas y recursos de gran calidad con los que podrás poner en práctica tus habilidades en equipos multidisciplinares.
- Potenciarás las habilidades y conocimientos que impulsarán tu carrera profesional.
- Formarás parte de la comunidad de “BE TALENT BBVA”: tendrás un “buddy” asignado durante el programa, e incluso antes de comenzar.
- Recibirás evaluaciones trimestrales y feedback sobre tu desarrollo.
- Tendrás acceso a los competitivos Beneficios Sociales BBVA y a un amplio abanico de Servicios Ciudad BBVA.
Descubre si Be Talent BBVA: Data Program V es para ti:
Sobre ti:
- Capacidad para trabajar en equipo.
- Te gusta participar en proyectos y asumir responsabilidades.
- Tienes pasión por las nuevas tecnologías.
- Te identificas con la misión y los valores de BBVA.
Sobre tus conocimientos:
- Requisitos en común para Core Bancario:
- Grado en Estadística, Matemáticas, Actuariales, Informática.
- Deseable un Máster en Estadística.
- Requisitos en común para Desarrollo de Producto:
- Grado en Ciencia de Datos, Estadística, Matemáticas, Ingeniería, Actuariales, Informática.
- Deseable un Máster en Data Science.
- Conocimientos de modelización.
- Requisitos en común para ambos perfiles:
- Si te has graduado no hace más de dos años o estás a punto de hacerlo.
- Si hablas inglés con fluidez (nivel B2 mínimo / C1 deseable).
- Si cuentas con un excelente expediente académico.
- Conocimientos en álgebra lineal, estadística, econometría, análisis de variables, limpieza y preparación de datos.
- Conocimientos de programación preferentemente en Python y se valora el que sepan R y Scala, programación paralela en Spark.
- Experiencia en diseño y manejo de bases de datos, cruces, joins y queries, en entornos como Hadoop.
- Uso avanzado de herramientas de BI como Microstrategy, Tableau, DOMO, etc. y librerías avanzadas de visualización de datos como (ggplot, matplotlib, plotly, bokeh).
- Sin experiencia laboral previa, aunque se valora positivamente aquellas personas que han trabajado o realizado trabajos de prácticas alrededor de un año.
- Será requisito indispensable el estar en posesión del correspondiente permiso de residencia y trabajo para suscribir el contrato de trabajo con BBVA en España.
Cronograma previsto del proceso de contratación:
- Inscripción.
- Entrevista telefónica.
- Realización de 3 Pruebas online (pruebas psicotécnicas, de conocimientos en Data y de inglés).
- Entrevista Personal online.
- “Datathon” – Dinámica Grupal.
- Comunicación de las decisiones finales del proceso de selección (julio).
- Inicio del programa: 2 de septiembre de 2024.
Fecha límite para aplicar: 28 de mayo 2024
En BBVA estamos comprometidos a crear un ambiente de trabajo inclusivo y diverso, donde todas las personas puedan sentirse valoradas y respetadas, independientemente de su raza, sexo, edad, condición sexual o país de origen. Creemos que la diversidad enriquece nuestra cultura corporativa, y nos ayuda a ofrecer mejores servicios a nuestros clientes y a la sociedad en general. Nuestra política de diversidad e inclusión abarca todas las áreas de la empresa, desde la selección y contratación de empleados hasta su desarrollo profesional y la promoción de la igualdad de oportunidades en el lugar de trabajo.
Business Intelligence Lead
13 may.The Cocktail
Business Intelligence Lead
The Cocktail · Madrid, ES
Teletrabajo Python TSQL Azure Cloud Coumputing Hadoop AWS Big Data Power BI Tableau SQL Server
Éste es el reto.
Buscamos una persona especialista en Business Intelligence con + 6 años de experiencia en análisis de datos de negocio y su visualización en reporting y cuadros de mando, que tenga ganas de trabajar junto a nuestros/as compañeros/as de Data Engineer y Data Science desde una perspectiva más técnica.
Entre otras cosas, esto es lo que harás.
- Tendrás interlocución directa con los clientes para gestionar las expectativas, y llevar a buen puerto la consecución del proyecto.
- Traducirás necesidades de negocio de los usuarios en diseños de proyectos de Analytics, en diferentes industrias y áreas funcionales.
- Diseñarás e implementarás proyectos de Reporting y Dashboards, cubriendo el end-to-end del proceso desde la ETL hasta la visualización.
- Utilizarás herramientas de visualización como Power BI, Data Studio, Tableau, Qlik Sense y Datorama entre otras.
- Trabajarás con bases de datos y cloud data warehouse como BigQuery y SQL Server.
- Participarás en el diseño e implementación de ETLs, modelos de datos y modelos analíticos.
- Trabajar mano a mano con el equipo de Data Engineering, Data Strategy y Data Science.
- En algunos casos, dependiendo del tamaño del proyecto, tendrás la posibilidad de gestionar una parte del equipo.
Además, cuando lleves un tiempo aquí esperamos que seas capaz de:
- Comprender y utilizar lenguajes de programación como Python.
- Tener conocimiento y experiencia en tecnologías de Big Data (ecosistema Hadoop y principales distribuciones) así como sobre entornos de computación en la nube (AWS, Google Cloud, Azure).
¿Cómo es la experiencia en The Cocktail?
- Modelo de trabajo basado en la autorresponsabilidad y la autogestión con horario y teletrabajo flexibles.
- Buscamos la excelencia/mejora en lo que hacemos, generando un ambiente colaborativo. Nuestra filosofía es 70-20-10 (70% se aprende de la experiencia, 20% de mentores/referentes y 10% de formación reglada).
- Podrás disfrutar de 25 días de vacaciones al año repartidos entre verano y Navidad, sobre todo. También te regalamos Nochebuena y Nochevieja.
- Paquete de ventajas sociales y posibilidad de retribución flexible.
- No tenemos dress code. Ven como quieras a trabajar.
- Ser parte de una compañía con alma: tenemos iniciativas de apoyo a la maternidad (una sala de lactancia en la oficina y programas para mamás y papás), la sostenibilidad (políticas zero waste), la igualdad de género y diversidad (iniciativas de visibilización e inclusión del colectivo LGTB+, colaboraciones para disminuir la desigualdad social...).
- Descuentos y múltiples ventajas para tu ocio y día a día.
En The Cocktail pretendemos ser un referente en talento y calidad humana, y sólo lo conseguiremos siendo una compañía abierta y diversa, por eso tenemos un Código de Conducta que refleja nuestras expectativas de las personas que participan en la empresa. Ofrecemos un entorno acogedor para todos, independientemente de su identidad o expresión de género, orientación sexual, capacidad, origen, religión, estatus socioeconómico…
Próximos pasos:
Si has llegado hasta aquí es porque hemos conseguido llamar tu atención ;)
Apúntate a la oferta y el equipo de People echará un vistazo a tu CV. Si coincide con lo que buscamos, recibirás una llamada para conocernos mejor, que podamos contarte más sobre The Cocktail y sobre el rol.
Nuestros procesos de selección suelen tener alrededor de dos o tres entrevistas, y es posible que en algún momento queramos verte en acción y te propongamos un reto técnico. Al final del proceso charlaremos acerca de las condiciones salariales del puesto, una vez te conozcamos bien y sepamos cuánto puedes aportar.
Si necesitas un tip para el proceso: simplemente queremos que seas tú.
¿Te vienes?
arelance
Desarrollador/a Cloudera Platform
arelance · Málaga, ES
Teletrabajo Hadoop Spark Big Data
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento buscamos profesionales con experiencia en Cloudera Data Platform y Cloudpak de IBM desde 1 a 5 años.
¿Qué buscamos en ti?
- Experiencia demostrable trabajando con Cloudera Data Platform y Cloudpak de IBM durante al menos 2 años.
- Conocimientos sólidos de Hadoop, Spark, Hive, HBase y otras tecnologías de Big Data.
- Experiencia en el desarrollo de aplicaciones distribuidas y escalables en entornos de producción.
- Capacidad para trabajar de manera independiente y en equipo en un entorno ágil.
- Excelentes habilidades de comunicación verbal y escrita.
- Orientación hacia el aprendizaje continuo y la mejora personal y profesional.
Funciones:
- Diseñar, desarrollar e implementar soluciones utilizando Cloudera Data Platform y Cloudpak de IBM.
- Colaborar estrechamente con otros miembros del equipo para comprender los requisitos del proyecto y traducirlos en soluciones técnicas efectivas.
- Participar en el diseño y la arquitectura de sistemas basados en la plataforma de datos de Cloudera y la plataforma de contenedores de IBM Cloudpak.
- Realizar pruebas unitarias, revisar el código y garantizar la calidad del software entregado.
- Investigar y evaluar nuevas tecnologías y herramientas que mejoren la eficiencia y la escalabilidad de nuestros sistemas.
- Proporcionar orientación y apoyo técnico a los miembros más junior del equipo.
¿Qué ofrecemos?
- Incorporación en un proyecto estable
- Horario: de L-J de 09:00 a 19:00, V - 8:00 a 14:30, con jornada intensiva desde el 1 de julio al 15 de septiembre.
- Contrato indefinido en Arelance
- Acceso a formación
- Modalidad: remoto 100% desde España
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
Datastage Developer
5 may.The Whiteam
Datastage Developer
The Whiteam · Madrid, ES
Teletrabajo Agile TSQL Linux Scala Git Oracle Hadoop Big Data
Hola Comunidad IT, el fin de semanase acerca y enThe Whiteam tenemos grandesproyectos emocionantes. Pero antes de sumergirnos en ellos, queremos ofrecerte una oportunidad inigualable .
En estos momentos estamos en la búsqueda de: Una persona con experiencia enData Engineer / Datastage developer, y conInglés B2 y Francés B1.
Conocimientos Imprescindibles : DataStage 11.7, Linux Red Hat / Shell Unix / MobaXterm / Putty. Oracle / SQL Developer, Big data: Hadoop, Scala, entre otras, Flows CFT / GPG Git Agile
Conocimientos deseables: Experiencia previa en entidades financieras yexperiencia con relaciones entre negocio y equipos IT.
Modalidad de trabajo: Teletrabajo al 75% el resto presencial en Madrid-Centro. Muy bien comunicado con metro-Bus.
En The Whiteam, no solo ofrecemos un empleo, sino una experiencia laboral que redefine los estándares. Únete a nosotros y descubre un mundo donde tus logros y bienestar son nuestra prioridad. ¡Tu futuro te espera con beneficios que marcan la diferencia!
¿Te sientes preparad@ para dar el siguiente paso en tu carrera profesional? Te animamos a enviar tu CV a ******. Estamos ansios@s por descubrir tu potencial y explorar juntos nuevas perspectivas en esta emocionante trayectoria laboral.
#J-18808-Ljbffr
Big Data IA Developer Remote
5 abr.ZYLK
Big Data IA Developer Remote
ZYLK · Bizkaia, ES
Teletrabajo MySQL Azure Maven Jenkins Linux Docker Kubernetes Ansible Hadoop AWS Tomcat IoT DevOps Agile Big Data Eclipse Terraform Spark
Estamos ampliando nuestros equipos de consultoría y buscamos developers que tengan interés en desarrollarse profesionalmente en Bigdata, IA, Industria 4.0. Nuestro equipo está formado por físicos, ingenieros de software, ingenieros de telecomunicación e ingenieros de electrónica.
A la hora de inscribirte en la oferta de empleo te planteamos varias preguntas sobre algunos de los temas que más se trabajan en investigación, como son BigData, IA e IoT así como participación en proyectos en general y expectativas en salario. No hay una sola respuesta correcta. Además si eres junior, no sabrás todas, no importa. La idea es que veamos rápidamente en qué proyectos has participado y el nivel de conocimiento técnico que tienes. En las preguntas técnicas no hace falta que desarrolles los conceptos de forma extensa.
Valoramos interés y/o conocimiento en las siguientes áreas:
- Participación en proyectos Open Source
- Administración sistemas Linux
- Hadoop Ecosystem tools
- Cloudera Data Platform
- Kubernetes / Docker
- Ciberseguridad
- Azure, AWS
- Apache, Apache Tomcat, MySQL
- Herramientas de desarrollo: Eclipse, Gitlab, Jenkins, Ant, Maven, Nexus
- Metodologías ágiles
- Inglés hablado y escrito
El trabajo es de Developer y entrarías a formar parte de nuestro equipo con la posibilidad de trabajar en remoto. Como equipo multidisciplinar que somos, las tareas a realizar son mayormente de desarrollo de código, pero también de análisis, automatización de tests, despliegues, resolución de problemas, creación de piezas intermedias o artefactos técnicos... Lo que verdaderamente nos importa es la capacidad de entender los problemas desde el punto de vista de negocio y técnico, idear soluciones y ser capaces de ponerlas en producción.
Los proyectos que desarrollamos en nuestra área de consultoría van orientados en las siguientes líneas:
- Diseño e implantación de plataformas (ZDP, CDP) basadas en herramientas del ecosistema de ASF
- Procesos de ingesta masiva de datos usando NiFi, caputra de datos de PLCs en OT
- Sistemas de procesado de datos en tiempo real usando Flink, y contrucción de gemelos digitales
- Creación de modelos usando técnicas tanto de ML usando Spark como de DL usando Pytorch y/o Tensorflow
- Gestión del ciclo de vida CI/CD usando terraform y ansible, de infra como código
- Implantación de metodologías para la gestión de proyecto de IA usando técnicas de MLOps
- Oficinas técnicas del Dato
Nos gusta hacer las cosas bien tanto en tecnología como en la en forma de trabajar, por eso toda nuestra metodología de desarrollo está basada en DevOps, tratando de automatizar al máximo para evitar pérdidas de tiempo. Trabajamos en un entorno ágil y nos comunicamos por #Slack. También nos gusta que nuestro equipo esté bien preparado, por lo que hemos desarrollado workshops formativos relacionados con de cada uno de los productos del ecosistema (desde poner un clúster en producción hasta crear jobs para el streaming de datos) con el objetivo de que empieces a aportar lo más rápido posible.
Nuestra filosofía es compartir y generar conocimiento.
Más ventajas:
- Programa de certificaciones y formación
- Impartición y asistencia a masterclasses
- Asistencia a congresos y eventos
- Horario de trabajo flexible
- Posibilidad de trabajo en remoto o en la oficina
- Jornada intensiva todos los viernes, víspera de festivos
- Jornada intensiva en verano (4 meses aprox)
- Parada para comer flexible
- Revisiones de desempeño y salariales para ir generando un plan de carrera a medida cada 6 meses
- Seguro médico a partir del primer año
- 23 días laborables de vacaciones
Apoyamos la inclusión de personas con discapacidad. Por ello, animamos a que esta condición sea reflejada en tu candidatura (Certificado de Discapacidad igual o superior al 33%).