No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
1.139Comercial i Vendes
987Informàtica i IT
903Administració i Secretariat
815Enginyeria i Mecànica
494Veure més categories
Comerç i Venda al Detall
463Educació i Formació
420Desenvolupament de Programari
341Indústria Manufacturera
326Dret i Legal
314Instal·lació i Manteniment
254Màrqueting i Negoci
253Disseny i Usabilitat
136Art, Moda i Disseny
135Sanitat i Salut
131Arts i Oficis
125Publicitat i Comunicació
111Alimentació
105Recursos Humans
88Construcció
79Comptabilitat i Finances
77Atenció al client
69Hostaleria
59Immobiliària
45Cures i Serveis Personals
43Banca
40Turisme i Entreteniment
27Producte
24Seguretat
24Farmacèutica
23Social i Voluntariat
19Energia i Mineria
15Esport i Entrenament
8Assegurances
5Telecomunicacions
5Editorial i Mitjans
1Agricultura
0Ciència i Investigació
0CAS TRAINING
Ingeniero/a de datos desarrollo SW Scala
CAS TRAINING · Madrid, ES
Teletreball Java Scala Hadoop Microservices Kafka Spark Big Data
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Ingeniero/a de datos desarrollo SW Scala para un importante proyecto REMOTO en Madrid.
Responsabilidades:
Escribir y mantener código eficiente y escalable en Scala. Desarrollar soluciones de procesamiento de datos a gran escala utilizando Apache Spark. Implementar y optimizar el almacenamiento de datos en formato Parquet. Colaborar con equipos multidisciplinarios para integrar soluciones de datos. Analizar y resolver problemas complejos relacionados con el procesamiento y almacenamiento de datos. Diseño de arquitecturas para procesamiento de datos Requisitos: Ingeniero informatico/telecomunicaciones o similar, con alto background en programacion y tratatamiento de datos Sólidos conocimientos de programación en Scala.
Experiencia demostrable en el uso de Apache Spark para el procesamiento de datos. Familiaridad con el formato de almacenamiento de datos Parquet. Experiencia en el manejo de grandes volúmenes de datos y en la optimización de consultas. Capacidad para trabajar en un entorno de equipo y comunicarse eficazmente con otros departamentos. Scala Spark: Avanzado Java SE11: Avanzado
Deseable: Experiencia con otras tecnologías de Big Data como Hadoop, Hive o Kafka. Experiencia en la implementación de soluciones con microservicios
Se ofrece:
• Formar parte de un equipo dinámico altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a
Senior Data Engineer
NovaEY
Madrid, ES
Senior Data Engineer
EY · Madrid, ES
Python Agile TSQL C++ Scala Git REST Jira Hadoop Docker Spark Big Data
About Us
At EY wavespace Madrid - Data & AI Hub, we are a diverse, multicultural team at the forefront of technological innovation, working with cutting-edge technologies like Gen AI, data analytics, robotics, etc. Our center is dedicated to exploring the future of AI and Data.
What We Offer
Join our Data & AI Hub, where you will have the chance to work in a vibrant and collaborative environment. You will engage directly with advanced data engineering, where you´ll leverage cutting-edge technologies to drive innovative data solutions and transform business insights. Our team supports your growth and development, providing access to the latest tools and resources.
Tasks & Responsibilities:
- Lead the design and execution of Intelligence transformation projects, ensuring alignment with business goals and objectives.
- Drive transformation processes towards a data-centric culture, promoting best practices and innovative solutions.
- Collaborate with cross-functional teams, including risk management, business optimization, and customer intelligence, to deliver impactful data solutions.
- Architect, design, and implement robust technical solutions across various business domains, ensuring scalability and performance.
- Mentor and coach junior data engineers, fostering a culture of continuous learning and development within the team.
- Apply your extensive knowledge and experience to deliver key projects, providing strategic insights and technical guidance.
Key Requirements:
- Bachelor´s or Master´s degree in Computer Engineering (or related fields), Physics, Statistics, Applied Mathematics, Computer Science, Data Science, Applied Sciences, etc.
- Fluent in English; proficiency in Spanish or other languages is an asset.
- Expertise in one or more object-oriented languages, including Python, Scala, or C++
- Deep understanding of data-modeling principles and best practices.
- Extensive experience with relational databases and excellent SQL fluency.
- Proven experience working with big data technologies (Hadoop, Spark, Hive).
- Experience working with MS Fabric, Databricks, and/or Snowflakes.
Preferred:
- Hands-on experience with ETL products
- Strong background in developing microservices-based architectures and the technologies that enable them (containers, REST APIs, messaging queues, etc.).
- Experience with team collaboration tools such as Git, Bitbucket, Jira, Confluence, etc.
- Solid experience with unit testing and continuous integration practices.
- Familiarity with Scrum/Agile development methodologies and the ability to lead agile teams.
- Strong critical thinking capabilities, with the ability to see the ´big picture´ while also diving into the details when necessary.
Michael Page
Senior DevOps / Cloud Engineer
Michael Page · España, Spain
Teletreball Cloud Coumputing AWS DevOps
- Trabajo en remoto
- Software de vanguardia
¿Dónde vas a trabajar?
Nuestro cliente es una empresa de tecnología y telecomunicaciones con más de 200 empleados. Con sede en Málaga, se dedica al desarrollo y la implementación de soluciones innovadoras de tecnología en la nube.
Descripción
- Desarrollar, implementar y mantener la infraestructura de la nube.
- Garantizar la seguridad y la eficiencia de los sistemas informáticos.
- Colaborar con el equipo de desarrollo para optimizar las operaciones de la nube.
- Identificar y resolver problemas técnicos y de rendimiento.
- Realizar pruebas de resistencia y pruebas de seguridad.
- Proporcionar soporte técnico y orientación a los miembros del equipo.
- Crear y mantener documentación técnica detallada.
- Participar en reuniones de equipo y colaborar en la toma de decisiones técnicas.
¿A quién buscamos (H/M/D)?
El/la candidato/a seleccionado deberá cumplir los siguientes requisitos:
- Grado en Informática, Ingeniería de Sistemas o campo relacionado.
- Experiencia demostrable en DevOps y desarrollo en la nube.
- Conocimiento profundo de AWS, Google Cloud o servicios similares.
- Experiencia en la implementación de sistemas de seguridad informática.
- Capacidad para trabajar en equipo y resolver problemas de forma eficaz.
- Excelentes habilidades de comunicación en español e inglés.
¿Cuáles son tus beneficios?
- Una oportunidad para trabajar en una empresa innovadora en el sector de la tecnología y las telecomunicaciones.
- Un salario anual estimado entre 50.000 y 70.000 euros.
- Vacaciones remuneradas y flexibilidad en la jornada laboral.
- Un ambiente de trabajo colaborativo y amigable.
- Una oportunidad para desarrollar habilidades técnicas y de liderazgo.
- Oportunidades de formación continua y desarrollo profesional.
Data Engineer Google Cloud
17 de gen.CAS TRAINING
Data Engineer Google Cloud
CAS TRAINING · Madrid, ES
Teletreball Python TSQL Cloud Coumputing SQL Server
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a Data Engineer Google Cloud para formar parte de importante proyecto 100% remoto.
Experiencia: al menos 2 años.
Modalidad: 100% remoto.
Conocimientos imprescindibles:
- Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery.
- Buen nivel de SQL.
- Buen nivel de python.
- Inglés B2 mínimo.
Conocimientos valorables:
- Experiencia con SQL Server y Talend para ingestas.
Se ofrece:
• Formar parte de un equipo altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a.
DevOps Engineer
17 de gen.Grupo NS
DevOps Engineer
Grupo NS · Madrid, ES
Teletreball Jenkins DevOps
Desde Grupo Ns estamos buscando perfiles con experiencia como DevOps Engineer en jenkins y GitHub Actions para un proyecto 100% remoto (puntualmente puede haber una reunión presencial en Madrid) dentro del sector bancario
Se requiere experiencia de 2-3 en migración a GitHub y GitHub Actions
Skills
Amplios conocimientos y experiencia en el GitHub y GitHub Actions.
Conocimientos de bitbucket y Jenkins.
Conocimientos para la implementación de pipeline como código Manejo de librerías de código
Se requiere experiencia de 2-3 en migración a GitHub y GitHub Actions
Amplios conocimientos y experiencia en el GitHub y GitHub Actions.
Conocimientos de bitbucket y Jenkins.
Conocimientos para la implementación de pipeline como código Manejo de librerías de código
Data Engineer en AWS con Inglés Alto
16 de gen.PSS
Data Engineer en AWS con Inglés Alto
PSS · Madrid, ES
Teletreball Python TSQL AWS Kafka
¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor talento técnico en proyectos realmente innovadores? En PSS es posible y nos gustaría conocerte.
Actualmente estamos seleccionando ETL Developers con experiencia en el desarrollo de pipelines de datos y soluciones en AWS.
Para ello, ¿Qué necesitamos?
Al menos 3 años de experiencia en la implementación de procesos de transformación y carga de datos desde diversas fuentes (estructuradas, semiestructuradas y no estructuradas).
Experiencia de al menos 2 años trabajando con servicios de AWS como Glue, Redshift, Kinesis, DynamoDB, S3 y Lambda.
Desarrollo en Python, PySpark y SQL.
Experiencia trabajando en entornos Agile/Scrum.
Familiaridad con tecnologías de streaming como Kafka o Kinesis.
Deseable conocimientos en conceptos de Data Warehousing y Data Lakes, y experiencia en herramientas como Databricks o Snowflake en AWS (deseable).
Y llegados a este punto... ¿qué te ofrecemos?
Contrato Indefinido con PSS, brindándote estabilidad laboral.
Modelo de trabajo 100% remoto, para que puedas trabajar desde donde prefieras.
Proyecto sólido y estable en un entorno técnico avanzado y desafiante.
Plan de carrera y formación continua para impulsar tu crecimiento profesional.
Retribución flexible con ventajas fiscales: seguro médico privado, ticket restaurante, ticket guardería y/o ticket transporte.
Participación en nuestra campaña de referenciados, con recompensas especiales por invitar a tus contactos del sector.
Acceso a un portal de descuentos exclusivo para tecnología, viajes, moda y mucho más.
En PSS estamos comprometidos con la igualdad
Senior Data Engineer Cloud GCP Inglés B2
15 de gen.Krell Consulting & Training
Senior Data Engineer Cloud GCP Inglés B2
Krell Consulting & Training · Madrid, ES
Teletreball Python TSQL Cloud Coumputing SQL Server
Descripción
En Krell Consulting, nos encontramos en la búsqueda de un Senior Data Engineer Cloud GCP, para trabajar en proyecto relacionado con el sector industria, en modalidad remota.
PERFIL: Senior Data Engineer Cloud GCP
SECTOR: Industria
MODALIDAD DE TRABAJO: Teletrabajo
REQUERIDO:
• Perfil Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises
• Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery.
• Ideal experiencia con SQL Server y Talend para ingestas.
• Buen nivel de SQL
• Buen nivel de python
• Key words para búsquedas: GCP, BIGQUERY
• Idiomas: Inglés B2 mínimo
OFRECEMOS:
Contrato indefinido/ Contratación inicial con Krell.
Si estás interesad@, no dudes en aplicar a la posición.
¡Te esperamos!
Senior Data Engineer
15 de gen.HAYS
Barcelona, ES
Senior Data Engineer
HAYS · Barcelona, ES
TSQL Azure
Tu nueva empresa Empresa multinacional, líder global el sector de Data&Analytics
Tu nuevo puesto
- Diseño y construcción de infraestructuras de datos
- Gestión del flujo de datos
- Optimización de bases de datos
- Limpieza y preparación de datos
- Diseñar e Implementar pipelines de datos utilizando herramientas como Azure Data Factory, Azure Databricks, y otras tecnologías de Azure
- Gestionar clientes, detectar sus necesidades y desarrollar oportunidades
Qué necesitarás para encajar con el puesto
- Estudios en ingeniería, matemáticas, ciencia de datos o similares
- Más de 3 años de experiencia en el campo de los datos
- Conocimientos avanzados de SQL
- Conocimiento en Pyspark + Databricks y/o Snowflake
- Inglés avanzado es un PLUS
- Capacidad de gestionar equipos pequeños es un PLUS
Qué obtendrás a cambio
- Empresa internacional, joven y dinámica
- Modalidad de trabajo hibrida (muy flexible)
- Viernes horario intensivo
- Verano horario intensivo (meses de julio y agosto)
- Ubicación: Barcelona
- Plan de carrera
- Salario variable (37.000 - 45.000 euros b/a)
Devops
15 de gen.Digital Talent Agency
Madrid, ES
Devops
Digital Talent Agency · Madrid, ES
Python Maven Jenkins Linux Docker Cloud Coumputing Ansible Groovy AWS Bash DevOps Gradle Microservices
Descripción
DevOps en ZemsaniaUbicación: Remoto / Presencial
Experiencia requerida: 1 año
Descripción del puesto
Zemsania, una empresa innovadora y en constante crecimiento, busca un profesional de DevOps altamente motivado para unirse a nuestro equipo dinámico. La persona seleccionada será responsable de la implementación y el mantenimiento de sistemas y procesos que permitan una integración y entrega continua de software de calidad. La oportunidad ofrece un ambiente colaborativo donde se valora la iniciativa y la mejora continua.
Responsabilidades
Administración de Sistemas Linux: Configurar y gestionar servidores Linux, asegurando la óptima disponibilidad y rendimiento de las aplicaciones.Integración y Despliegue Continuo: Implementar y mantener herramientas de CI/CD, como GitLab CI, Jenkins y ArgoCD, para facilitar un flujo de trabajo ágil y eficaz.Construcción de Software: Utilizar herramientas de construcción como Maven y Gradle para compilar y empaquetar aplicaciones, asegurando que los entregables cumplan con los estándares de calidad exigidos.Contenerización: Crear y gestionar contenedores utilizando Docker, Container y Crio, promoviendo una arquitectura de microservicios eficiente y escalable.Colaboración en el Desarrollo Ágil: Trabajar en estrecha colaboración con los equipos de desarrollo y operaciones para diseñar, implementar y gestionar soluciones automatizadas que mejoren el ciclo de vida del desarrollo del software.Monitoreo y Mantenimiento: Implementar soluciones de monitoreo para asegurar que las aplicaciones funcionen adecuadamente y realizar mantenimiento proactivo para evitar posibles incidentes.
Requisitos
Experiencia mínima de 1 año en un rol relacionado con DevOps.Sólidos conocimientos en sistemas operativos Linux y su gestión.Familiaridad con motores de integración y despliegue continuo, preferiblemente GitLab CI y Jenkins.Experiencia en construcción de software con Maven y Gradle.Conocimiento en contenerización utilizando Docker, Container y Crio.Comprensión básica de conceptos de redes y seguridad informática.Habilidades de resolución de problemas y atención al detalle.Capacidad para trabajar de forma independiente, así como en equipo, en un entorno dinámico.
Se valorará
Certificaciones relacionadas con DevOps, Linux u otras tecnologías relevantes.Experiencia en entornos de nube como AWS, Google Cloud o Azure.Conocimientos en herramientas de automatización de infraestructura como Ansible o Terraform.Habilidades en scripting con lenguajes como Bash, Python o Groovy.
Qué ofrecemos
Un entorno de trabajo flexible que promueve el equilibrio entre la vida laboral y personal.
Oportunidades de desarrollo profesional y capacitación continua.La posibilidad de trabajar con tecnología de vanguardia y formar parte de proyectos innovadores.Un equipo colaborativo donde se fomenta la creatividad y la iniciativa.
En Zemsania, valoramos la diversidad y la inclusión, y nos comprometemos a crear un ambiente de trabajo donde todos los empleados se sientan respetados y valorados. Si está buscando un lugar donde pueda hacer una diferencia significativa y contribuir al éxito de proyectos valiosos, ¡esta es su oportunidad!