No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araInformàtica i IT
364Transport i Logística
291Comercial i Vendes
264Administració i Secretariat
217Desenvolupament de Programari
168Veure més categories
Educació i Formació
128Màrqueting i Negoci
115Comerç i Venda al Detall
110Enginyeria i Mecànica
103Dret i Legal
101Disseny i Usabilitat
48Publicitat i Comunicació
46Art, Moda i Disseny
41Indústria Manufacturera
38Instal·lació i Manteniment
36Sanitat i Salut
33Comptabilitat i Finances
27Recursos Humans
26Atenció al client
20Construcció
17Immobiliària
14Banca
13Hostaleria
13Producte
11Alimentació
10Farmacèutica
9Arts i Oficis
7Cures i Serveis Personals
4Energia i Mineria
4Seguretat
4Telecomunicacions
3Social i Voluntariat
2Turisme i Entreteniment
2Assegurances
1Esport i Entrenament
1Agricultura
0Ciència i Investigació
0Editorial i Mitjans
0Top Zones
Madrid
1.481CAS TRAINING
Ingeniero/a de datos desarrollo SW Scala
CAS TRAINING · Madrid, ES
Teletreball Java Scala Hadoop Microservices Kafka Spark Big Data
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Ingeniero/a de datos desarrollo SW Scala para un importante proyecto REMOTO en Madrid.
Responsabilidades:
Escribir y mantener código eficiente y escalable en Scala. Desarrollar soluciones de procesamiento de datos a gran escala utilizando Apache Spark. Implementar y optimizar el almacenamiento de datos en formato Parquet. Colaborar con equipos multidisciplinarios para integrar soluciones de datos. Analizar y resolver problemas complejos relacionados con el procesamiento y almacenamiento de datos. Diseño de arquitecturas para procesamiento de datos Requisitos: Ingeniero informatico/telecomunicaciones o similar, con alto background en programacion y tratatamiento de datos Sólidos conocimientos de programación en Scala.
Experiencia demostrable en el uso de Apache Spark para el procesamiento de datos. Familiaridad con el formato de almacenamiento de datos Parquet. Experiencia en el manejo de grandes volúmenes de datos y en la optimización de consultas. Capacidad para trabajar en un entorno de equipo y comunicarse eficazmente con otros departamentos. Scala Spark: Avanzado Java SE11: Avanzado
Deseable: Experiencia con otras tecnologías de Big Data como Hadoop, Hive o Kafka. Experiencia en la implementación de soluciones con microservicios
Se ofrece:
• Formar parte de un equipo dinámico altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a
Senior Data Engineer
NovaEY
Madrid, ES
Senior Data Engineer
EY · Madrid, ES
Python Agile TSQL C++ Scala Git REST Jira Hadoop Docker Spark Big Data
About Us
At EY wavespace Madrid - Data & AI Hub, we are a diverse, multicultural team at the forefront of technological innovation, working with cutting-edge technologies like Gen AI, data analytics, robotics, etc. Our center is dedicated to exploring the future of AI and Data.
What We Offer
Join our Data & AI Hub, where you will have the chance to work in a vibrant and collaborative environment. You will engage directly with advanced data engineering, where you´ll leverage cutting-edge technologies to drive innovative data solutions and transform business insights. Our team supports your growth and development, providing access to the latest tools and resources.
Tasks & Responsibilities:
- Lead the design and execution of Intelligence transformation projects, ensuring alignment with business goals and objectives.
- Drive transformation processes towards a data-centric culture, promoting best practices and innovative solutions.
- Collaborate with cross-functional teams, including risk management, business optimization, and customer intelligence, to deliver impactful data solutions.
- Architect, design, and implement robust technical solutions across various business domains, ensuring scalability and performance.
- Mentor and coach junior data engineers, fostering a culture of continuous learning and development within the team.
- Apply your extensive knowledge and experience to deliver key projects, providing strategic insights and technical guidance.
Key Requirements:
- Bachelor´s or Master´s degree in Computer Engineering (or related fields), Physics, Statistics, Applied Mathematics, Computer Science, Data Science, Applied Sciences, etc.
- Fluent in English; proficiency in Spanish or other languages is an asset.
- Expertise in one or more object-oriented languages, including Python, Scala, or C++
- Deep understanding of data-modeling principles and best practices.
- Extensive experience with relational databases and excellent SQL fluency.
- Proven experience working with big data technologies (Hadoop, Spark, Hive).
- Experience working with MS Fabric, Databricks, and/or Snowflakes.
Preferred:
- Hands-on experience with ETL products
- Strong background in developing microservices-based architectures and the technologies that enable them (containers, REST APIs, messaging queues, etc.).
- Experience with team collaboration tools such as Git, Bitbucket, Jira, Confluence, etc.
- Solid experience with unit testing and continuous integration practices.
- Familiarity with Scrum/Agile development methodologies and the ability to lead agile teams.
- Strong critical thinking capabilities, with the ability to see the ´big picture´ while also diving into the details when necessary.
Data Engineer Google Cloud
17 de gen.CAS TRAINING
Data Engineer Google Cloud
CAS TRAINING · Madrid, ES
Teletreball Python TSQL Cloud Coumputing SQL Server
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a Data Engineer Google Cloud para formar parte de importante proyecto 100% remoto.
Experiencia: al menos 2 años.
Modalidad: 100% remoto.
Conocimientos imprescindibles:
- Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery.
- Buen nivel de SQL.
- Buen nivel de python.
- Inglés B2 mínimo.
Conocimientos valorables:
- Experiencia con SQL Server y Talend para ingestas.
Se ofrece:
• Formar parte de un equipo altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a.
DevOps Engineer
17 de gen.Grupo NS
DevOps Engineer
Grupo NS · Madrid, ES
Teletreball Jenkins DevOps
Desde Grupo Ns estamos buscando perfiles con experiencia como DevOps Engineer en jenkins y GitHub Actions para un proyecto 100% remoto (puntualmente puede haber una reunión presencial en Madrid) dentro del sector bancario
Se requiere experiencia de 2-3 en migración a GitHub y GitHub Actions
Skills
Amplios conocimientos y experiencia en el GitHub y GitHub Actions.
Conocimientos de bitbucket y Jenkins.
Conocimientos para la implementación de pipeline como código Manejo de librerías de código
Se requiere experiencia de 2-3 en migración a GitHub y GitHub Actions
Amplios conocimientos y experiencia en el GitHub y GitHub Actions.
Conocimientos de bitbucket y Jenkins.
Conocimientos para la implementación de pipeline como código Manejo de librerías de código
Data Engineer en AWS con Inglés Alto
16 de gen.PSS
Data Engineer en AWS con Inglés Alto
PSS · Madrid, ES
Teletreball Python TSQL AWS Kafka
¿Te apetece formar parte de una compañía en pleno crecimiento? ¿Y trabajar rodeado del mejor talento técnico en proyectos realmente innovadores? En PSS es posible y nos gustaría conocerte.
Actualmente estamos seleccionando ETL Developers con experiencia en el desarrollo de pipelines de datos y soluciones en AWS.
Para ello, ¿Qué necesitamos?
Al menos 3 años de experiencia en la implementación de procesos de transformación y carga de datos desde diversas fuentes (estructuradas, semiestructuradas y no estructuradas).
Experiencia de al menos 2 años trabajando con servicios de AWS como Glue, Redshift, Kinesis, DynamoDB, S3 y Lambda.
Desarrollo en Python, PySpark y SQL.
Experiencia trabajando en entornos Agile/Scrum.
Familiaridad con tecnologías de streaming como Kafka o Kinesis.
Deseable conocimientos en conceptos de Data Warehousing y Data Lakes, y experiencia en herramientas como Databricks o Snowflake en AWS (deseable).
Y llegados a este punto... ¿qué te ofrecemos?
Contrato Indefinido con PSS, brindándote estabilidad laboral.
Modelo de trabajo 100% remoto, para que puedas trabajar desde donde prefieras.
Proyecto sólido y estable en un entorno técnico avanzado y desafiante.
Plan de carrera y formación continua para impulsar tu crecimiento profesional.
Retribución flexible con ventajas fiscales: seguro médico privado, ticket restaurante, ticket guardería y/o ticket transporte.
Participación en nuestra campaña de referenciados, con recompensas especiales por invitar a tus contactos del sector.
Acceso a un portal de descuentos exclusivo para tecnología, viajes, moda y mucho más.
En PSS estamos comprometidos con la igualdad
Senior Data Engineer Cloud GCP Inglés B2
15 de gen.Krell Consulting & Training
Senior Data Engineer Cloud GCP Inglés B2
Krell Consulting & Training · Madrid, ES
Teletreball Python TSQL Cloud Coumputing SQL Server
Descripción
En Krell Consulting, nos encontramos en la búsqueda de un Senior Data Engineer Cloud GCP, para trabajar en proyecto relacionado con el sector industria, en modalidad remota.
PERFIL: Senior Data Engineer Cloud GCP
SECTOR: Industria
MODALIDAD DE TRABAJO: Teletrabajo
REQUERIDO:
• Perfil Senior Data Engineer con experiencia de más de 2 años trabajando en el cloud GCP. Best Practises
• Experiencia en el desarrollo de pipelines y transformaciones de datos (ETLs) con Bigquery.
• Ideal experiencia con SQL Server y Talend para ingestas.
• Buen nivel de SQL
• Buen nivel de python
• Key words para búsquedas: GCP, BIGQUERY
• Idiomas: Inglés B2 mínimo
OFRECEMOS:
Contrato indefinido/ Contratación inicial con Krell.
Si estás interesad@, no dudes en aplicar a la posición.
¡Te esperamos!
Devops
15 de gen.Digital Talent Agency
Madrid, ES
Devops
Digital Talent Agency · Madrid, ES
Python Maven Jenkins Linux Docker Cloud Coumputing Ansible Groovy AWS Bash DevOps Gradle Microservices
Descripción
DevOps en ZemsaniaUbicación: Remoto / Presencial
Experiencia requerida: 1 año
Descripción del puesto
Zemsania, una empresa innovadora y en constante crecimiento, busca un profesional de DevOps altamente motivado para unirse a nuestro equipo dinámico. La persona seleccionada será responsable de la implementación y el mantenimiento de sistemas y procesos que permitan una integración y entrega continua de software de calidad. La oportunidad ofrece un ambiente colaborativo donde se valora la iniciativa y la mejora continua.
Responsabilidades
Administración de Sistemas Linux: Configurar y gestionar servidores Linux, asegurando la óptima disponibilidad y rendimiento de las aplicaciones.Integración y Despliegue Continuo: Implementar y mantener herramientas de CI/CD, como GitLab CI, Jenkins y ArgoCD, para facilitar un flujo de trabajo ágil y eficaz.Construcción de Software: Utilizar herramientas de construcción como Maven y Gradle para compilar y empaquetar aplicaciones, asegurando que los entregables cumplan con los estándares de calidad exigidos.Contenerización: Crear y gestionar contenedores utilizando Docker, Container y Crio, promoviendo una arquitectura de microservicios eficiente y escalable.Colaboración en el Desarrollo Ágil: Trabajar en estrecha colaboración con los equipos de desarrollo y operaciones para diseñar, implementar y gestionar soluciones automatizadas que mejoren el ciclo de vida del desarrollo del software.Monitoreo y Mantenimiento: Implementar soluciones de monitoreo para asegurar que las aplicaciones funcionen adecuadamente y realizar mantenimiento proactivo para evitar posibles incidentes.
Requisitos
Experiencia mínima de 1 año en un rol relacionado con DevOps.Sólidos conocimientos en sistemas operativos Linux y su gestión.Familiaridad con motores de integración y despliegue continuo, preferiblemente GitLab CI y Jenkins.Experiencia en construcción de software con Maven y Gradle.Conocimiento en contenerización utilizando Docker, Container y Crio.Comprensión básica de conceptos de redes y seguridad informática.Habilidades de resolución de problemas y atención al detalle.Capacidad para trabajar de forma independiente, así como en equipo, en un entorno dinámico.
Se valorará
Certificaciones relacionadas con DevOps, Linux u otras tecnologías relevantes.Experiencia en entornos de nube como AWS, Google Cloud o Azure.Conocimientos en herramientas de automatización de infraestructura como Ansible o Terraform.Habilidades en scripting con lenguajes como Bash, Python o Groovy.
Qué ofrecemos
Un entorno de trabajo flexible que promueve el equilibrio entre la vida laboral y personal.
Oportunidades de desarrollo profesional y capacitación continua.La posibilidad de trabajar con tecnología de vanguardia y formar parte de proyectos innovadores.Un equipo colaborativo donde se fomenta la creatividad y la iniciativa.
En Zemsania, valoramos la diversidad y la inclusión, y nos comprometemos a crear un ambiente de trabajo donde todos los empleados se sientan respetados y valorados. Si está buscando un lugar donde pueda hacer una diferencia significativa y contribuir al éxito de proyectos valiosos, ¡esta es su oportunidad!
Ingeniero/a de Sistemas
14 de gen.AIRTIFICIAL
Getafe, ES
Ingeniero/a de Sistemas
AIRTIFICIAL · Getafe, ES
AIRTIFICIAL Aerospace&Defense, Grupo AIRTIFICIAL, somos una empresa líder en ofrecer soluciones tecnológicas, dando servicios y desarrollando productos en varios ámbitos, principalmente de la ingeniería aeronáutica.
Actualmente necesitamos incorporar a nuestra plantilla, en las oficinas de nuestro cliente en Getafe, Madrid, una persona para formar parte de nuestro equipo de Servicios de ingeniería en el área de Sistemas, con formación y experiencia en el sector.
Principales Responsabilidades
- Elaborar y modificar pruebas funcionales del avión.
- Soporte a producción de pruebas funcionales
- RETEST de Pruebas
- Edición de pruebas de los distintos sistemas de avión a partir de la especificación técnica de la oficina de diseño.
- Soporte a producción (Búsqueda de deficiencias en el avión).
- Definición de medios de pruebas
- Elaboración de documentación relacionada con los procesos de pruebas
- Titulación Superior o Técnica en ingeniería de Telecomunicaciones,Electrónica, Aeronáutica o equivalente
- Conocimientos de programación (C, controladores como Arduino, Raspberry Pi o CompactRIO)
- Nivel Inglés B2.
- Experiencia entre 1 y 2 años en el sector Aeronáutico.
- Deseable conocimiento de los programas CITRIX, CATs, SAP, EPD VAULT, SIPLA.
- Contrato indefinido con jornada intensiva.
- Retribución Flexible.
- La posibilidad de integrarse en un equipo de alto rendimiento y con un alto grado de especialización.
Ingeniero/a Cloud (AWS)
14 de gen.Grupo Digital
Madrid, ES
Ingeniero/a Cloud (AWS)
Grupo Digital · Madrid, ES
Python Jenkins Docker Cloud Coumputing Kubernetes AWS Bash Terraform
Desde Grupo Digital, buscamos un/a Ingeniero/a Cloud (AWS) para formar parte de nuestro equipo y colaborar con uno de nuestros clientes.
Ubicación: Madrid
Duración del proyecto: estable
Grupo Digital
Somos un grupo de empresas tecnológicas, formado actualmente por unos 200 profesionales, en distintas áreas: desarrollo, sistemas, ingeniería automática, consultoría... Si deseas iniciar tu carrera en el ámbito del desarrollo web y formar parte de un equipo dinámico, ¡esperamos tu candidatura!
Requisitos necesarios:
● Experiencia en AWS.
● Experiencia en diseño e implementación de soluciones en la nube de AWS.
● Experiencia en la implementación de soluciones de monitoreo y logging, gestión de
alarmado y uso en la nube de AWS.
● Conocimiento en Docker y administración de Kubernetes.
● Experiencia en el uso de herramientas de desarrollo contínuo.
● Conocimientos avanzados en prácticas de seguridad y automatización de seguridad
(DevSecOps).
● Experiencia en la implementación y mantenimiento de pipelines CI/CD.
● Uso avanzado en el manejo de Jenkins, Artifactory.
● Administración de repositorios Github/Bitbucket.
● Habilidades fuertes de resolución de problemas y diagnóstico.
● Excelentes habilidades de comunicación y trabajo en equipo.
● Conocimientos de scripting en lenguajes como Python, Bash, o similares.
Requisitos deseables:
● Experiencia en la automatización de pruebas de seguridad.
● Familiaridad con herramientas de gestión de configuración adicionales.
● Participación en proyectos de código abierto o contribuciones a la comunidad.
● Experiencia en Terraform y cloudformation