No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
754Comercial i Vendes
442Administració i Secretariat
358Informàtica i IT
349Enginyeria i Mecànica
288Veure més categories
Indústria Manufacturera
274Desenvolupament de Programari
228Comerç i Venda al Detall
219Instal·lació i Manteniment
193Dret i Legal
136Educació i Formació
134Màrqueting i Negoci
73Disseny i Usabilitat
70Alimentació
60Art, Moda i Disseny
50Sanitat i Salut
42Comptabilitat i Finances
39Hostaleria
39Recursos Humans
38Arts i Oficis
33Banca
32Construcció
30Publicitat i Comunicació
30Cures i Serveis Personals
17Farmacèutica
17Atenció al client
14Immobiliària
14Producte
11Seguretat
11Energia i Mineria
9Turisme i Entreteniment
7Telecomunicacions
5Social i Voluntariat
2Assegurances
1Agricultura
0Ciència i Investigació
0Editorial i Mitjans
0Esport i Entrenament
0Data Engineer AWS/Python
16 de des.Grupo NS
Data Engineer AWS/Python
Grupo NS · Madrid, ES
Teletreball Python TSQL NoSQL AWS Kafka Spark
Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100% remoto
Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Data Engineer/Inglés
13 de des.Krell Consulting & Training
Data Engineer/Inglés
Krell Consulting & Training · Madrid, ES
Teletreball Python Azure Linux C++ Cloud Coumputing Git AWS Bash Kafka Spark Big Data Power BI
En Krell Consulting, nos encontramos en la búsqueda de un Data Engineer Senior, para trabajar en nuestro equipo, en modalidad 100% remota.
PERFIL: Data Engineer Senior
MODALIDAD DE TRABAJO: Remoto 100%
REQUERIDO:
- Estudios: Grado en Ingeniería Informática/Telecomunicaciones, Programación, Matemáticas, Estadística + Máster Data Science, Big Data o en un campo relacionado.
- Experiencia previa de al menos 2 años como Data Engineer o Analista de Datos
- Imprescindible tener experiencia en: Linux y bash scripting.
- Procesamiento de datos con Python.
- Diseño modelos de datos.
- Destreza con bases de datos relacionales y no relacionales.
- Analítica de datos usando Python
- Analítica de datos usando herramientas de Business Intelligence como Power BI.
- Python: Avanzado
- C++: Medio
- ClearCase: Medio
- Git: Medio
- Linux: Medio
- Pasión por la tecnología.
- Autonomía en la dedicación de tareas.
- Eficiente en el trabajo en equipo y buen compañerismo.
- Calidad y responsabilidad con las entregas.
- Buena comunicación.
- Rápida adaptación al cambio.
- Proactividad.
- Pensamiento crítico.
- Deseable: Control y conocimiento para el almacenamiento eficiente de grandes volúmenes de datos.
- Experiencia en optimización de sistemas de procesamiento.
- Experiencia con herramientas de procesamiento como Spark o Kafka.
- Manejo con herramientas de orquestación como Airflow o similares.
- Conocimiento de arquitecturas cloud como Azure o AWS.
- Inglés nivel avanzado.
FUNCIONES:
- Participación en el proceso de diseño y creación de pipelines con herramientas Cloud u Open Source.
- Programación en Python: conocimiento de programación Orientada a Objetos, diseño y creación de transformaciones de datos, optimización flujos, análisis de datos.
- Modelado de Datos: physical data modelling y logical data modelling
- Migración de tecnología de ETL a stack Cloud u Open Source
OFRECEMOS:
Contrato indefinido/ Contratación inicial con Krell.
Si estás interesad@ y cumples con los requisitos, no dudes en aplicara a la posición.
¡Te esperamos!
Azure cloud engineer
13 de des.Axiom Software Solutions
Barcelona, ES
Azure cloud engineer
Axiom Software Solutions · Barcelona, ES
Azure Cloud Coumputing Microservices
Job Title: Azure cloud Engineer
Hiring Location: Sant Cugat – Barcelona, Spain – Hybrid –( 2 days in a week)
Type of Hiring: Permanent
JD:-
Location -
• Client is looking for a cloud engineer with Azure background
• 5-6 years’ experience
• Extensive experience with coding, micro services development, VM Automation, Strong Intune experience with Infra ID.
o Service integration, Automated access, standing brand new services using Azure cloud
o Scripting APIs
• Start Date: ASAP
Skills Required: Azure, Cloud, Strong Intune experience with Infra ID, Coding, microservices development, VM Automation, Service integration, Automated access, Scripting APIs
Data Engineer (Inglés Avanzado)
13 de des.Krell Consulting & Training
Data Engineer (Inglés Avanzado)
Krell Consulting & Training · Madrid, ES
Teletreball Python Azure Linux Cloud Coumputing AWS Bash Kafka Spark Big Data Power BI
Descripción
En Krell Consulting, nos encontramos en la búsqueda de un Data Engineer Senior, para trabajar en nuestro equipo, en modalidad 100% remota.
PERFIL: Data Engineer Senior
MODALIDAD DE TRABAJO: Remoto 100%
REQUERIDO:
- Estudios: Grado en Ingeniería Informática/Telecomunicaciones, Programación, Matemáticas, Estadística + Máster Data Science, Big Data o en un campo relacionado.
- Experiencia previa de al menos 2 años como Data Engineer o Analista de Datos
- Imprescindible tener experiencia en: Linux y bash scripting.
- Procesamiento de datos con Python.
- Diseño modelos de datos.
- Destreza con bases de datos relacionales y no relacionales.
- Analítica de datos usando Python
- Analítica de datos usando herramientas de Business Intelligence como Power BI.
- Python: Avanzado
- C++: Medio
- ClearCase: Medio
- Git: Medio
- Linux: Medio
- Pasión por la tecnología.
- Autonomía en la dedicación de tareas.
- Eficiente en el trabajo en equipo y buen compañerismo.
- Calidad y responsabilidad con las entregas.
- Buena comunicación.
- Rápida adaptación al cambio.
- Proactividad.
- Pensamiento crítico.
- Deseable: Control y conocimiento para el almacenamiento eficiente de grandes volúmenes de datos.
- Experiencia en optimización de sistemas de procesamiento.
- Experiencia con herramientas de procesamiento como Spark o Kafka.
- Manejo con herramientas de orquestación como Airflow o similares.
- Conocimiento de arquitecturas cloud como Azure o AWS.
- Inglés nivel avanzado.
FUNCIONES:
- Participación en el proceso de diseño y creación de pipelines con herramientas Cloud u Open Source.
- Programación en Python: conocimiento de programación Orientada a Objetos, diseño y creación de transformaciones de datos, optimización flujos, análisis de datos.
- Modelado de Datos: physical data modelling y logical data modelling
- Migración de tecnología de ETL a stack Cloud u Open Source
OFRECEMOS:
Contrato indefinido/ Contratación inicial con Krell.
Si estás interesad@ y cumples con los requisitos, no dudes en aplicara a la posición.
¡Te esperamos!
Data Engineer Azure
13 de des.Grupo NS
Data Engineer Azure
Grupo NS · Madrid, ES
Teletreball Azure Power BI
En Grupo NS estamos seleccionando Ingenieros de Datos con experiencia en implementaciones sobre arquitectura de datos en Azure utilizando: Data Factory, Data Lake Storage, Databricks, Synapse Analytics, Analysis Services y Power BI
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender
Azure Data Engineer (100 Remoto)
13 de des.CAS TRAINING
Azure Data Engineer (100 Remoto)
CAS TRAINING · Madrid, ES
Teletreball Agile TSQL Azure Jenkins Docker DevOps Terraform
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Azure Data Engineer para un importante proyecto 100% en remoto.
Requisitos:
- Al menos 3 años de experiencia con Azure: Databricks (imprescindible), Synapse, Datafactory, SQL Database
- Deseable conocimiento en Microsoft Fabric
- Experiencia en la creación de modelos de datos (definición y creación de tablas, complejidad de relaciones y de queries, grandes volumetrías, procedimientos almacenados...)
- Experiencia en el desarrollo de pipelines y transformaciones de datos complejas (ETLs)
- Buen nivel de SQL
- Experiencia trabajando en proyectos agile
- Valorable conocimiento y experiencia con metodologías y herramientas para despliegue e integración continua (Azure DevOps, Github, Jenkins, Terraform, Docker, Ansible...)
- Inglés B2
Se ofrece:
• Formar parte de un equipo dinámico altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a
• 100% Remoto
Devops AWS
13 de des.Grupo NS
Madrid, ES
Devops AWS
Grupo NS · Madrid, ES
Java Python Jenkins Cloud Coumputing Ansible AWS Bash DevOps Terraform
Desde Grupo NS buscamos varios perfiles DevOps Engineer con experiencia de al menos 4 años con AWS para un proyecto en remoto
Requisitos:
Más de 5 años de experiencia en soluciones DevOps con AWS.
Experiencia avanzada con herramientas de IaC como Terraform, AWS CloudFormation, Ansible o similares.
Conocimiento en pipelines de CI/CD utilizando Jenkins, GitLab CI, AWS CodePipeline o similares.
Familiaridad con herramientas de monitorización y logging como Prometheus, CloudWatch, ELK Stack.
Habilidades avanzadas en scripting (Bash, Python, o similar).
Conocimiento de redes en la nube, VPN, VPC, y configuración de balanceadores de carga (ELB/ALB).
Se valorará positivamente experiencia en Java
Responsabilidades:
Diseñar e implementar infraestructuras utilizando servicios de AWS (EC2, S3, RDS, Lambda, etc.) y herramientas de IaC como Terraform o AWS CloudFormation.
Desarrollar y mantener pipelines de CI/CD automatizados para el despliegue de aplicaciones y servicios en AWS.
Gestionar la configuración avanzada de redes, balanceo de cargas y escalabilidad en entornos cloud.
Implementar y optimizar soluciones de monitorización, logging y alertas para la infraestructura.
Garantizar la seguridad y cumplimiento de las políticas de seguridad en la infraestructura AWS.
Colaborar con equipos de desarrollo y operaciones para mejorar la eficiencia y automatización en el ciclo de vida de las aplicaciones.
Mantenerse actualizado sobre las nuevas tendencias y servicios en AWS.
Más de 5 años de experiencia en soluciones DevOps con AWS.
Experiencia avanzada con herramientas de IaC como Terraform, AWS CloudFormation, Ansible o similares.
Conocimiento en pipelines de CI/CD utilizando Jenkins, GitLab CI, AWS CodePipeline o similares.
Familiaridad con herramientas de monitorización y logging como Prometheus, CloudWatch, ELK Stack.
Habilidades avanzadas en scripting (Bash, Python, o similar).
Conocimiento de redes en la nube, VPN, VPC, y configuración de balanceadores de carga (ELB/ALB).
Se valorará positivamente experiencia en Java
Senior Cloud Engineer
11 de des.HAYS
València, ES
Senior Cloud Engineer
HAYS · València, ES
Python Docker Cloud Coumputing Kubernetes DevOps Terraform
Estamos buscando a alguien para unirse al equipo de Cloud de uno de nuestros clientes en Valencia.
La persona seleccionada ayudará a escalar la plataforma de análisis para un número creciente de clientes y a desarrollarla aún más, con muchas nuevas funcionalidades.
¿De qué forma se trabaja? Implementan cambios en la infraestructura varias veces al día mediante pipelines de Infraestructura como Código (IaC) y CI/CD completamente automatizados, que incluyen revisiones de código y pruebas automatizadas.Usan tecnologías como Terraform, Kubernetes, Cloud Run y Pub/Sub para habilitar pipelines de datos basados en eventos, impulsando análisis de mantenimiento predictivo en la plataforma Google Cloud.
Además, se hacen responsables de todo el ciclo de DevOps, pero gracias a los servicios en la nube gestionados y la automatización, pasan la mayor parte del tiempo trabajando en nuevas funcionalidades y optimizaciones de arquitectura, en lugar de responder a problemas operativos.
Requisitos
- Experiencia: Mínimo 3 años de experiencia en gestión de infraestructura de TI, preferiblemente en entornos basados en la nube y de análisis. Además, se requiere al menos 2 años de experiencia con uno o más de los principales proveedores de servicios en la nube.
- Competencias técnicas: Dominio de Infraestructura como Código (idealmente Terraform) y experiencia en la configuración de pipelines CI/CD, pruebas automatizadas y monitoreo.
- Conocimientos adicionales: Familiaridad con prácticas recomendadas de seguridad, redes y nube. Aplicación segura de principios DevOps/SRE.
- Tecnologías: Conocimiento de tecnologías como Kubernetes/OpenShift, Docker, bases de datos SQL/NoSQL, mensajería, Airflow y Apache Beam.
- Ingeniería de datos: Conocimientos en ingeniería de datos con Python y arquitecturas basadas en eventos son beneficiosos.
Devops
Serem · Madrid, ES
Python Agile Scrum Maven Jenkins Linux Cloud Coumputing Kubernetes Ansible Groovy Bash DevOps jUnit Gradle Terraform
¿Buscas nuevas oportunidades? ¡Envíanos tu currículum y descubre el camino hacia el éxito! ¡Visita nuestra web!
En SEREM estamos comprometidos con diversos proyectos y queremos contar con los mejores profesionales del sector.
Nos encontramos en búsqueda activa de un/a Devops con experiencia en soporte a operaciones.
Requisitos:
Experiencia en ecosistemas DevOps a nivel cultural y técnico.
Experiencia trabajando en marcos de trabajo agile, preferentemente Scrum.
Experiencia demostrada (al menos de 2 años) como ...
- Usuario/a y administrador/a de Gitlab, Jenkins y Sonarqube.
- Usuario/a y administrador/a de repositorio de artefactos (Artifactory, Nexus, etc).
- Experiencia en scripting (Shell script, bash, Python, Groovy, etc).
- Usuario/a y administrador/a de SSOO Linux.
- Experiencia previa en desarrollo y/o en operaciones de sistemas.
- Usuario/a y administrador/a de Kubernetes y Dockers.
- Experiencia con Google Cloud Platform
Disponibilidad para guardias 24x7 (una semana al mes)
Disponibilidad para modelo híbrido de trabajo
- Experiencia deseable en:
- Frameworks de construcción (Ant, Maven, Gradle, Grunt, etc).
- Ansible.
- Harbor.
- Helm.
- Terraform.
- Conocimientos de XebiaLabs Deploy y Release.
- Experiencia con herramientas de Test unitarios (Junit, Karma, Jasmine, etc).
- Experiencia con gestión de métricas e indicadores.
Formación:
Fp/Grado/ ingeniería relacionada con la informática y/o telecomunicaciones.
Fomentamos un ambiente de trabajo multicultural e inclusivo, no discriminamos por edad, género o creencias; así como ofrecemos igualdad de oportunidades a todo el personal.
Desarrollamos nuestras actividades bajo los principios del cuidado del medioambiente, la sostenibilidad y la responsabilidad social corporativa; colaborando en proyectos de reforestación y sostenibilidad.
Apoyamos los 10 principios del Pacto Mundial y los 17 Objetivos de Desarrollo Sostenible, en materia de derechos humanos, condiciones laborales, medio ambiente y anticorrupción.
Los procesos de reclutamiento se desarrollan bajo altos estándares de calidad definiendo la incorporación en base a la experiencia y habilidades del candidato.
Somos una empresa española líder en servicios tecnológicos y atracción del talento presente en el mercado desde 1995. Contamos con más de 600 empleados en proyectos tanto nacionales como internacionales en sector TI.