No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
149Informàtica i IT
118Desenvolupament de Programari
96Administració i Secretariat
90Comercial i Vendes
61Veure més categories
Enginyeria i Mecànica
42Dret i Legal
29Educació i Formació
25Disseny i Usabilitat
24Instal·lació i Manteniment
24Indústria Manufacturera
22Màrqueting i Negoci
22Comerç i Venda al Detall
21Comptabilitat i Finances
12Publicitat i Comunicació
12Banca
8Atenció al client
7Art, Moda i Disseny
6Sanitat i Salut
6Recursos Humans
5Immobiliària
4Arts i Oficis
3Cures i Serveis Personals
3Producte
3Alimentació
2Construcció
2Farmacèutica
2Telecomunicacions
2Hostaleria
1Turisme i Entreteniment
1Agricultura
0Assegurances
0Ciència i Investigació
0Editorial i Mitjans
0Energia i Mineria
0Esport i Entrenament
0Seguretat
0Social i Voluntariat
0Top Zones
Madrid
370DevOps AWS
2 de des.Krell Consulting & Training
DevOps AWS
Krell Consulting & Training · Madrid, ES
Teletreball Jenkins Linux Docker Kubernetes AWS DevOps Nginx
Nos encontramos en la búsqueda de un/a DevOps para trabajar con importante cliente en contratación inicial con KRELL.
DESCRIPCION Y FUNCIONES
Ingeniero DevOps con al menos 3 años de experiencia y con nivel alto de inglés.
Debe estar familiarizado con las siguientes tecnologías: Kubernetes, helm, Docker, Jenkins, NodeJS, Prometheus, Grafana, Dynatrace, AWS Elasticache, AWS DocumentDB, nginx, Linux CLI
QUE OFRECEMOS
- Contrato indefinido en plantilla y puestos de larga duración.
- Acceso a compañía consolidada con proyectos a muy alto nivel tecnológico y en diferentes sectores.
- Encontrarás un entorno de trabajo dinámico e integrador.
- Trabajo remoto
SALARIO hasta 48K
¡Te estamos esperando! ¡Inscríbete y da un salto en tu carrera!
Data Engineer Azure
2 de des.Grupo NS
Data Engineer Azure
Grupo NS · Madrid, ES
Teletreball Azure Power BI
En Grupo NS estamos seleccionando Ingenieros de Datos con experiencia en implementaciones sobre arquitectura de datos en Azure utilizando: Data Factory, Data Lake Storage, Databricks, Synapse Analytics, Analysis Services y Power BI
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender
Ingeniero/a de datos
2 de des.Tuyú Technology
Ingeniero/a de datos
Tuyú Technology · Madrid, ES
Teletreball Agile TSQL Oracle AWS Tableau
¡Hola!
¿Quieres crecer profesionalmente? ¿Buscas nuevos retos a nivel profesional? ¡Te estamos buscando!
En TUYÚ Technology, buscamos un Ingeniero/a de datos para importante cliente en España.
¿Qué ofrecemos?
- Trabajar en proyectos de larga duración con una alta carga tecnológica de equipos multidisciplinares que entregan soluciones en mano.
- Contrato a término indefinido.
- Formato 100% remoto para este proyecto (RESIDENCIA EN ESPAÑA INDISPENSABLE).
Requisitos:
- Mínimo 5 años en roles relacionados.
- Experiencia sólida con Oracle y SQL.
- Manejo avanzado de herramientas como PowerCenter o similares.
- Dominio de Tableau para crear dashboards efectivos y funcionales.
- Experiencia trabajando con metodologías agile.
- Inglés alto (indispensable).
Se valora positivamente:
- Conocimientos básicos en AWS , SowFlake para entornos en la nube.
Somos una empresa que tenemos como objetivo integrar a todas las personas. Si tienes un certificado de discapacidad o algún tipo de diversidad funcional cognitiva, podemos encontrar un proyecto que se ajuste a tus habilidades.
Si cumples con los requisitos y crees que encajas con el perfil que buscamos, mándanos tu CV.
¡En Tuyú Technology te estamos esperando!
DevOps Engineer
30 de nov.CAS TRAINING
Madrid, ES
DevOps Engineer
CAS TRAINING · Madrid, ES
Java Kubernetes Ansible TypeScript Bash DevOps
¿Qué estamos buscando?
Un DevOps Engineer con al menos 4 años de experiencia profesional en entornos de integración y despliegue continuo. Buscamos a un profesional apasionado por la automatización y con sólidos conocimientos en herramientas que optimizan el ciclo de vida del software.
Habilidades y conocimientos imprescindibles:
- Gestión de Workflows y Actions de GitHub.
- Experiencia en la configuración y automatización de pipelines usando GitHub Actions.
- Java y TypeScript: para personalización y automatización de procesos.
- Bash (Shell script): imprescindible para tareas de scripting y automatización.
- Helm: gestión de paquetes en Kubernetes.
- Kubernetes: despliegue, configuración y gestión de clústeres.
- Ansible: desarrollo de scripts de automatización para configuración de entornos.
Conocimientos deseables:
- Familiaridad con la gestión del ciclo de vida del software: desarrollo, pruebas, integración y despliegue continuo.
¿Qué harás en este rol?
- Diseñar, desarrollar y mantener workflows y pipelines de CI/CD con GitHub Actions.
- Automatizar y desplegar infraestructuras usando Ansible y Helm.
- Colaborar con el equipo del Catálogo de Software para optimizar procesos de despliegue.
- Participar en el diseño e implementación de soluciones eficientes y escalables en entornos Kubernetes.
Soft Skills que valoramos:
- Trabajo en equipo y colaboración con desarrolladores y administradores de sistemas.
- Habilidad para identificar y resolver problemas complejos en entornos productivos.
Data Engineer
29 de nov.PSS
Madrid, ES
Data Engineer
PSS · Madrid, ES
Python Cloud Coumputing REST
¿Te apetece formar parte de una compañía del sector IT? Si estás buscando un proyecto estable y seguir evolucionando en tu carrera profesional acompañado del mejor talento, en PSS queremos conocerte.
Actualmente estamos seleccionando un perfil de Data Engineer con experiencia en integración y procesamiento de datos, con modalidad 100% remoto. Podrás trabajar desde cualquier parte de España. Si te interesa un entorno técnico desafiante con impacto real, ¡esta oportunidad es para ti!
Para ello, ¿qué necesitamos?
Experiencia con Python y shell scripts para automatización y procesamiento de datos.
Conocimientos en el uso de APIs REST para integraciones.
Familiaridad con herramientas de integración como Informatica Cloud o similares.
Experiencia trabajando con catálogos de datos y organizando información.
¿Qué te ofrecemos?
Contrato indefinido con PSS, para darte estabilidad laboral.
Salario competitivo acorde a tu experiencia y conocimientos.
Modelo de trabajo hibrido
Participación en un proyecto sólido y estable dentro de una compañía en crecimiento.
Plan de carrera y formación continua, impulsando tu desarrollo profesional.
Retribución flexible con ventajas fiscales: seguro médico privado, tickets restaurante, guardería y/o transporte, adaptados a tus necesidades.
Campaña de referidos: Si conoces a alguien que encaje con nuestras vacantes, ¡invítale a trabajar con nosotros y recibe una recompensa especial!
Acceso a un portal de descuentos exclusivo, con ofertas en tecnología, viajes, moda y mucho más.
PSS comprometida con la Igualdad.
DevOps Engineer
29 de nov.Second Window
DevOps Engineer
Second Window · Madrid, ES
Teletreball Java Jenkins Ansible DevOps
¡Te ofrecemos crecer con nosotros en nuestra unidad tecnológica como DevOps Engineer, en un puesto estable y a largo plazo!
FUNCIONES DEL PUESTO:
- Ingeniero/a de DevOps, serás responsable de construir y configurar nuevas herramientas e infraestructura de desarrollo utilizando tu experiencia en desarrollo de Java EE.
- Tus actividades diarias implicarán trabajar con integración, entrega e implementación continuas (CI/CD), tecnologías en la nube, orquestación de contenedores y seguridad.
- Construirás y probarás pipelines de CI/CD de extremo a extremo, asegurándote de que los sistemas sean seguros contra amenazas de seguridad.
- Como SME, colaborarás y gestionarás al equipo para que funcione, tomarás decisiones en equipo e interactuarás con varios equipos para contribuir a decisiones clave.
- También proporcionarás soluciones a los problemas de tu equipo inmediato y de varios equipos.
- Se requiere competencia experta en desarrollo de Java EE.
- Se recomienda competencia experta en Ansible (software), integración continua de Jenkins
¿Qué te podemos ofrecer?
· Contratación indefinida
· Modalidad: 3 días teletrabajo / 2 días presencial en oficinas de cliente en Las Tablas
· Horario - de L a J de 08:00 a 18:00; V de 08:00 a 14:30
· Rango salarial: 40-47K (salario abierto en función de experiencia y conocimientos del candidato)
· Beneficios sociales: Seguro médico privado y seguro de vida
· Retribución flexible: tickets restaurante, tickets guardería, tarjeta transporte
· 23 días de vacaciones y el día de tu cumpleaños
· Plan de formación personalizado.
Si sientes que podrías encajar y te apetece la experiencia, ¡ponte en contacto con nosotros! Y te daremos toda la información que necesites.
¡Abre una nueva ventana a tu futuro con Second Window! ¡Inscríbete!
Data Engineer Talend MongoDB (Remoto)
29 de nov.CAS TRAINING
Data Engineer Talend MongoDB (Remoto)
CAS TRAINING · Madrid, ES
Teletreball MongoDB NoSQL
CAS Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Data Engineer Talend MongoDB para un importante proyecto 100% en remoto del sector seguros.
Funciones:
- Diseño, desarrollo, pruebas y despliegue de procesos ETL con la suite de Talend
- Diseño, desarrollo, pruebas y despliegue de scripts en MongoDB
- Lanzamiento de queries NoSql
- Documentación
Experiencia: Al menos 2 años
• Formar parte de un equipo dinámico altamente cualificado en una empresa en proceso de expansión.
• Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
• Proyectos de larga duración, estabilidad profesional y progresión laboral.
• Contratación Indefinida.
• Acceso gratuito al catálogo de formación anual de Cas Training.
• Salario negociable en base a la experiencia y valía del candidato/a
• 100% Remoto
Systems Engineer (Unix/Linux/VCS)
29 de nov.CIVIR
Systems Engineer (Unix/Linux/VCS)
CIVIR · Madrid, ES
Teletreball Linux Ansible Git Bash
At Civir, we are looking for a systems engineer to strengthen an established team within an important global digital transformation project for a banking institution.
Tareas
-Problem-Solving: Strong analytical skills and the ability to troubleshoot complex issues.
-Communication: Effective communication skills for collaborating with team members and stakeholders.
-Attention to Detail: Precision in managing system configurations and documentation.
-Oversee the configuration, installation, and maintenance of Unix operating systems (e.g., AIX, Solaris, HP-UX) and VCS clusters.
-Apply patches and updates to ensure systems are up-to-date and secure.
-Implement and manage security measures to protect systems from vulnerabilities and threats. Ensure systems comply with organizational policies, industry regulations, and security best practices.
-Provide technical support and guidance, working closely with other IT teams (e.g., network, database, application) to ensure seamless integration and support.
-Monitor and optimize system performance, including configuring hardware, adjusting kernel parameters, and managing system resources.
-Provide fast and effective BAU (Business As Usual) support for incidents and requests.
-Manage incidents and requests, providing root cause analysis and preventive measures.
-Investigate and resolve complex system issues, including hardware failures, software bugs, and performance bottlenecks.
-Implement monitoring tools and scripts (e.g., Bash) to proactively manage system health and performance.
-Create and maintain detailed documentation for system configurations, procedures, and troubleshooting steps.
-Generate reports on system performance, incidents, and maintenance activities.
Requisitos
-Strong knowledge of RHEL6, RHEL7, and RHEL8 (6+ years of experience).
-Extensive experience with VERITAS CLUSTER SERVER (VCS) in large-scale data center environments (3+ years), including Storage -Foundation, Volume Manager, Veritas Infoscale, and Cluster File System.
-Ability to test, upgrade, and manage VCS, with a focus on documentation for team and stakeholders.
-Experience migrating VCS clusters (host-based and array-based migrations).
-Strong experience with VMware infrastructure operation.
-Experience patching Linux servers to remediate vulnerabilities.
-Proficiency in utilizing automation tools and frameworks (e.g., Ansible, YAML, Puppet) to develop and maintain automation scripts for routine tasks and system management.
-Experience migrating, upgrading, and rebuilding legacy Linux servers (from RHEL6 & RHEL7 to RHEL8).
-Familiarity with change management processes and attending change board meetings.
-Ability to work independently and as part of a team.
-Experience in Solaris and AIX administration.
RHCSA / RHCE certified.
-Experience using ServiceNow (or similar ITSM tool) to manage incidents, requests, and changes.
-Familiarity with development tools such as Git and Gitlab.
-Experience in Red Hat Satellite administration.
-Exposure to monitoring tools like Dynatrace.
-Advanced English required (this will be the working language).
Beneficios
-Permanent contract.
-Flexible compensation (meal vouchers, childcare vouchers, health insurance).
-Personalized English classes with a native teacher on staff.
-Savings club with numerous discounts on various products and services (travel, online stores, etc.).
-Technical training on platforms such as Udemy, Openwebinars, and Techdone, with the possibility of certification.
Data Engineer AWS/Python
29 de nov.Grupo NS
Data Engineer AWS/Python
Grupo NS · Madrid, ES
Teletreball Python TSQL NoSQL AWS Kafka Spark
Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100% remoto
Requisitos
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.
Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.
Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS
Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,
Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS
Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline
Experiencia o exposición a AWS Dynamo DB será un plus
Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL
Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y
producción desde Kafka, Kinesis sería un plus
Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno
empresarial utilizando Apache Airflow/Control M
Experiencia implementando Redshift en AWS o cualquiera de Databricks