No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
1.179Comercial i Vendes
1.021Informàtica i IT
928Administració i Secretariat
856Enginyeria i Mecànica
508Veure més categories
Comerç i Venda al Detall
479Educació i Formació
430Desenvolupament de Programari
342Indústria Manufacturera
335Dret i Legal
324Màrqueting i Negoci
272Instal·lació i Manteniment
259Disseny i Usabilitat
146Art, Moda i Disseny
140Sanitat i Salut
135Arts i Oficis
128Publicitat i Comunicació
119Alimentació
107Recursos Humans
101Construcció
86Comptabilitat i Finances
83Atenció al client
76Hostaleria
59Cures i Serveis Personals
46Immobiliària
46Banca
40Turisme i Entreteniment
29Producte
27Seguretat
24Farmacèutica
23Social i Voluntariat
20Energia i Mineria
15Esport i Entrenament
11Assegurances
5Telecomunicacions
5Editorial i Mitjans
1Agricultura
0Ciència i Investigació
0Apache Hadoop
WikipediaArelance
Ingeniero Desarrollo Scala y Spark
Arelance · Madrid, ES
Teletreball Java Scala Hadoop Microservices Kafka Spark Big Data
¿Cómo vas a afrontar tu desarrollo profesional? Acompañado o en solitario, con vistas al futuro o sólo en el presente, con entusiasmo o sin ilusión.
En Arelance sabemos que las personas son el activo más importante dentro de una empresa, por ello invertimos tiempo y dedicación para encontrar los mejores profesionales de hoy y de mañana. No empleamos menos tiempo en escoger en nuestros clientes los mejores proyectos con proyección y en donde aportar realmente valor.
Formarás parte de un entorno cercano, joven y dinámico. Deberás estar preparado para poder adaptarte a los continuos cambios que supone trabajar en una compañía cuya constante es la Innovación, orientación al logro y el crecimiento profesional.
Seleccionamos un ingeniero de desarrollo con al menos 2 años de experiencia profesional en procesamiento de grandes volúmenes de datos utilizando Apache Spark y conocimientos en Scala para incorporación en un importante proyecto para Sector Aeronáutico.
REQUISITOS:
Experiencia en el procesamiento de grandes volúmenes de datos utilizando Apache Spark, así como conocimiento de Scala.
Familiaridad con el formato de almacenamiento de datos Parquet.
Conocimiento en Java SE11.
Deseable experiencia con otras tecnologías de Big Data como Hadoop, Hive o Kafka, así como experiencia en la implementación de soluciones con microservicios.
Formación en Ingeniería.
¿QUÉ OFRECEMOS?
-Incorporación a un proyecto en continuo desarrollo.
-Modalidad: remoto principalmente pero con asistencia a oficina para reuniones de equipo o con cliente.
-Condiciones salariales a negociar en función de la experiencia aportada.
-Integración en un proyecto colaborativo en expansión.
Si estás interesado/a en una gran oportunidad como ésta, inscríbete! Queremos conocerte!
Data Analyst
15 de gen.Redarbor
Data Analyst
Redarbor · Sant Cugat del Vallès, ES
Teletreball Python TSQL Hadoop SaaS R Spark Big Data Machine Learning Power BI Tableau
Quienes somos
Redarbor es la #1 compañía HR Tech en Latam.
Ayudamos a 55 millones de personas al mes a encontrar un trabajo mejor y a más de 150.000 empresas a reclutar y retener el mejor talento.
Nuestros proyectos
Somos líderes en Sites y App’s de empleo con nuestros sites de empleo Computrabajo (líder en Latinoamérica), OCC en México e Infojobs y Catho en Brasil, y Software de RRHH en Latinoamérica (Pandapé).
Redarbor en cifras
- 2013 fundada
- +1.100 colaboradores
- 16 oficinas
- 21 países
- HR Tech 1# en Latam y 2# grupo de sites de empleo con más tráfico en el mundo
- El Software de RH (SaaS) líder en Latinoamérica con más de 8.000 productos activos
- Somos la mejor empresa para trabajar en España y la 11ª mejor para trabajar en Europa y hemos recibido el reconocimiento especial ‘Better for Business’, según GPTW
¿A quién buscamos?
Estamos buscando un/a Data Analyst con pasión por la seguridad, habilidades analíticas avanzadas y experiencia en la detección y prevención de fraude, especialmente en entornos SaaS o plataformas Online. Si te interesa combinar el análisis de datos con el hacking ético y estás motivado por proteger sistemas de actividades fraudulentas como bots ¡esta oportunidad es para ti!
Responsabilidades
- Analizar grandes volúmenes de datos para identificar patrones de comportamiento sospechoso o fraudulentos.
- Desarrollar e implementar modelos predictivos y algoritmos de detección de fraude.
- Monitorear en tiempo real actividades en plataformas SaaS para identificar accesos no autorizados, bots u otros riesgos de seguridad.
- Colaborar con otros equipos para diseñar soluciones robustas que mitiguen riesgos detectados.
- Generar informes detallados sobre incidentes de fraude y proponer mejoras continuas en los procesos de seguridad.
- Realizar investigaciones sobre nuevas tendencias y técnicas de fraude digital y diseñar estrategias proactivas para mitigarlas.
- Apoyar en auditorías internas de datos y análisis post-incidentes para identificar puntos de mejora.
Requisitos
- Experiencia profesional: Al menos 2-3 años como analista de datos, preferiblemente en roles relacionados con la seguridad, detección de fraude o auditoría de sistemas SaaS.
- Formación académica: Grado en Estadística, Matemáticas, Ciencias de la Computación, Ingeniería de Software o áreas relacionadas.
- Conocimientos técnicos:
- Dominio de herramientas y lenguajes como Python, R, SQL y herramientas de visualización de datos (e.g., Tableau, Power BI).
- Experiencia con técnicas de machine learning aplicadas a la detección de anomalías.
- Familiaridad con protocolos de seguridad, autenticación y técnicas de hacking ético.
- Conocimiento de sistemas de gestión de bases de datos y big data (e.g., Apache Spark, Hadoop).
¡Si quieres formar parte de una compañía líder en su sector con un equipo altamente cualificado, en un entorno dinámico e internacional, incluso si no cumples con el 100% de los requisitos, nos encantaría conocerte!
Nuestros beneficios:
- Contrato Indefinido + flexibilidad horaria + día libre en tu CUMPLEAÑOS + 24 de diciembre
- 23 días laborables de VACACIONES
- Premiamos la antigüedad con días adicionales de vacaciones por cada 2 años cumplidos y hasta un máximo de 5 días.
- Jornada intensiva: navidad, Semana Santa, Julio y agosto
- Jornada intensiva en el día de cumpleaños de los hij@s para poder compartir más tiempo en este día tan especial para ellos.
- Teletrabajo - Modalidad híbrida: 2 días en oficina y 3 en casa.
- 100% Teletrabajo: 5 semanas al año + Navidad y semana santa + puentes específicos + 2 semanas de agosto.
- Plan de formación: cursos presenciales + formación online para realizar formaciones específicas desde casa y de forma ilimitada.
- Presupuesto individual para certificaciones y eventos.
- Idiomas: clases online de inglés y portugués gratuitas.
- Aparcamiento: subvencionado el 50% del coste mensual del estacionamiento en el aparcamiento del edificio de la oficina.
- Gimnasio: subvención del 70% de tu cuota.
- Fisio: subvención del 50% del coste del fisioterapeuta al mes.
- Comida saludable: subvención del precio del menú que escojas.
- Oftalmología: subvención una vez al año de cristales graduados y lentillas una cantidad fija.
- Fruta fresca, café y té todos los días.
- Family Day, Afterwork, Team Bulding, etc.
En REDARBOR trabajamos para promover una cultura inclusiva, que busca la equidad y valora las diferentes perspectivas. Esto se traduce en género, religión, personas con discapacidad, LGBTQ+, etnia y diversidad de experiencias. Trabajamos todas nuestras búsquedas en base a esta premisa. ¡Únete a nuestro equipo!
Te informamos que los datos personales que nos facilites serán tratados de acuerdo a nuestra política de privacidad para candidatxs, que puedes consultar aquí: https://redarbor.net/privacidad/politica-de-privacidad
Científico de datos
15 de gen.NTT DATA Europe & Latam
Científico de datos
NTT DATA Europe & Latam · Granada, La, ES
Teletreball Python Azure NoSQL Scrum Docker Hadoop R DevOps Machine Learning
¡Ha llegado el momento de unirte al movimiento #NTTDATADigitalLover, donde la colaboración, la calidad humana, el crecimiento y la innovación están servidas! Si eres una persona apasionada de lo digital y tienes siempre la cabeza en las nubes buscando soluciones innovadoras, ¡lo que vamos a contarte puede interesarte!
Lo primero, ¿Qué te ofrecemos? Lee con detenimiento porque esto realmente merece la pena 😮:
- ⌚ Horario Flexible
- 🏡 Teletrabajo: en NTT DATA apostamos por un modelo híbrido, donde el teletrabajo tiene un gran peso existiendo incluso la posibilidad de full remote.
- 📅 Revisiones semestrales de tu salario y categoría, gracias a nuestro plan de carreras personalizado. Esto te permitirá alcanzar tus objetivos y llegar donde te propongas 📈.
- Contrato estable: Indefinido a jornada completa. Nada de contratos temporales.
- 🏥 Beneficios sociales: dietas🍱 , seguro médico👩🏻⚕️ con 100% de cobertura y seguro de vida y accidentes
- 👩🏾🏫 Planes de formación, realizando los cursos en horario de trabajo y no en tu tiempo libre. Además podrás obtener las certificaciones que más te interesen (Devops, docker, SCRUM, Azure, etc) y que vayan acorde con tu proyecto.
- 👩🏾🤝🧑🏼 Mentoring: en NTT DATA contarás con la figura de un mentor que se encargará de tu acompañamiento a lo largo de tu trayectoria en la compañía.
- Proyectos punteros: nuestra esencia es mantenernos a la vanguardia de las tecnologías, por lo que podrás trabajar en proyectos que aúnen algunas de las más punteras.
Funciones:
- Comprender la problemática del negocio y los datos iniciales y asegurarse de que los datos elegidos son adecuados para el objetivo perseguido.
- Desarrollo de la solución eligiendo el mejor algoritmo y parámetros.
- Creación y mantenimiento de modelos analíticos, aplicando conocimientos avanzados en matemáticas y estadística, y apoyándose en técnicas de inteligencia artificial, eligiendo los algoritmos apropiados para el caso de uso.
- Aplicación de técnicas para la extracción y transformación de los datos en características, ya sean datos estructurados, imágenes o texto, y de estas características en formatos que son entendibles por los modelos analíticos.
- Modelización, desarrollo de test, integración de procesos y extracción de conclusiones de negocio.
Conocimientos requeridos:
- Conocimiento de lenguajes de programación Python y/o R
- Machine learning (Aprendizaje supervisado/no supervisado)
- Conocimiento de datos estructurados y no estructurados (Hadoop y NoSQL)
- Probabilidad y estadística
Requisitos:
- Experiencia en aplicación práctica y real de casos de uso de IA
- Valorable experiencia en ingeniería y/o visualización de datos
- Formación: Estadística/matemáticas/física/ingenierías. Máster especializado
- Al menos dos años de experiencia
Habilidades:
- Pensamiento crítico
- Comunicación efectiva
- Resolución proactiva de problemas
- Curiosidad intelectual
- Sentido del negocio
¡NTT DATA es tu sitio! Porque hemos obtenido en España, por noveno año consecutivo, la certificación Top Employer, que nos reconoce como una de las mejores empresas en las que trabajar, gracias a nuestro compromiso por el talento. Únete a un equipo que apuesta por el desarrollo integral de sus profesionales, elige el modelo de trabajo que mejor se adapte a ti, y colabora en un entorno diverso, donde cada persona tiene su propia singularidad.
#NTTDATADigitalLovers #TopEmployer
Analista de Datos
15 de gen.AD4 Octógono
San Martín de la Vega, ES
Analista de Datos
AD4 Octógono · San Martín de la Vega, ES
Hadoop Spark Big Data
En Ad4 Octogono estamos contratando, buscamos un Analista de Datos para unirse a nuestro equipo especializado en el análisis de grandes volúmenes de información.
Responsabilidades y funciones:
- Analizar datos de registros de eventos de seguridad provenientes de diversas fuentes, como firewalls, sistemas de detección de intrusiones (IDS), y registros de servidores.
- Limpiar y normalizar los datos para eliminar ruido, errores y redundancias, asegurando la estandarización de formatos y la detección de valores atípicos.
- Realizar análisis de datos para identificar tendencias, patrones y anomalías, utilizando técnicas de visualización para una mejor comprensión de las variables.
- Desarrollar modelos de datos que capturen distintos tipos de ataques y comportamientos maliciosos, diseñando esquemas de datos y modelos de grafos.
- Implementar algoritmos de detección de anomalías usando técnicas de aprendizaje automático y minería de datos para identificar comportamientos maliciosos.
- Crear paneles de control interactivos y visualizaciones que permitan un monitoreo eficiente de los datos por parte de los analistas de seguridad.
- Optimizar el rendimiento de los sistemas de análisis de datos, garantizando tiempos de respuesta rápidos y eficiencia en el procesamiento de grandes volúmenes de datos.
- Investigar y evaluar nuevas herramientas, tecnologías y técnicas en seguridad de la información y análisis de big data.
- Documentar procesos, metodologías y hallazgos, además de proporcionar capacitación al equipo de seguridad según sea necesario.
- Elaborar informes y ofrecer formación y asesoramiento al personal.
Si te apasiona el análisis de datos y la seguridad, y deseas contribuir a un entorno innovador, ¡esperamos tu postulación!
Conocimientos imprescindibles:
- Experiencia con la plataforma de análisis de datos Splunk.
- Experiencia en tecnologías de Big Data, como Hadoop y Spark, y en análisis de datos a gran escala.
- Conocimientos de bases de datos orientadas a grafos.
Conocimientos imprescindibles:
- Experiencia con la plataforma de análisis de datos Splunk.
- Experiencia en tecnologías de Big Data, como Hadoop y Spark, y en análisis de datos a gran escala.
- Conocimientos de bases de datos orientadas a grafos.
- Inglés B2 o superior
Bluetab, an IBM Company
Especialízate en Data, ¡Enfoca tu carrera profesional con Bluetab!
Bluetab, an IBM Company · Madrid, ES
Teletreball Java Python TSQL Azure Linux Cloud Coumputing Scala Git Hadoop AWS Spark Big Data SQL Server
¡Novena edición de nuestro Talent Data Path!
Tras el éxito de las ocho primeras ediciones de nuestro programa de jóvenes talentos, volvemos a abrir las puertas a todos los entusiastas del mundo Data & Cloud.
Formamos parte del gigante tecnológico IBM, siendo an IBM Company.
Además, somos ¡Great Place to Work & Best Work to Place!, certificados como una de las mejores compañías para trabajar en España y acabamos de ser reconocidos en Latam México como ¡Best Workplaces for Women 2022!
Queremos contar con futuros/as expertos/as en el mundo del Dato y/o Cloud que tengan interés en desarrollarse profesionalmente en Data Engineering y Cloud Computing, todo ello bajo una formación técnica y específica y ¡siendo contratados/as de forma indefinida desde el inicio!
Lo primero y más importante, buscamos contar con Personas. Personas que se identifiquen con nuestra filosofía cooperativa, de trabajo en equipo, formativa, que sean curiosas, inquietas y con ganas de asumir retos.
¿Quieres saber un poco más? ¿Estás leyendo esto con voz de anuncio? Pues acompáñanos.
¿En qué consiste nuestro Programa Talent Data Path?
· Durante las primeras semanas, contratado/a, disfrutarás de un itinerario totalmente planificado.
· Estarás arropado con nuestro programa de Carrera (para tu desarrollo profesional y personal) y de Mentoring (para tu desarrollo técnico).
· Te formarás gracias a cursos y MasterClass de nuestros Tech Leads de las siguientes tecnologías: Hadoop and MapReduce, Scala / Spark. Program Design in Scala, Python 3 / PySpark, Azure / Azure Data Factory, AWS, Databricks, SQL Server, Git.
· Cada uno/a tiene sus ritmos, curva de aprendizaje y rumbo claro de lo que le gusta o se le da bien, no pasa nada, no te angusties ni te compares. Empezarás poco a poco a participar y dar apoyo en proyectos con los demás bluetabers mientras te sigues formando. ¡No pierdas las ganas y actitud de mejora continua!
¿Qué buscamos y cuáles son las condiciones de nuestro Talent Data Path?
· Posibilidad de incorporación el 1 abril, que es cuando arranca esta 9.ª edición.
· Formación específica de Grado/FP (formación relacionada con Informática, Datos, Ingenierías, Matemáticas, Físicas) + Máster en Big Data o Análisis de Datos.
· Experiencia previa mínima entre 6 meses y 1 año en entorno tecnológico de base para Ingeniería de Datos y Cloud Computing, trabajando además con tecnologías mencionadas a continuación:
· Programación orientada a objetos (preferentemente Python y/o Java) o funcional (Scala) y SQL, Linux y Git.
· Sistemas de procesamiento de datos distribuidos, Spark y/o Databricks.
· Cloud y servicios propios de la nube (AWS, Azure, GCP).
· Actitud positiva ante la posibilidad de aprender y desarrollarte en un puesto técnico.
· Capacidad de trabajo en equipo, colaborativo y comunicativo.
· Capacidad de adaptación.
· Nivel alto de inglés. (Imprescindible a partir de B2).
Y ¿Cuáles son las condiciones?
· Contrato indefinido y un salario acorde al rol y mercado competitivo.
· La pregunta estrella. ¿Teletrabajo? Teletrabajo flexible. A tu entera disposición tendrás también las Oficinas ubicadas en el centro de Madrid con muy buena conexión.
· Horarios flexibles de entrada/salida, adaptado a tus necesidades personales y jornada intensiva los viernes y los meses de verano, julio y agosto.
· 23 días de vacaciones.
· Tarjeta restaurant (11€ por jornada completa) como beneficio social más allá del salario.
· Seguro médico & póliza dental con una amplia cobertura también como beneficio social más allá del salario.
· Disponibilidad además de plan de retribución flexible: Transporte + Guardería + Formación.
· Formación continua gamificada a través del plan rewards, más de 1600 cursos y certificaciones oficiales.
· Además, tendrás a tu alcance el programa Career Coach para acompañarte en todo lo relativo a tu desarrollo y crecimiento dentro de Bluetab, con un sistema objetivo de evaluación continua.
· Tarjeta Regalo Pass de 50€ en el mes de tu cumpleaños.
¿Cómo es el proceso de selección?
El proceso de dinámicas es presencial en nuestras oficinas de Madrid, Plaza Pablo Ruiz Picasso 11.
Ahora que estás leyendo esto, muy importante, las fechas a tener en el calendario:
Primera Fase:
· Hasta el 23 de enero para poder apuntarte a la oferta.
· Posteriormente, si has pasado esta primera fase, recibirás un formulario que tendrás que cumplimentar máximo hasta el 27 de enero.
Segunda Fase:
- Del 10 al 20 de Febrero
-Dinámica presencial, en nuestras oficinas de Madrid Plaza Pablo Ruiz Picasso 11.
Duración: 3 horas y media (Turno de mañana de 10:00 am, Turno de tarde: 18:00 pm)
-Dinámica People.
-Technology Case.
· A finales de febrero, ya anunciaremos quién formará parte de la próxima edición del TDP.
Consideramos que la diversidad es enriquecedora y queremos velar por la inclusión e igualdad de oportunidades, por lo que contamos con un Plan de Igualdad y un Código Ético que recoge estos principios para garantizar la no discriminación de nuestras colaboradoras y colaboradores por cuestión de raza, color, nacionalidad, origen social, edad, sexo, estado civil, orientación sexual, ideología, opiniones políticas, religión o cualquier otra condición personal, física o social.
Si te gusta la tecnología y la resolución de problemas tanto como a nosotros, Bluetab, an IBM Company es tu sitio.
¡Te esperamos!
#wearehiring #bluetabanibmcompany #bluetabers
Data Engineer with Azure
4 de gen.DSG
Data Engineer with Azure
DSG · Oporto, ES
Teletreball Java Python TSQL Azure Scala Git Hadoop Spark Big Data Office
Job Title: Data Engineer – Azure & Data Lake Solutions
Location: [Porto – mostly remote, office presence required 2-4 days a month]
Type: [ 12 months B2B Contract with possibility of extension]
Job Overview:
We are seeking a skilled Data Engineer to design, build, and manage robust data lake solutions using Microsoft Azure technologies. The ideal candidate will have a passion for working with complex datasets, enabling data-driven decisions, and delivering scalable solutions that meet organizational goals.
Key Responsibilities:
• Data Lake Development: Design, implement, and optimize data lake architectures to support data storage, processing, and analytics needs.
• Azure Ecosystem: Develop and manage solutions using Azure services such as Azure Data Lake, Azure Data Factory, Databricks, and Synapse Analytics.
• Data Integration: Create ETL/ELT pipelines to extract, transform, and load data from various structured and unstructured sources.
• Data Governance: Implement and maintain data quality, metadata management, and security standards in the data lake.
• Collaboration: Work closely with data scientists, analysts, and other stakeholders to understand business needs and translate them into technical solutions.
• Performance Optimization: Monitor and fine-tune system performance for data processing workflows and ensure high availability.
• Documentation: Maintain comprehensive documentation of data architecture, processes, and workflows.
Qualifications:
• Education: Bachelor’s degree in Computer Science, Information Technology, or related field. Master’s degree is a plus.
• Experience:
o Proven experience in data engineering roles with a focus on Azure-based solutions.
o Hands-on experience with Azure services such as Data Lake Storage, Data Factory, Synapse Analytics, and Databricks.
o Strong understanding of data lake architectures and principles.
• Technical Skills:
o Proficiency in programming languages like Python, Scala, or Java.
o Expertise in SQL and database management.
o Familiarity with big data frameworks such as Hadoop or Spark.
o Experience with data modeling and building data pipelines.
o Knowledge of version control tools (e.g., Git) and CI/CD pipelines.
• Soft Skills:
o Strong problem-solving skills and attention to detail.
o Excellent communication and collaboration skills.
o Ability to work in a fast-paced, dynamic environment.