No et perdis res!
Uneix-te a la comunitat de wijobs i rep per email les millors ofertes d'ocupació
Mai no compartirem el teu email amb ningú i no t'enviarem correu brossa
Subscriu-te araTransport i Logística
1.343Informàtica i IT
1.069Comercial i Vendes
1.042Administració i Secretariat
905Comerç i Venda al Detall
683Veure més categories
Desenvolupament de Programari
486Enginyeria i Mecànica
459Indústria Manufacturera
437Màrqueting i Negoci
411Educació i Formació
376Dret i Legal
305Instal·lació i Manteniment
238Publicitat i Comunicació
215Sanitat i Salut
197Disseny i Usabilitat
148Construcció
133Art, Moda i Disseny
113Recursos Humans
109Arts i Oficis
87Comptabilitat i Finances
77Alimentació
69Atenció al client
50Turisme i Entreteniment
43Hostaleria
42Banca
41Immobiliària
41Cures i Serveis Personals
40Producte
34Farmacèutica
33Telecomunicacions
27Energia i Mineria
19Seguretat
18Social i Voluntariat
14Assegurances
8Esport i Entrenament
3Agricultura
0Ciència i Investigació
0Editorial i Mitjans
0Desarrollador/a Spark/Scala
7 de marçCAS TRAINING
Desarrollador/a Spark/Scala
CAS TRAINING · Madrid, ES
Teletreball Jenkins Linux Scala Oracle Bash ITIL Spark
¡Buscamos un/a Desarrollador/a Spark/Scala para trabajo 100% en remoto! 🚀
Requisitos
- Conocimientos sólidos de bash script, spark, scala.
- Conocimientos Hive.
- Experiencia en desarrollo de aplicaciones batch/etl en spark, scala.
- Capacidad para desarrollar componentes reutilizables y modularizados.
- Experiencia trabajando en Git/GitHub, Jenkins, HUE, IntelliJ.
- Conocimientos de buenas prácticas de desarrollos, incluyendo pruebas.
- Capacidad para ser autónomo en toma de decisiones.
- Capacidad para trabajar eficazmente en un entorno de equipo
- Capacidad para transmitir claramente las ideas.
- Más de 3 años de experiencia en proyectos back end en spark-scala en los últimos 6 años.
🎁 Lo que ofrecemos
• Contrato indefinido con CAS Training
• Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador
• Paquete retributivo atractivo y flexible, negociado según tu experiencia
• Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top: Microsoft, Linux, Oracle, ITIL, ¡y muchos más!
Data Analyst
5 de marçScalian
Barcelona, ES
Data Analyst
Scalian · Barcelona, ES
TSQL Cloud Coumputing Power BI
¡Ampliamos nuestro equipo! 🔎
¿Buscas un nuevo reto donde desarrollar tu carrera y aprender nuevas tecnologías? Entonces sigue leyendo porque esto te puede interesar.
Scalian es una empresa de más de 6.000 personas con una dimensión internacional, con oficinas en Europa y América del Norte. Estamos especializados en dar servicios a diferentes clientes enfocados en Data, Cloud e Inteligencia Artificial.
¿Qué buscamos?
Buscamos un/a Data Analyst para integrarse en nuestro equipo de profesionales del sector bancario. Dentro de este rol estarás desarrollando las siguientes funciones:
- Llevar la relación con el área.
- Acordar la priorización de las solicitudes de Finanzas.
- Realizar la planificación mensual de desarrollos a realizar a 1 mes vista (sprints mensuales).
- Desarrollar en SAS/SQL procesos para resolver las necesidades del área.
- Preparar la reunión mensual con Negocio junto con el Manager de BI.
Requisitos mínimos:
- Experiencia de al menos 2 años en programación SQL.
- Experiencia de al menos 2 años trabajando con Qlik Sense.
- Experiencia usando SQL a nivel scripting en Qlik Sense.
- Abierto a modalidad híbrida, 3 días en oficina de cliente.
- Valoramos muy positivamente experiencia en: Qlikview, PowerBI, Powercenter o similar.
¿Qué tendrás con nosotros?
🚀 Formar parte de un equipo de alto nivel bajo tecnologías punteras en el mercado.
⛱ 25 días laborables de vacaciones.
📝 Contrato indefinido.
📚 Formación continua, certificaciones, meetups y planes de desarrollo profesional personalizados para que podamos seguir creciendo juntos. Contamos con acceso a plataformas internas con contenido abierto para que lo disfrutes cuando tú quieras y a tu ritmo.
🕐 Jornada completa con horario flexible para facilitar la conciliación entre vida familiar y profesional.
🎉 After works en las oficinas.
🎂 La tarde del cumpleaños libre.
🏋️♀️ Descuentos en gimnasios.
💲Programas de retribución flexible: seguro médico, tarjeta restaurante, abono de transporte, cheques para escuelas infantiles.
🌏 Como parte del grupo Scalian, abrimos nuestras fronteras y crecemos internacionalmente.
♻️ En el grupo apostamos por iniciativas sostenibles.
¡Despega en tu carrera con Scalian Spain!✈
Data Engineer
1 de marçAmazon
Madrid, ES
Data Engineer
Amazon · Madrid, ES
Python TSQL Cloud Coumputing Scala Hadoop AWS Big Data Spark
Are you looking for an opportunity to develop technology that will redefine the customer experience for one of the fastest growing and strategic organizations within Global Engineering Services (GES)? Are you interested in joining a global team that is innovating with CX to make Amazon´s building network grow? This is your chance to get in on the ground floor with the Global Engineering Insights & Software Tools (GEIST) tech team that is shifting the paradigm for engineering services with disruptive experiences! The GEIST organization supports a vast portfolio of buildings within the Amazon network and the build out standards and designs.
We are looking for a Data Engineer to play a pivotal role in developing and implementing a comprehensive data platform for GES business. The successful candidate will have a proven track record of building integrated data tools and platforms to support global businesses. This fast-paced, results-oriented role will involve developing the platform to support key decisions for Global Engineering Services. You will work closely with Engineering, Product and Technical Program teams as you develop forward-looking architecture and build strategies to complement the revolutionary GEIST vision.
In this role, you will have the freedom (and encouragement) to experiment, improve, invent, and innovate on behalf of our customers. You will have the satisfaction of being able to look back and say you were a key contributor to something special from its earliest stages.
Key job responsibilities
Design, implement, and support data warehouse/ data lake infrastructure
using AWS bigdata stack, Python, Redshift, QuickSight, Glue/lake formation,
EMR/Spark, Athena etc.
• Develop and manage ETLs to source data from various systems and create
unified data model for analytics and reporting.
• Creation and support of real-time data pipelines built on AWS technologies
including EMR, Glue, Redshift/Spectrum and Athena.
• Continual research of the latest big data technologies to provide new
capabilities and increase efficiency.
• Manage numerous requests concurrently and strategically, prioritizing
when necessary
• Partner/collaborate across teams/roles to deliver results.
About the team
The GEIST team serves as the software solution team to all Global Engineering needs, working with its customers to set a consolidated Tech strategy, and prioritizing investments to best serve their needs and our bottom line. The GEIST team is responsible for the sustainment of a large product suite ranging from Planning & Forecasting applications to robust in-flight management of field execution users. These systems are leveraged by several thousand internal and external users around the globe.
BASIC QUALIFICATIONS
- Experience in data engineering
- Experience with data modeling, warehousing and building ETL pipelines
- Experience with one or more query language (e.g., SQL, PL/SQL, DDL, MDX, HiveQL, SparkSQL, Scala)
- Experience with one or more scripting language (e.g., Python, KornShell)
- Knowledge of cloud services such as AWS or equivalent
PREFERRED QUALIFICATIONS
- Experience with big data technologies such as: Hadoop, Hive, Spark, EMR
- Experience with any ETL tool like, Informatica, ODI, SSIS, BODI, Datastage, etc.
Amazon is an equal opportunities employer. We believe passionately that employing a diverse workforce is central to our success. We make recruiting decisions based on your experience and skills. We value your passion to discover, invent, simplify and build. Protecting your privacy and the security of your data is a longstanding top priority for Amazon.
Data Engineer
28 de febr.Grupo NS
Data Engineer
Grupo NS · Madrid, ES
Teletreball TSQL Scala Jira Big Data Spark
En Grupo NS estamos seleccionando Data Engineer con nivel medio/alto de inglés y experiencia en tecnologías BigData (Spark Scala), SQL, PLSQL, Jira, ControlM , Banca y Riesgos.
Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.
Por ello, requerimos personas constantes, con ganas de evolucionar y aprender
Data Scientist
27 de febr.Lognext
Madrid, ES
Data Scientist
Lognext · Madrid, ES
Python Scala Spark Big Data
En Lognext llevamos más de 18 años identificando e implementando soluciones tecnológicas prácticas que nos permitan seguir avanzando y optimicen nuestras operaciones, acompañando a los equipos con talento experto de alto rendimiento y haciendo de la tecnología una fuerza transformadora en nuestro día a día.
Buscamos un Data Scientist con talento para incorporarse a nuestro equipo para una multinacional líder en el sector asegurador.
🔍¿Qué buscamos?
- Formación deseable en matemáticas o estadística. Se valorará positivamente el Máster en Big Data
- 2 ó 3 años de experiencia en puestos de Data Science.
- Conocimiento de Python y Spark. Deseable Scala.
- Capacidad para realizar análisis y preparación de datos así como modelos de ML cumpliendo los estándares necesarios para su puesta en producción.
- Deseable conocimiento sobre LLMs.
- Deseable inglés fluido hablado y escrito.
🛠️ Funciones y responsabilidades
- Evolución y mantenimiento de los distintos proyectos de Data e IA desplegados por el equipo de Data Science del grupo
- Trabajo con negocio en la identificación de posibles mejoras para los proyectos ya desplegados en producción.
- Desarrollo de los evolutivos identificados.
- Análisis de posibles mejoras en los proyectos.
- Incorporación de buenas prácticas y nuevas técnicas.
- Gestión de incidentales con soporte del Data Scientist responsable del proyecto.
🏆 ¿Qué ofrecemos?
- 💰Salario Competitivo
- 📍Modalidad hibrida (1 vez por semana)
- 💼Retribución flexible
- 🚀 Bono de formación anual
- ⏰ Flexibilidad horaria
- ✈️ 23 días de vacaciones
- 🏆 Referral Program
Únete a un equipo de NEXTERS que van más allá, un equipo donde la creatividad, el ingenio y la audacia marcan la diferencia en un mundo lleno de oportunidades. En Lognext apostamos por la igualdad entre mujeres y hombres y prueba de ello tenemos Plan de Igualdad registrado y publicado. Y asimismo, creemos que en la multiculturalidad existe una fuente de valores, experiencias y conocimiento, que aportan valor añadido a nuestros proyectos, es por ello por lo que creemos en la diversidad y estamos comprometidos con ella.
Developer
27 de febr.Axiom Software Solutions
Developer
Axiom Software Solutions · Málaga, ES
Teletreball TSQL Scala Hadoop Big Data Spark
Skill Level Mandatory Minimum Experience
Jira Intermediate Yes > 2 years
PL/SQL Intermediate Yes > 3 years
Inglis Intermediate Yes
Control M Workload Automation Intermediate Yes > 2 years
Credit Markets Basic Desired > 1 Years
Postgres SQL Intermediate Yes > 3 years
Apache Spark Basic Desired > 1 Years
Developer
Service Description
Participation in the tasks of the Markets Datahub to carry out projects in BigData technologies (Spark Scala) in Market Risk.
Requirements:
-Advanced knowledge of SQL statements
- Experience in data model design
- Experience in performing thorough technical/functional testing and data validation
- Experience in technological projects in the banking sector
- Medium/high level of English
Desirable:
-Technical knowledge of programming languages (Scala) and SPARK platforms, Hadoop
-Knowledge of financial products or market risk metrics
Ingeniero AWS
25 de febr.Serem
Barcelona, ES
Ingeniero AWS
Serem · Barcelona, ES
Python TSQL Scala AWS
Desde Serem nos encontramos en la búsqueda de un INGENIERO DE DATOS AWS con al menos 5 años de experiencia para importante proyecto de trasformación digital.
Descripción del Puesto
Estamos en la búsqueda de un Ingeniero de Datos en AWS para apoyar a un cliente líder en el sector manufacturero europeo en uno de los proyectos de IT más grandes de España. Se trata de una iniciativa de transformación ambiciosa basada en AWS, que busca redefinir la plataforma actual de datos en tres aspectos clave:
Arquitectura de datos.
Ingesta y procesamiento de datos.
Gobernanza, calidad y gestión de datos.
Responsabilidades
Desarrollar y optimizar pipelines ETL, transformaciones de datos y lógica de procesamiento.
Implementar infraestructura como código (IaC) para el despliegue de pipelines e integraciones de monitorización.
Convertir la lógica existente de Data Warehouse (DWH) en implementaciones basadas en SparkSQL y Redshift.
Colaborar con testers para validar pipelines de datos y transformaciones.
Requisitos
Nivel avanzado en SparkSQL, Redshift y AWS Glue.
Dominio de lenguajes de programación como Python, Scala o SQL.
Experiencia en la implementación de arquitecturas orientadas a eventos con Step Functions.
Conocimiento de estrategias de versionado y migración de datos.
Capacidad para diagnosticar y depurar pipelines de datos complejos.
Habilidades Valorable
Experiencia adicional en arquitecturas orientadas a eventos con Step Functions.
Conocimiento en versionado y estrategias de migración de datos.
Habilidad para troubleshooting y depuración de pipelines de datos avanzados.
Ubicación: Teletrabao
Inglés: Nivel alto (B2+).
Ingeniero líder software de datos
25 de febr.EPAM
Málaga, ES
Ingeniero líder software de datos
EPAM · Málaga, ES
Python TSQL Kubernetes Scala Oracle AWS Spark
¿Eres una persona profesional de mente abierta y con fluidez en el lenguaje de programación Scala? Si eso te describe, esta podría ser la oportunidad perfecta para unirte a EPAM como Líder en Ingeniería de Datos. Estamos buscando a alguien que trabaje en equipo, con excelentes habilidades de comunicación y organización, maestría en ingeniería y un nivel de inglés B2+/C1 para comunicarse fluidamente con interlocutores angloparlantes, compartir ideas y razonamientos.
Como parte de este proyecto, nuestros equipos de Datos están trabajando en migrar los flujos de trabajo de los Productos de Datos desde Oracle a Databricks. En EPAM, entrarás a un ambiente de trabajo dinámico y ágil, yudando a clientes del Fortune 1000 mientras te adhieres a las mejores prácticas de ingeniería. Si eres una persona experta en Scala con una pasión por transformar soluciones de datos, únete a nosotros en Madrid, Málaga o de manera remota a través de España para estar en la vanguardia de la innovación con EPAM.
#LI-DNI
¿Cuáles serán tus funciones?
- Desarrollar, monitorear y operar el flujo de datos más utilizado y crítico en el cliente Datos de Órdenes de Venta (incl. información posterior a la orden, e.g., envío, devolución, pago)
- Consultar con analistas, científicos de datos y gerentes de producto para construir y mejorar continuamente el KPI de "Fuente Única de Verdad" para la dirección del negocio, como la medición central de Contribución al Beneficio (PC II)
- Redesarrollar antiguos flujos de trabajo heredados a nuevas versiones avanzadas y estándares que sean fáciles de mantener y escalables para demandas futuras
- Aprovechar y mejorar un conjunto de tecnologías basadas en la nube que incluye AWS, Databricks, Kubernetes, Spark, Airflow, Python y Scala
¿Qué buscamos?
- Experiencia en Apache Spark junto con Spark Streaming
- Sólida experiencia práctica con Databricks y delta-lake
- Fluidez en el lenguaje de programación Scala
- Experiencia en SQL
- Buen conocimiento y experiencia práctica con CI/CD
- Amplia experiencia de trabajo con GitHub
- Fluidez trabajando con el entorno de AWS
- Capacidad para construir flujos de trabajo con Apache Airflow
Te dará una ventaja
- Presto
- Superset
- Starburst
- Oracle & Exasol
¿Qué ofrecemos?
- Seguro médico privado
- Plan de Compra de Acciones para Empleadxs de EPAM
- Baja por enfermedad pagada al 100%
- Programa de Referenciados
- Certificación profesional
- Cursos de idiomas
Senior Data Engineer
24 de febr.Swiss Re
Madrid, ES
Senior Data Engineer
Swiss Re · Madrid, ES
Java MongoDB Python Agile TSQL Azure NoSQL Cloud Coumputing Scala Spark Machine Learning Office
About the team
It is Swiss Re´s ambition to become the leading data-driven risk knowledge company to help clients mitigate their risks. Swiss Re Corporate Solutions (CorSo) provides a wide range of traditional and non-traditional commercial insurance products and risk transfer solutions through a dedicated, global team of commercial insurance experts.
Our solutions are broad, our expertise is deep. Therefore, information and technology are instrumental in building a respective data corpus and advanced analytics capabilities to enable this ambition. Likewise, Swiss Re´s global IT/operating platform is a key enabler to access evolving digital markets and to align existing processes and capabilities with new digital business models and making core business capabilities more flexible and more efficient.
About the role
The Senior Data Engineer will be a key member of the Data Office team, focused on optimizing our data pipeline of the company-wide Single Version of Truth (SVoT) along with delivering front end analytical solutions leveraging the SVoT. As a data expert, the ideal candidate will have strong data analytical skills, a track record of utilizing data as an enabler with a clear passion for engineering, development data ops and extracting value from data
In this role, you will be responsible for more than development-you will engage in sophisticated data analysis, defining and refining data models, and optimizing data flows to support our Analytical Products. Leveraging your insights and creativity, you will play a key role in architecting data transformations that align with business objectives, providing data that meets the nuanced and evolving needs of stakeholders. Your leadership and expertise will be instrumental in mentoring team members, shaping best practices, and driving innovation across the Data Office team.
Within CorSo, we support multiple Lines of Business (LOB). This role will predominantly focus on the Data and Analytics needs of our North America Accident and Health LOB.
Responsibilities for Senior Analytical Engineer
- Collaborate with your users and stakeholders, understanding their data needs, finding innovative ways to leverage data in their daily processes and inform data-led decisions.
- Deliver and maintain optimal data pipeline architecture to assemble large, complex data sets that meet functional / non-functional business requirements.
- Perform complex end-to-ende data analysis to define the target solution design for Analytical Products and our Single Version of Truth (SVoT).
- Collaborate with other members of the Data Office, including data architects, data analysts, dataengineers, analytics engineers and data scientists.
- From business analysis and data modelling to data quality assurance, on a major global program in the Commercial Insurance sector in a fast-moving Agile environment.
About you
We are looking for someone with a solid foundation in data engineering and analytics, coupled with a passion for data-driven solutions. As an experienced professional, you are excited to share your technical expertise and best practices with the team, fostering innovation and enhancing processes.
Soft skills
- Previous project management or leadership experience in delivering data-related solutions, including leading teams and driving projects to successful completion.
- Experience in collaborating and working with global business stakeholders. Ability to communicate your understanding of requirements and objectives with your business partners at all levels.
- Good commercial acumen, with a desire to understand detailed requirements and facilitate the process of analyzing solution options and comfortable with making strategic decisions.
- (Re-) Insurance industry experience is a plus, especially in Underwriting or Actuarial domains.
- Experience building data-related solutions and applications. Including the design, development, deployment and change management practices (Agile code management, sprints, continuous integration)
- Excellent command of English is a must. Other languages like Spanish or German are beneficial.
Technical skills
- A university degree in computer science, data science, statistics, physics, or a related field, with a strong foundation in data engineering and analytics.
- Current experience (+3yrs) building and optimizing data pipelines in Spark ´big data´ environment.
- Strong skills in programming languages like Python (Pyspark), Java, and Scala for data manipulation and pipeline development
- Advanced data analysis abilities with proven experience in: - Relational databases, query authoring (SQL) as well as working familiarity with a variety of databases.
- NoSQL databases, including MongoDB and Postgres..
- Hands on experience managing pipelines and data quality in Cloud Platform technologies: Databricks, Azure, Snowflake, Palantir Foundry.
- Experience in data modelling and the various methodologies (3nF, etc.).
- Experience using a data modelling tool, Power Designer, Erwin etc. (Beneficial).
- Theoretical and practical understanding of advanced statistical modelling, machine learning, and artificial intelligence is beneficial.
For Spain, the base salary range for this position is between [EUR 59,000] and [EUR 99,000] (for a full-time role). The specific salary offered considers:
- the requirements, scope, complexity and responsibilities of the role,
- the applicant´s own profile including education/qualifications, expertise, specialisation, skills and experience.
In addition to your base salary, Swiss Re offers an attractive performance-based variable compensation component, designed to recognise your achievements. Further you will enjoy a variety of global and location specific benefits.
Eligibility may vary depending on the terms of Swiss Re policies and your employment contract.
Swiss Re is an equal opportunity employer. It is our practice to recruit, hire and promote without regard to race, religion, colour, national origin, sex, disability, age, pregnancy, sexual orientations, marital status, military status, or any other characteristic protected by law. Decisions on employment are solely based on an individual´s qualifications for the position.
During the recruitment process, reasonable accommodations for disabilities are available upon request. If contacted for an interview, please inform the Recruiter/HR Professional of the accommodation needed.