¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraComercial y Ventas
577Informática e IT
532Transporte y Logística
472Adminstración y Secretariado
376Comercio y Venta al Detalle
320Ver más categorías
Educación y Formación
273Derecho y Legal
251Desarrollo de Software
230Marketing y Negocio
181Ingeniería y Mecánica
160Industria Manufacturera
124Instalación y Mantenimiento
118Sanidad y Salud
118Diseño y Usabilidad
103Construcción
92Publicidad y Comunicación
80Hostelería
70Recursos Humanos
57Contabilidad y Finanzas
55Artes y Oficios
52Arte, Moda y Diseño
45Atención al cliente
44Turismo y Entretenimiento
32Inmobiliaria
31Producto
26Seguridad
25Alimentación
23Energía y Minería
22Cuidados y Servicios Personales
20Banca
18Farmacéutica
14Social y Voluntariado
8Deporte y Entrenamiento
3Telecomunicaciones
1Agricultura
0Ciencia e Investigación
0Editorial y Medios
0Seguros
0Machine Learning Engineer
21 abr.NTT DATA Europe & Latam
Madrid, ES
Machine Learning Engineer
NTT DATA Europe & Latam · Madrid, ES
. Python Azure Docker Kubernetes Machine Learning
En NTT DATA estamos construyendo soluciones AI-first que ya están en producción, generando impacto real en sectores como banca, industria, telecomunicaciones o sector público.
Buscamos una persona con experiencia en Machine Learning y MLOps en entornos Azure que quiera ir un paso más allá: no solo desarrollar modelos, sino diseñar y desplegar soluciones de IA robustas, escalables y sostenibles.
Aquí no te quedarás en el notebook.
📌¿Cuál sería tu misión?
- Diseñar, entrenar y optimizar modelos de Machine Learning en Python.
- Construir pipelines de entrenamiento, validación y despliegue en Azure.
- Implementar soluciones MLOps (CI/CD, versionado, monitorización y retraining).
- Desplegar modelos en entornos productivos usando Azure ML, Docker y Kubernetes.
- Garantizar la escalabilidad, trazabilidad y observabilidad de los modelos.
- Colaborar con perfiles de Data Engineering, Arquitectura y Negocio para crear soluciones end-to-end.
- Participar en la evolución hacia arquitecturas AI-first.
📋 ¿Qué esperamos de ti?
- 3-5 años de experiencia como Machine Learning Engineer o rol similar.
- Dominio sólido de Python (scikit-learn, TensorFlow, PyTorch o similares).
- Experiencia en Azure Machine Learning.
- Conocimiento práctico en MLOps (CI/CD, automatización de pipelines, versionado de modelos).
¿Qué podremos ofrecerte?
La posibilidad de dar un paso más allá en tu carrera profesional, y poder orientar tu desarrollo hacia la Arquitectura.
Además de:
🧠 Formarás parte de un equipo diverso, donde cada voz cuenta y cada logro se celebra. Trabajamos con propósito y con impacto real.
💼 Contrato indefinido con revisiones de categoría y salario anuales.
🎓 Impulsamos tu aprendizaje continuo. Tendrás acceso a certificaciones, formación técnica en Azure, comunidades internas de Data & AI y proyectos que te exigirán evolucionar.
📝 Acceso a nuestra plataforma formativa NTT DATA University (formaciones técnicas, metodológicas, idiomas y soft skills).
👩🏽 💻 Trabajo híbrido y horario flexible para que conciliemos mejor.
📅 Jornada intensiva (8:00 a 15:00) los viernes y durante el verano.
🏥 Beneficios corporativos: complementos salariales adicionales, retribución flexible, seguro médico, etc.
🔝 Global Top Employer 2025 — por 10º año consecutivo en España.
🌊 Programas solidarios y actividades sociales a través de nuestro portal de voluntarios de The Blue Wave impulsando un impacto positivo.
🌏 Innovación diversa y cultura inclusiva en NTT DATA creemos que cada persona es única. Apostamos por una cultura inclusiva que valora la diversidad y fomenta un entorno donde todos podamos explorar y potenciar nuestra singularidad.
Si te motiva llevar modelos de IA del laboratorio a producción con impacto real, este es tu entorno.
Make this the place where you grow.
AI DevOps Prompt Master
20 abr.Brainlab | Fundamental Physics and Tech Hub
Barcelona, ES
AI DevOps Prompt Master
Brainlab | Fundamental Physics and Tech Hub · Barcelona, ES
Javascript Java Linux Kubernetes Desarrollo de software unix AWS Integración continua Inteligencia artificial Automatización de pruebas Integración React API MySQL MongoDB Python TSQL NoSQL C++ Docker Cloud Coumputing Bash DevOps PostgreSQL QA Nginx Redis
🚀 AI DEVOPS PROMPT LEAD — Brainlab Fira | Barcelona
📍 Hospitalet de Llobregat · On-site · Immediate incorporation
──────────────────────────────
🌐 ABOUT BRAINLAB
Brainlab (CYRANLAB, S.L.) is a deep technology innovation center located at Fira Barcelona Gran Via. We don't observe technology trends — we generate them.
We operate across three high-impact brands:
▸ Tarranix.io — Deeptech photonic computing. Proprietary CYRATRON© 6-state architecture using light polarization.
▸ Brainlaverse.com — Browser-based educational and cultural metaverse. Democratizing immersive access to knowledge.
▸ Corpore Fitness — Science-based rehabilitation gym. Conscious training and injury recovery protocols.
We work at the intersection of generative AI, photonic computing, immersive environments and advanced web platforms. We are, quite literally, riding the crest of the technological wave.
──────────────────────────────
💡 THE ROLE — The evolution of a dying position
The traditional Development Manager role is obsolete.
In a world where a single well-directed AI prompt can replace days of manual coding, the question is no longer "how many developers do you manage?" — it is "how intelligently do you orchestrate AI to deliver software at scale?"
The AI DevOps Prompt Lead is the answer to that question. This is a newly created position, purpose-built for the current technological landscape: a technical leader who produces and orchestrates a team of few AI Prompt Developers each one specialized area (scientific simulations, gaming, performance, 3d modelling, engineery, intranet apps,immersivity, PIC RISC generation,etc) within our corporate Github-like local repository using generative AI as a force multiplier — capable of operating with the effective output of a 100-person offshore development factory with a team of five.
Your core mission: produce, design, govern and automate the entire software delivery pipeline across Brainlab's app ecosystem — from business request to production deployment — with minimal manual intervention and maximum AI-assisted throughput.
Your responsability team will be up to 4 AI prompt developers. Same level as Basis/Administration/Local open source Master and AI engineer. Depending and reporting directly to CEO. Continuos interaction with Business/Marketing/HCM and production stakeholders.
The pipeline you will own:
Business request → Prompt → Code generation → Quality inspection → Testing → push Production
──────────────────────────────
🎯 RESPONSIBILITIES
🔹 Central governance of our GitHub-like local repository that include all software projects across the Brainlab ecosystem: PIC engineery,websites, metaverse environments, mobile apps, self-hosted AI applications, scientific/mathematical simulation algorithms.
🔹 Lead the AI DevOps Prompt department, coordinating up to 4 AI Prompt Developers via tools such as GitHub Projects or Monday.com, providing periodical generated Canva/Claude reports to CEO.
🔹 Design and automate the full CI/CD pipeline: Dev → QA → Production pull/push request flows, custom code inspection workflows, performance benchmarks and automated test suites.
🔹 Detect and implement automations that eliminate manual repetitive work. Use Codex, GPT Claude Code, Terminal, local IA tools and equivalent AI toolchains as primary development instruments.
🔹 Manage simultaneous projects, developments, modifications and production incidents across Tarranix, Brainlaverse and Corpore Fitness.
🔹 Automate migration of internal/external projects language-agnostic from external cloud providors to our local host-kubernetes server and database maintain open source local corporate philosophy.
🔹 Build and maintain automated daily and weekly reporting to the CEO on the full app landscape status.
──────────────────────────────
🖥️ TECHNOLOGY SCOPE
The ecosystem spans multiple stacks. The expectation is not mastery of all — it is the ability to use AI as a language-agnostic execution layer: understanding architectures and directing AI tools to generate, inspect and deploy quality code in any required language.
Python · React / React Three Fiber · WebGL · Docker · Caddy · Nginx · GitHub Actions · Linux / Bash · Claude API · Codex · SQL / NoSQL · C++ · Mobile Apps · MEEP / Scientific computing · Monday.com
──────────────────────────────
✅ REQUIREMENTS
▸ Degree in Computer Science, Software Engineering, Telecommunications or equivalent. Master's degree or specialisation courses in Artificial Intelligence — highly valued.
▸ Practical experience in DevOps using tools such Github, Gitlabs, Monday.
▸ Working knowledge of server and network administration, Linux environments, terminal-based operations, and installation/configuration of open-source tools.
▸ Practical experience with both relational (PostgreSQL, MySQL) and non-relational (MongoDB, Redis) databases.
▸ Genuinely current with the latest generative AI developments — not as a hobby, but as a professional discipline. You follow model releases, toolchains and prompt engineering advances as a first priority.
▸ Leadership capability: coordinate teams autonomously, define workflows, set quality standards and maintain delivery velocity.
▸ Automation-first mindset: instinctive drive to automate any process that runs more than twice. Manual repetitive work is fundamentally incompatible with this role.
──────────────────────────────
⚙️ OPERATIONAL STANDARDS
This role operates under high-performance productivity standards, actively monitored through AI algorithms to ensure output quality and consistency. Person must be proactive, disciplined and not reactive, person must account at least 4 hours of max productivity prompt/code per day that is audited live.
→ Personal mobile phone use and non-work distractions are restricted during productive hours.
→ Facilities may not be left during working hours except in justified emergencies.
→ Manual repetitive work is formally prohibited. Every recurring process must be scripted, automated or AI-delegated.
→ Automated daily and weekly reporting to the CEO on the full app ecosystem status is a non-negotiable deliverable of this role.
──────────────────────────────
💼 COMPENSATION & BENEFITS
💰 €25,000 gross annual salary
📈 +15% variable bonus on company results
🏋️ Access to private corporate gym (Corpore Fitness)
🕓 Intensive schedule — finish at 17:00 CET daily
📍 On-site · Hospitalet de Llobregat, Barcelona
🤖 Access to cutting-edge AI tooling
🔬 Work at the frontier of AI + photonic computing
- #AIDevOps #PromptEngineering #DevOps #ArtificialIntelligence #MachineLearning #Barcelona #TechJobs #AIJobs #Hiring #Brainlab #Tarranix #Brainlaverse #FutureOfWork
Systems Engineer, HPC
18 abr.Mistral AI
Systems Engineer, HPC
Mistral AI · Madrid, ES
Teletrabajo . Python Linux Cloud Coumputing Kubernetes Ansible Bash DevOps Terraform Docker
About Mistral
At Mistral AI, we build high-performance, open, and efficient AI systems designed to power the next generation of applications. Our infrastructure combines large-scale distributed systems, cloud platforms, and HPC environments to support cutting-edge research and production workloads.
We are a collaborative, low-ego, and highly technical team, operating across Europe, the US, and beyond. As we scale rapidly, we are building the foundational infrastructure to support thousands of nodes and petabyte-scale systems.
Join us to be part of a pioneering company shaping the future of AI. Together, we can make a meaningful impact. See more about our culture on https://mistral.ai/careers.
About The Role
We are looking for Systems Engineers / System Administrators to help design, operate, and scale the infrastructure behind Mistral’s AI platforms.
This is a hands-on, hybrid role combining:
Systems administration (operating and troubleshooting large-scale Linux environments)
Systems engineering (automation, scalability, and performance improvements)
You’ll work closely with infrastructure, HPC, and research teams to ensure our clusters and platforms run reliably at scale.
What You’ll Work On
Core Systems Operations
- Operate and maintain large-scale Linux environments (bare metal, clusters, cloud)
- Monitor system health, troubleshoot incidents, and ensure high availability
- Support production and research workloads across multiple environments
- Help scale clusters toward hundreds to thousands of nodes
- Work on systems handling petabyte-scale storage
- Improve performance, reliability, and resource utilisation
- Automate operational tasks using tools like Python, Bash, Ansible, or Terraform
- Improve deployment, provisioning, and system lifecycle management
- Contribute to system design and architecture decisions
- Work closely with:
- HPC / infrastructure teams
- Platform / DevOps engineers
- Research teams
- Act as a bridge between users and infrastructure
Must-have
- Strong Linux systems administration experience (core requirement)
- Experience working in large-scale environments:
- HPC clusters or cloud infrastructure
- Experience with Job schedulers (e.g. Slurm)
- Solid troubleshooting skills across systems, hardware, and networks
We are not expecting everything — strong depth in one area is valuable.
- Containers / orchestration (e.g. Kubernetes)
- Storage systems (e.g. Ceph, Lustre, NFS)
- Networking fundamentals (Ethernet; InfiniBand is a plus)
- Infrastructure as Code / automation tooling
- GPU or AI/ML experience
- Pragmatic problem solver who can operate in fast-scaling environments
- Comfortable working across multiple domains (“Swiss army knife” mindset)
- Able to go deep in one area while learning others
- Low-ego, collaborative, and hands-on
Why Join Mistral?
- Impact: Play a pivotal role in scaling Mistral’s cutting-edge AI infrastructure.
- Growth: Opportunity to shape data centre operations from the ground up in a high-growth startup environment.
- Collaboration: Work with a talented, cross-functional team passionate about AI and technology.
- Flexibility: Competitive compensation, benefits, and the chance to contribute to revolutionary projects.
Deloitte
Data Engineer especialista en Databricks
Deloitte · Zaragoza, ES
Teletrabajo TSQL Azure Cloud Coumputing Git AWS
Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer especializado en Databricks, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Engineering, Data Science, o similares.
- Posees entre 2-5 años de experiencia como ingeniero de datos en entornos cloud trabajando en procesamiento de grandes volúmenes de datos.
- Has desarrollado soluciones de datos utilizando la plataforma Databricks (certificaciones valorables), especialmente utilizando herramientas como Unity Catalog, Workflows, Delta Live Tables y Asset Bundles.
- Has desarrollado soluciones de datos utilizando servicios de AWS y/o Azure (certificaciones valorables).
- Tienes experiencia en desarrollo y optimización de queries complejas SQL/NoSQL.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Posees experiencia con sistemas de control de versiones, preferiblemente Git.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Posees conocimientos de los sistemas de bases de datos, modelado de datos y SQL.
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Data Engineer
14 abr.GMV
Data Engineer
GMV · Valladolid, ES
Teletrabajo Python TSQL Azure Cloud Coumputing AWS RabbitMQ Microservices Kafka Power BI
¿Buscas un sitio innovador y consolidado en el que desarrollarte profesionalmente? GMV somos un grupo tecnológico con amplia experiencia. Estamos ampliando nuestros equipos en el sector de Sistemas Inteligentes de Transporte (ITS). Nos gusta ir al grano, te vamos a contar lo que no está en la red.
¿A QUÉ RETO TE VAS A ENFRENTAR?
En nuestro equipo trabajarás como Data Engineer especializado/a en Data Warehouse y analítica (Power BI) para el desarrollo y evolución de la plataforma de datos asociada a nuestras soluciones de transporte inteligente (CAD/AVL, ABT, CCTV, etc.). Te integrarás en un entorno basado en arquitectura de microservicios, donde cada servicio dispone de su propia base de datos.
Entre las funciones que realizarás, se encuentran las siguientes:
- Diseño, desarrollo y mantenimiento de procesos ETL/ELT utilizando herramientas como Talend y/o Prefect.
- Integración de datos procedentes de arquitecturas distribuidas basadas en microservicios.
- Modelado y diseño de Data Warehouse orientado a explotación analítica (modelos dimensionales, optimización de consultas).
- Garantizar la calidad, consistencia y trazabilidad del dato.
- Orquestación y monitorización de pipelines de datos.
- Desarrollo de modelos semánticos y datasets para explotación en Power BI.
- Creación de dashboards e informes reutilizables para clientes y soluciones internas.
- Optimización de rendimiento en procesos de carga y explotación de datos.
- Colaboración con equipos de desarrollo backend, producto y analítica.
¿QUÉ NECESITAMOS EN NUESTRO EQUIPO?
Para este puesto, estamos buscando un/a Data Engineer, que quieran un entorno estable en el que desarrollarse, con trayectoria y experiencia en lo siguiente:
- Experiencia en desarrollo de procesos ETL/ELT (Talend, Prefect o herramientas equivalentes).
- Nivel avanzado de SQL.
- Experiencia en diseño y modelado de Data Warehouse (star schema, snowflake, etc.)
- Experiencia trabajando con múltiples fuentes de datos (especialmente en entornos de microservicios).
- Experiencia en herramientas de BI, especialmente Power BI (modelado, DAX, creación de dashboards).
- Conocimientos de orquestación de pipelines de datos.
También valoraremos:
- Experiencia en arquitecturas de datos modernas (data lake, Lakehouse).
- Conocimientos de herramientas de mensajería (RabbitMQ, Kafka).
- Experiencia en entornos Cloud (Azure, AWS o GCP).
- Conocimientos de Python u otros lenguajes para procesamiento de datos.
- Experiencia en diseño de soluciones multi-cliente (multi-tenant).
- Conocimientos en gobierno del dato (data governance, calidad del dato, seguridad).
- Experiencia en el sector del transporte o sistemas ITS.
- Conocimientos de herramientas de monitorización y logging.
¿QUÉ TE OFRECEMOS?
💻 Modelo de trabajo híbrido y 8 semanas al año de teletrabajo fuera de tu área geográfica habitual
🕑 Horario flexible de entrada y salida, y jornada intensiva viernes y verano.
🚀 Desarrollo de plan de carrera personalizado, formación y ayuda para el aprendizaje de idiomas.
🌍 Movilidad nacional e internacional. ¿Vienes de otro país? Te ofrecemos un relocation package.
💰 Retribución competitiva con revisiones continuas, retribución flexible y descuento en marcas.
💪Programa Wellbeing: seguro médico, dental y de accidentes; fruta y café gratis, formación en salud física, mental y económica, y ¡mucho más!
⚠️ En nuestros procesos de selección siempre tendrás contacto telefónico y personal, presencial u online, con nuestro equipo de talent acquisition.
❤️Promovemos la igualdad de oportunidades en la contratación comprometidos con la inclusión y la diversidad
¿A QUE ESPERAS? ÚNETE
Deloitte
Data Engineer especialista en MS Fabric
Deloitte · Zaragoza, ES
Teletrabajo Azure Cloud Coumputing Git DevOps
Te imaginas participando en la transformación de las principales organizaciones nacionales e internacionales?
En Deloitte estamos comprometidos con generar un impacto en la sociedad, en nuestros clientes y en ti.
Desde nuestro equipo de Deloitte Engineering Center, estamos buscando personas que se incorporen a nuestra área de Artificial Intelligence & Data.
¿Cuál es el reto?
Buscamos un Data Engineer especialista en Microsoft Fabric, para participar en proyectos nacionales e internacionales.
¿Cómo te imaginamos?
- Eres Graduado o posees Máster en Ingeniería Informática, Data Engineering, Data Science, o similares.
- Posees al menos 2 años de experiencia como ingeniero de datos trabajando en procesamiento de grandes volúmenes de datos, tanto con servicios Cloud como con herramientas de integración.
- Tienes experiencia en desarrollo y optimización de queries complejas SQL/NoSQL.
- Tienes experiencia con PySpark, SparkSQL y Phyton para el desarrollo de procesos ETL y pipelines de datos.
- Posees conocimientos y experiencia sobre sistemas de bases de datos, data modeling, data quality, data profiling y data lineage.
- Tienes experiencia con la suite de Microsoft Fabric (Lakehouse, Data Warehouse, Notebooks, Pipelines).
- Valoraríamos especialmente certificaciones de Microsoft, como Azure Data Engineer Associate (DP-203), Fabric Analytics Engineer Associate (DP-600) y/o Fabric Data Engineer Associate (DP-700)
- Tienes experiencia y/o conocimiento del framework de dbt para la transformación de datos.
- Estás habituado/a a implementar prácticas de DevOps para datos (DataOps), incluyendo control de versiones (Git) y CI/CD.
- Tienes experiencia en buenas prácticas de desarrollo de software, por ejemplo: pruebas unitarias, arquitectura de aplicaciones de datos, optimización...
- Tienes capacidad de trabajo en equipo, resolución de problemas y has trabajado en entornos colaborativos.
- Orientación a resultados, capacidad analítica y de espíritu de equipo.
- Buenas habilidades de comunicación y capacidad para aprender de manera autodidacta.
- Nivel avanzado de inglés (B2 o superior), con capacidad para comprender y comunicar ideas técnicas complejas tanto de forma oral como escrita.
¿Cómo es trabajar en Deloitte?
Proyectos de alto impacto donde tendrás un largo recorrido y aprendizaje
Un día a día híbrido-flexible: tendrás horario flexible y un buen equilibrio entre el teletrabajo y el trabajo en equipo en nuestras oficinas o las de nuestros clientes
Buen ambiente dentro y fuera de la oficina: disfrutarás de varios teambuildings al año, actividades culturales y deportivas... ¡y mucho más!
Bienestar integral: cuídate con nuestro programa de salud física, mental y financiera... ¡y con equipo médico en las oficinas!
Impacto social: Podrás apuntarte a una gran cantidad de voluntariados de alcance nacional e internacional y a proyectos pro-bono con los que poner tu tiempo y talento al servicio de quienes más lo necesitan
Cultura del feedback y aprendizaje continuo: crecerás en un entorno inclusivo donde la igualdad de oportunidades y tu plan personalizado de formación impulsarán tu desarrollo. ¿Ya te visualizas en la Deloitte University de París?
Beneficios exclusivos por ser parte de Deloitte: podrás disfrutar de un gran catálogo de beneficios y de un completo plan de retribución flexible
Si te gusta lo que lees, estos son tus próximos pasos:
- Aplica a la oferta haciendo clic en ´Enviar candidatura ahora´ y completa tu perfil
- Si encajas en el puesto, nuestro equipo de talento te contactará para conocerte mejor
¡Comienza el proceso! Te iremos guiando por las diferentes fases hasta tu incorporación.
Deloitte es una Firma de servicios profesionales firmemente comprometida con la igualdad de oportunidades. En este sentido, la Firma aceptará y tramitará solicitudes de todos los sectores de la sociedad.
BI Data Engineer
14 abr.Geseme
Barcelona, ES
BI Data Engineer
Geseme · Barcelona, ES
TSQL Azure Power BI
GESEME somos una consultoría de Salud laboral y Prevención de Riesgos Laborales. Nuestro objetivo es cuidar a las personas y mejorar las organizaciones. Estamos bucardo DATA Engineer para incorporar a nuestro equipo en Barcelona.
Te encargarás de:
• Infraestructura y pipelines de datos — Diseñar el Data Warehouse corporativo con arquitectura separada de producción, construir los pipelines desde las distintas fuentes y garantizar que el entorno analítico no impacte los sistemas operativos.
• Reporting y soporte a negocio — Desarrollar y mantener dashboards en Power BI para dirección, delegaciones y clientes.
• Gobernanza, conocimiento e IA — Formalizar el conocimiento histórico de datos en una arquitectura sostenible, proponer mejoras en calidad y gobernanza, y explorar capacidades de inteligencia artificial como Copilot en Power BI, análisis en lenguaje natural y agentes de datos.
Perfil requerido:
• Grado en ingenieria informatica o equivalente o ciclo superior en Aplicaciones multiplataforma con experiencia contrastada
• Experiencia demostrada en diseño y construcción de Data Warehouses y modelado dimensional (estrella, copo de nieve).
• Dominio avanzado de SQL: consultas complejas, optimización y modelado de datos.
• Power BI avanzado: DAX, modelado semántico, Power BI Service, gestión de workspaces y publicación de informes.
• Conocimiento de Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Synapse Analytics).
• Experiencia en construcción de pipelines ETL/ELT y arquitecturas de réplica de lectura separada de producción.
• Python u otro lenguaje de scripting para transformación y automatización de datos.
• Capacidad de trabajar con fuentes de datos heterogéneas y sistemas legacy.
• Perfil técnico con sensibilidad de negocio: capaz de traducir necesidades operativas en modelos de datos accionables.
• Se valorará: conocimiento de Copilot en Fabric/Power BI, Azure OpenAI aplicado a datos, o experiencia con herramientas de inteligencia artificial generativa aplicadas a analytics.
• Se valorará experiencia con Data analitics predictiva.
Data Engineer
13 abr.CAS TRAINING
Data Engineer
CAS TRAINING · Málaga, ES
Teletrabajo Scala AWS Spark
Cas Training, empresa de referencia con más de 20 años de experiencia en consultoría tecnológica, outsourcing y formación especializada, selecciona a un/a Data Engineer para un importante proyecto en modalidad 100% teletrabajo.
Requisitos:
- Experiencia en desarrollos con Spark y Scala
- Conocimiento de las herramientas de ADA. (DataX, Cloudwatch, Dataproc, Helix, Control M)
- Experiencia en desarrollo de Kirbys y Hammurabis.
- Deseable conocimiento plataforma ADA o conocimientos en AWS (Cloudwatch, Athena)
- Deseable experiencia en Kirby/Hammurabi/Scala mínimo 1 año de experiencia
Se ofrece:
- Formar parte de un equipo dinámico y altamente cualificado en una empresa en proceso de expansión.
- Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
- Proyectos de larga duración, estabilidad profesional y progresión laboral.
- Contratación indefinida.
- Acceso gratuito al catálogo de formación anual de Cas Training.
- Salario negociable en base a la experiencia y valía del candidato/a.
¿Te interesa seguir creciendo en proyectos interesantes? ¡No dudes en inscribirte!
Data Engineer (DATIO)
13 abr.Arelance
Data Engineer (DATIO)
Arelance · Madrid, ES
Teletrabajo Scala AWS
En Arelance sabemos que las personas son el activo más importante dentro de una empresa y por tanto invertimos muchos esfuerzos en buscar los mejores profesionales para nuestros clientes, y en ofrecer a nuestros candidatos los mejores proyectos.
En este momento, buscamos incorporar un Data engineer 100% remoto
¿Qué buscamos en ti?
Experiencia minima de 2 años
Conocimiento de las herramientas de Datio - BBVA (DataX, Argos, Dataproc, Helix, Control m...)
Experiencia en desarrollo de Kirbys y hammurabis
Titulacion: Preferentemente en Informatica o Matematicas.
Deseables:
Conocimiento plataforma ADA o conocimientos en AWS (cloudwatch, athena)
Conocimiento Scala
¿Qué ofrecemos en esta posición?
- Contrato indefinido en Arelance
- Acceso a formación
- Modalidad de trabajo:100% remoto desde cualquier punto de España
Si tienes interés en una gran oportunidad como ésta, ¡inscríbete! ¡Queremos conocerte!
*** Sólo se valoran candidatos con permiso de trabajo y residencia en España ***