¡No te pierdas nada!
Únete a la comunidad de wijobs y recibe por email las mejores ofertas de empleo
Nunca compartiremos tu email con nadie y no te vamos a enviar spam
Suscríbete AhoraTransporte y Logística
1.261Informática e IT
1.165Comercial y Ventas
1.091Adminstración y Secretariado
872Comercio y Venta al Detalle
640Ver más categorías
Desarrollo de Software
520Industria Manufacturera
495Ingeniería y Mecánica
436Educación y Formación
345Derecho y Legal
321Instalación y Mantenimiento
312Marketing y Negocio
301Publicidad y Comunicación
249Sanidad y Salud
159Contabilidad y Finanzas
158Diseño y Usabilidad
157Construcción
121Arte, Moda y Diseño
113Recursos Humanos
109Artes y Oficios
98Alimentación
95Hostelería
94Inmobiliaria
89Turismo y Entretenimiento
69Atención al cliente
68Cuidados y Servicios Personales
58Producto
44Banca
37Seguridad
33Farmacéutica
23Energía y Minería
17Social y Voluntariado
15Seguros
6Deporte y Entrenamiento
5Telecomunicaciones
4Agricultura
2Editorial y Medios
2Ciencia e Investigación
0Data Engineer
NuevaBBVA Technology en Europa
Data Engineer
BBVA Technology en Europa · Madrid, ES
Teletrabajo Agile TSQL Linux
¡Bienvenido al lugar que te mereces!
🔍¿Qué buscamos?
Un perfil de Data Engineer para mantenimiento de procesos informacionales en el área de Data Engineering.
Te buscamos, independientemente de tu género, capacidades diferentes, orientación sexual, origen étnico o cualquier característica que te haga único/a.
✨Qué esperamos de ti ✨
- Experiencia con consultas SQL y/o procesos ETL.
- Conocimientos en Powercenter - Linux - Teradata - Control-M.
- Conocimiento de Modelado de Datos y orientación al trabajo en equipo.
- Capacidad de innovación y adaptación al cambio.
😎 Qué responsabilidades tendrás:
- Formarás parte del Servicio de Mantenimiento de la Plataforma Informacional donde recopilamos la información relevante de los distintos aplicativos, la transformamos y ponemos a disposición de los usuarios finales.
💙 Qué tenemos de especial
- 2000€ anuales para seguir formándote.
- Ayuda alimentaria y gastos de teletrabajo.
- ¡30 días entre vacaciones y días de libre disposición al año!
- Jornada intensiva los viernes y dos meses y medio en verano.
- Modelo de teletrabajo perfecto para la conciliación y disfrute de tu tiempo libre y horario flexible para que seas tú quien decida cómo organizar tu tiempo.
- Ayudas para familiares con discapacidad.
- Sistema de retribución flexible (transporte, seguro médico de Sanitas, Movistar...).
- Ventajas en productos financieros BBVA (hipotecas, préstamos, tarjetas, seguros, etc.).
- Modelo de talento enfocado en perfiles tecnológicos. Proporcionamos herramientas y oportunidades para crecer y destacar tus habilidades.
Además…
- Te sentirás acompañado/a desde tu primer día, tanto en el proyecto, como en la compañía. Nuestros onboarding son famosos 😏
- El compañerismo es parte de nuestro ADN. Estarás en un equipo con gente majísima.
- Entorno multidisciplinario con metodologías Agile.
- Tus proyectos tendrán impacto en el mundo financiero y en la sociedad.
- Nos gusta disfrutar y asistir a fiestas, eventos, actividades… porque trabajar es solo la excusa.
Entonces… ¿Qué nos dices? ¿Hacemos match? 💙
Data Engineer Azure
26 mar.NPR Spain
Data Engineer Azure
NPR Spain · Madrid, ES
Teletrabajo TSQL Azure Big Data SQL Server
En NPR Spain, estamos en constante búsqueda de talento para seguir creciendo y ofrecer soluciones de vanguardia.
En este momento, estamos buscando un perfil junior/mid Data Engineer Azure para unirse a nuestro equipo y participar en proyectos innovadores en un entorno dinámico y colaborativo.
🔍 ¿QUÉ BUSCAMOS?
Buscamos un profesional con experiencia de al menos 2 años como Data Engineer en Azure, que tenga ganas de aportar en proyectos interesantes tanto a nivel técnico como en contacto directo con clientes. Si eres una persona que se siente cómoda trabajando en entornos dinámicos y quieres seguir creciendo en el mundo de la ingeniería de datos, ¡te estamos buscando!
💻 REQUISITOS TÉCNICOS:
• Al menos 2 años de experiencia como Data Engineer en Azure.
• Experiencia en la creación de pipelines con Azure Data Factory.
• Conocimientos en SQL Server, incluyendo la creación de queries y modelado de datos.
• Valorable experiencia con Databricks.
• Experiencia en proyectos de migración a Azure es un plus.
🚀 Valoraremos positivamente:
• Experiencia en Big Data y otras herramientas de la nube.
• Certificaciones en Azure o en herramientas relacionadas.
🏢 ¿QUÉ OFRECEMOS?
• Contrato indefinido.
• Salario competitivo, acorde a la experiencia y habilidades del candidato.
• Modalidad 100% remota (flexibilidad para reuniones puntuales).
• Ubicación: Madrid
• Entorno de trabajo dinámico: Tendrás la oportunidad de continuar con proyectos nuevos tras finalizar el inicial, con continuidad a largo plazo.
• Oportunidades de crecimiento y aprendizaje.
¿Por qué unirte a nosotros?
Trabajarás en proyectos de alta tecnología, estarás en un equipo que fomenta el aprendizaje y crecimiento, y tendrás la oportunidad de poner en práctica tus conocimientos en un entorno que valora la proactividad y la comunicación abierta.
Si eres un profesional con la motivación y la energía para desarrollarte como Data Engineer Azure, ¡queremos conocerte!
Machine Learning Engineer
26 mar.serem. Consultoría empresarial
Machine Learning Engineer
serem. Consultoría empresarial · Madrid, ES
Teletrabajo Python C++ Scala DevOps Machine Learning
Desde Serem nos encontramos en la búsqueda de un COMPUTER VISION ENGINEER con al menos 3 años de experiencia para importante proyecto.
Funciones
Desarrollar aplicaciones de COMPUTER VISION y DEEP LEARNING relacionadas con la detección de objetos, segmentación de objetos y detección de actividades/acciones.
Pensamiento científico y capacidad para inventar, implementar y liderar desarrollos tecnológicos.
Dedicación a la exploración industrial y de mercado en cuanto a capacidades de aprendizaje automático, evaluando y liderando estudios de viabilidad y aplicaciones.
Utilización de hardware e imágenes existentes, además de nuevas técnicas de recopilación de datos de imágenes, para producir modelos y algoritmos innovadores de análisis de imágenes.
Desarrollo de enfoques de aprendizaje automático que mejoren la velocidad y precisión del desarrollo de algoritmos de imágenes para métodos de inspección y control de calidad.
Liderar la ideación, creación de prototipos y desarrollo de software de inteligencia artificial.
Demostrar experiencia en la resolución de problemas de visión por computadora.
Desarrollar algoritmos de aprendizaje profundo y aprendizaje automático tradicional para el negocio.
Diseñar y desarrollar arquitecturas de software escalables.
Facilitar el diseño e implementación del equipo de hardware de visión necesario para la recopilación de datos de imágenes.
Crear y mantener la arquitectura de canalización de datos para el desarrollo de algoritmos de aprendizaje automático.
Requisitos
Mínimo 2 años de experiencia industrial en el desarrollo y despliegue de aplicaciones de COMPUTER VISION y MACHINE LEARNING en producción a gran escala.
Experiencia en desarrollo de software, integración con algoritmos de aprendizaje profundo y despliegue en producción.
Dominio en la comprensión científica e implementación de arquitecturas de aprendizaje profundo en Visión por Computador (clasificación de imágenes, detección de objetos, segmentación, estimación de poses) desde la concepción hasta el despliegue en producción.
Desarrollo de software en Python, Deep Learning (TensorFlow y PyTorch), bibliotecas de aprendizaje automático (OpenCV, Scikit-learn, NumPy, Pandas) y análisis de datos/informes.
DevOps: gestión de código, control de versiones, revisión de código, CI/CD, gestión de configuraciones, monitoreo y contenedorización.
MLOps: gestión de experimentos (versionado de modelos, versionado de parámetros, métricas de rendimiento del modelo), integración, servicio, despliegue, pruebas y monitoreo continuo.
DataOps: recopilación de datos, anotación, calidad, visualización, versionado e ingeniería de datos.
Inglés avanzado
Deseable
Máster o Doctorado en Ciencias de la Computación, Ingeniería, Matemáticas o Estadística, con especialización en visión por computadora y aprendizaje profundo.
Dominio de frameworks de aprendizaje profundo (Tensorflow, Keras o Pytorch).
Dominio de bibliotecas de Visión por Computadora y Aprendizaje Automático (OpenCV, Scikit-learn, Numpy, Pandas).
Experiencia en desarrollo de software en aplicaciones multihilo.
Dominio en programación en C++.
Experiencia con Python, C++, NVIDIA Jetson, ONNX, OpenVINO y TensorRT.
Experiencia en algoritmos de imágenes en 3D.
python, c++, data, ci/cd, scala,
Data engineer Python Gcp
26 mar.CAS TRAINING
Data engineer Python Gcp
CAS TRAINING · Madrid, ES
Teletrabajo Python Cloud Coumputing
Buscamos a un/a data engineer con al menos dos años de experiencia para proyecto del sector telecomunicaciones en modalidad remoto
REQUISITOS
Teradata - Scripting (unix, Shell) - Google Cloud Platform, Bigquery, seguridad en GCP, Composer Airflow - Python - Diseño modelo de datos y ETL
Ofrecemos:
- Formar parte de un equipo dinámico y altamente cualificado en una empresa en proceso de expansión.
- Participar en proyectos innovadores y punteros para grandes clientes de primer nivel en distintos sectores de mercado.
- Proyectos de larga duración, estabilidad profesional y progresión laboral.
- Contratación indefinida.
- Acceso gratuito al catálogo de formación anual de Cas Training.
- Salario negociable en base a la experiencia y valía del candidato/a.
Data Engineer
26 mar.PSS
Data Engineer
PSS · Barcelona, ES
Teletrabajo TSQL NoSQL Jenkins Kubernetes Elasticsearch Scala Hadoop Kafka Spark
¿Te apetece formar parte de una compañía del sector IT? Si estás buscando un proyecto estable y seguir evolucionando en tu carrera profesional acompañado del mejor talento, en PSS queremos conocerte.
Actualmente estamos seleccionando un perfil Data Engineer para importante cliente del sector bancario.
Para ello, ¿qué necesitamos?
Spark con Scala
Procesos de streaming (Kafka, event stream, etc.)
Apache Airflow
Almacenamiento S3/COS y formato Parquet
Bases de datos SQL y NoSQL
Herramientas CI/CD (Gitlab, Jenkins, etc.)
Hadoop
Shell scripting
Ciclo de vida del desarrollo de software (SDLC)
Principios y ceremonias ágiles
Contenedorización con Kubernetes
Elasticsearch y Kibana
HVault
Dataiku
Dremio como herramienta para virtualización de datos.
Inglés: B2+
Y llegados a este punto... ¿qué te ofrecemos?
Contrato indefinido con PSS, brindándote estabilidad laboral.
Salario acorde a la experiencia aportada.
Modelo de trabajo : 100% teletrabajo
Proyecto sólido y estable.
Plan de carrera y formación continua, impulsando tu crecimiento profesional.
Retribución flexible con ventajas fiscales: te ofrecemos una gama de opciones, como seguro médico privado, ticket restaurante, ticket guardería y/o ticket transporte, que puedes adaptar a tus necesidades.
Campaña de referenciados: si conoces a alguien en el sector que encaje en nuestras vacantes, invítalo a trabajar contigo y recibirás un premio especial. ¡Comparte esta oportunidad con tus amigos!
Portal de Descuentos: tu acceso exclusivo a ofertas en tecnología, viajes, moda y mucho más.
PSS comprometida con la Igualdad.
Senior Cloud/DevOps Engineer
25 mar.EY
Málaga, ES
Senior Cloud/DevOps Engineer
EY · Málaga, ES
.Net Java Node.js Python Agile Azure Jenkins Cloud Coumputing Kubernetes Git Groovy PowerShell Bash DevOps Terraform Office
Senior Cloud/DevOps Engineer
The opportunity
We are looking for a Senior DevOps engineer to join our EY GDS Consulting Services team focused on providing cutting-edge IT solutions dedicated to the biggest market players in the EMEA region.
As a member of our team in the EY GDS Spain office in Malaga, you´ll have a chance to extend your knowledge & experience by working on interesting projects with the newest technologies and approaches. You´ll support clients in choosing the most suitable business solution and take part in digital transformation.
Your key responsibilities
- Provision and automate as much as possible (IaC, Configuration Management) the necessary infrastructure to support various development activities
- Build, test and maintain continuous integration and delivery workflows using CI/CD tools (Jenkins, Azure DevOps, etc.)
- Assess existing technology and provide plans and processes for improvement to deliver self-service capabilities for the most common tasks
Skills and attributes for success
- Experience in DevOps practices including design, configuration, continuous integration & delivery workflows in CI/CD tools (Jenkins, Azure DevOps, Grafana, Terraform, Git Hub, etc.)
- Experience with implementing code quality analysis, vulnerability scans, and compliance validation
- Experience in Linux/Windows Administration with scripting capability in one or more languages: Python, Bash, PowerShell, and Groovy
- Experience in deploying applications (involving Java, .Net, and Node.js, etc.) and understanding its architecture
- Knowledge in operating a Kubernetes cluster and managing & deploying containerized applications on it
To qualify for the role, you must have
- Diploma or Degree in Computer Science, Software Engineering, or related discipline with 4+ years of overall experience
- Good technical knowledge of Microservice-oriented solutions, APIs, Azure AD, and common Cloud authentication patterns
- Cloud/DevOps Certification (MS Azure/AWS/GCP)
Ideally, you´ll also have
- Ability to work in both collaborative and independent work environments
- Proven ability to work as DevOps lead on projects
- Excellent command of English (written and spoken)
What we look for
As we are a dynamic team of passionate specialists, and we work in international teams all over the world, we will look for the same business acumen. Facing customers, we are "out-of-the-box thinking" professionals. Our top performers have a team player attitude, and they cope with challenges on a daily basis. If it all sounds familiar to you - we are looking forward to seeing you on board.
What we offer
In EY GDS Spain, you will collaborate with our teams on exciting projects and work with well-known brands from across the globe. We´ll introduce you to an ever-expanding ecosystem of people, learning, skills, and insights that will stay with you throughout your career.
- Continuous learning: You´ll develop the mindset and skills to navigate whatever comes next.
- Success as defined by you: We´ll provide the tools and flexibility, so you can make a meaningful impact, your way.
- Transformative leadership: We´ll give you the insights, coaching, and confidence to be the leader the world needs.
- Diverse and inclusive culture: You´ll be embraced for who you are and empowered to use your voice to help others find theirs.
About EY GDS
EY Global Delivery Services (EY GDS) is a dynamic and truly global delivery network of over 75,000 people working across the world to provide innovative and strategic business solutions to our clients worldwide. We play a vital role in growth strategy, helping our clients become agile and efficient, and helping fulfill our purpose to build a better working world.
Axiom Software Solutions
Data Engineering Solutions Design
Axiom Software Solutions · Bayern, ES
Teletrabajo Agile Big Data
Job Title: Data Engineering Solutions Design
Base Location: Munich, Germany (Fully Remote/Hybrid)
Duration: B2b Contract/FTC/FTE
Experience: 8-10 Years
Language: Native German
Domain: Utility domain
Professional skills
- Solid SAP BTP knowledge, especially in Data intelligence and data services for the integration of external data warehouses.
- Experience in designing data models and architectures for big data and complex data flows.
- Expertise in the development and optimization of ETL processes, with a focus on data quality and consistency.
- Strong analytical skills to solve data integration problems and process optimization.
- Knowledge of security standards for handling large amounts of data and data protection.
- Experience in working with specialist departments to develop customized integration solutions.
Job description
- Development of customized solutions for integrating SAP BTP with external data warehouses, taking into account data models and protocols.
- Efficient implementation of processes for loading external data warehouses with SAP tools such as Data Intelligence and Data Services.
- Analyzing and improving data flows, ETL processes and ensuring data quality and consistency.
- Close cooperation with specialist departments to develop suitable integration solutions.
- Development of data architectures for efficient processing of large amounts of data with a focus on security, costs, and performance.
Soft skills
- Good communication skills
- Quick perception
- Working in agile teams
- Good teamwork skills
Machine Learning Engineer
25 mar.Serem
Machine Learning Engineer
Serem · Madrid, ES
Teletrabajo Python C++ DevOps Machine Learning
Desde Serem nos encontramos en la búsqueda de un COMPUTER VISION ENGINEER con al menos 3 años de experiencia para importante proyecto.
Funciones:
• Desarrollar aplicaciones de COMPUTER VISION y DEEP LEARNING relacionadas con la detección de objetos, segmentación de objetos y detección de actividades/acciones.
• Pensamiento científico y capacidad para inventar, implementar y liderar desarrollos tecnológicos.
• Dedicación a la exploración industrial y de mercado en cuanto a capacidades de aprendizaje automático, evaluando y liderando estudios de viabilidad y aplicaciones.
• Utilización de hardware e imágenes existentes, además de nuevas técnicas de recopilación de datos de imágenes, para producir modelos y algoritmos innovadores de análisis de imágenes.
• Desarrollo de enfoques de aprendizaje automático que mejoren la velocidad y precisión del desarrollo de algoritmos de imágenes para métodos de inspección y control de calidad.
• Liderar la ideación, creación de prototipos y desarrollo de software de inteligencia artificial.
• Demostrar experiencia en la resolución de problemas de visión por computadora.
• Desarrollar algoritmos de aprendizaje profundo y aprendizaje automático tradicional para el negocio.
• Diseñar y desarrollar arquitecturas de software escalables.
• Facilitar el diseño e implementación del equipo de hardware de visión necesario para la recopilación de datos de imágenes.
• Crear y mantener la arquitectura de canalización de datos para el desarrollo de algoritmos de aprendizaje automático.
REQUISITOS:
• Mínimo 2 años de experiencia industrial en el desarrollo y despliegue de aplicaciones de COMPUTER VISION y MACHINE LEARNING en producción a gran escala.
• Experiencia en desarrollo de software, integración con algoritmos de aprendizaje profundo y despliegue en producción.
• Dominio en la comprensión científica e implementación de arquitecturas de aprendizaje profundo en Visión por Computador (clasificación de imágenes, detección de objetos, segmentación, estimación de poses) desde la concepción hasta el despliegue en producción.
• Desarrollo de software en Python, Deep Learning (TensorFlow y PyTorch), bibliotecas de aprendizaje automático (OpenCV, Scikit-learn, NumPy, Pandas) y análisis de datos/informes.
• DevOps: gestión de código, control de versiones, revisión de código, CI/CD, gestión de configuraciones, monitoreo y contenedorización.
• MLOps: gestión de experimentos (versionado de modelos, versionado de parámetros, métricas de rendimiento del modelo), integración, servicio, despliegue, pruebas y monitoreo continuo.
• DataOps: recopilación de datos, anotación, calidad, visualización, versionado e ingeniería de datos.
• Inglés avanzado
DESEABLE:
• Máster o Doctorado en Ciencias de la Computación, Ingeniería, Matemáticas o Estadística, con especialización en visión por computadora y aprendizaje profundo.
• Dominio de frameworks de aprendizaje profundo (Tensorflow, Keras o Pytorch).
• Dominio de bibliotecas de Visión por Computadora y Aprendizaje Automático (OpenCV, Scikit-learn, Numpy, Pandas).
• Experiencia en desarrollo de software en aplicaciones multihilo.
• Dominio en programación en C++.
• Experiencia con Python, C++, NVIDIA Jetson, ONNX, OpenVINO y TensorRT.
• Experiencia en algoritmos de imágenes en 3D.
Devops
25 mar.CAS TRAINING
Devops
CAS TRAINING · Madrid, ES
Teletrabajo Azure Jenkins Docker Cloud Coumputing Kubernetes OpenShift AWS DevOps Terraform
CAS Training selecciona a un devops con al menos dos años de experiencia en Cloud Publica y Cloud Privada para proyecto remoto del sector bancario
Skills
Experiencia y experto en el desarrollo soluciones de Cloud Publica preferible AWS y AZURE.
Terraform Kubernetes
Experiencia en Kubernentes: Docker Openshift
Experiencia en herramientas de ALM (Jenkins, Nexus, Sonatype, Jmeter, SonarQube, Vault