Ingeniero de datos - Databricks Gold - Modelo Híbrido Barcelona
2026-03-25
Barcelona, España
Descripción de la oferta
Duración de la oferta: hasta el 24/04/2026.FuncionesDiseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks. Databricks capa GOLD imprescindible. Implementar y operar arquitectura Lakehouse con Delta Lake. Definir e implantar controles de calidad de datos. Crear y mantener datasets listos para consumo. Gestionar gobernanza con Unity Catalog. Mejorar rendimiento y costes. Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos. Colaborar con seguridad y cumplimiento.Requisitos+2 años en tratamiento, explotación y análisis de datos en entornos productivos. Experiencia sólida en Databricks: Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks. Operación de pipelines con Databricks Workflows/Jobs. Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD. Experiencia en Delta Lake y patrones Lakehouse: Tablas Delta, schema evolution, time travel, OPTIMIZE/Z ORDER, VACUUM. Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico. Basarse en la capa GOLD. Prioridad si ha trabajado con herramienta para el CTTI. Experiencia en calidad de datos: Detección, registro, seguimiento y resolución de incidencias de calidad. Definición de reglas de validación y monitorización. Experiencia en soporte a usuarios y herramientas de explotación.Se ofreceModelo híbrido (tres días de teletrabajo) Crecimiento profesional
Duración de la oferta: hasta el 24/04/2026.FuncionesDiseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks. Databricks capa GOLD imprescindible. Implementar y operar arquitectura Lakehouse con Delta Lake. Definir e implantar controles de calidad de datos. Crear y mantener datasets listos para consumo. Gestionar gobernanza con Unity Catalog. Mejorar rendimiento y costes. Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos. Colaborar con seguridad y cumplimiento.Requisitos+2 años en tratamiento, explotación y análisis de datos en entornos productivos. Experiencia sólida en Databricks: Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks. Operación de pipelines con Databricks Workflows/Jobs. Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD. Experiencia en Delta Lake y patrones Lakehouse: Tablas Delta, schema evolution, time travel, OPTIMIZE/Z ORDER, VACUUM. Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico. Basarse en la capa GOLD. Prioridad si ha trabajado con herramienta para el CTTI. Experiencia en calidad de datos: Detección, registro, seguimiento y resolución de incidencias de calidad. Definición de reglas de validación y monitorización. Experiencia en soporte a usuarios y herramientas de explotación.Se ofreceModelo híbrido (tres días de teletrabajo) Crecimiento profesional