Data Engineer
2024-10-21
Madrid
ProyectoEn TalentHackers, estamos comprometidos con la innovación y la excelencia en el desarrollo de herramientas tecnológicas. Buscamos incorporar a nuestro equipo Ingenieros de Datos con experiencia en el python y SQL, uso de API y bases de datos. Nuestra sede se encuentra en Madrid, con posibilidad de teletrabajo.RolTu misión principal será el mantenimiento y desarrollo de pipelines de datos utilizando plataformas en la nube como Databricks. Participaras en la integración de procesos con IA. Además, será responsable del desarrollo de herramientas de calidad y explotación de datos para asegurar la integridad y accesibilidad de la información.Funciones principales:
Diseñar, desarrollar y mantener procesos ETL.
Desarrollar y optimizar consultas SQL para extraer y transformar datos.
Diseño e Implementación de soluciones guiadas por IA.
Utilizar Python para automatizar pipelines de datos y tareas de procesamiento.
Colaborar con equipos multifuncionales para entender los requisitos de datos y proporcionar soluciones de datos escalables.
Uso e integración de APIs para la integración y acceso a datos.
Asegurar la calidad e integridad de los datos a través de diversas fuentes de datos y sistemas.
Participar en el diseño e implementación de soluciones de almacenamiento de datos.
Crear y mantener documentación técnica relacionada con los procesos de datos y las arquitecturas de sistemas.
Requisitos:
Mínimos 2 años de experiencia en tratamiento de datos.
Experiencia demostrable en Python y SQL.
Experiencia en el desarrollo y mantenimiento de procesos ETL.
Familiaridad con el uso de APIs.
Habilidades sólidas en la resolución de problemas y capacidad para trabajar de manera autónoma y en equipo.
Buenas habilidades de comunicación y capacidad para colaborar con diferentes equipos de trabajo.
Requisitos valorables:
Experiencia con herramientas de visualización y análisis de datos: Power BI.
Conocimientos en PySpark.
Experiencia con Databricks.
Conocimientos en tecnologías de almacenamiento de datos en la nube como Azure, GCP o AWS.
Beneficios:
Salario competitivo acorde a la experiencia.
Oportunidades de desarrollo y crecimiento profesional.
Ambiente de trabajo colaborativo y dinámico.
Flexibilidad laboral.
Diseñar, desarrollar y mantener procesos ETL.
Desarrollar y optimizar consultas SQL para extraer y transformar datos.
Diseño e Implementación de soluciones guiadas por IA.
Utilizar Python para automatizar pipelines de datos y tareas de procesamiento.
Colaborar con equipos multifuncionales para entender los requisitos de datos y proporcionar soluciones de datos escalables.
Uso e integración de APIs para la integración y acceso a datos.
Asegurar la calidad e integridad de los datos a través de diversas fuentes de datos y sistemas.
Participar en el diseño e implementación de soluciones de almacenamiento de datos.
Crear y mantener documentación técnica relacionada con los procesos de datos y las arquitecturas de sistemas.
Requisitos:
Mínimos 2 años de experiencia en tratamiento de datos.
Experiencia demostrable en Python y SQL.
Experiencia en el desarrollo y mantenimiento de procesos ETL.
Familiaridad con el uso de APIs.
Habilidades sólidas en la resolución de problemas y capacidad para trabajar de manera autónoma y en equipo.
Buenas habilidades de comunicación y capacidad para colaborar con diferentes equipos de trabajo.
Requisitos valorables:
Experiencia con herramientas de visualización y análisis de datos: Power BI.
Conocimientos en PySpark.
Experiencia con Databricks.
Conocimientos en tecnologías de almacenamiento de datos en la nube como Azure, GCP o AWS.
Beneficios:
Salario competitivo acorde a la experiencia.
Oportunidades de desarrollo y crecimiento profesional.
Ambiente de trabajo colaborativo y dinámico.
Flexibilidad laboral.