Descripción de la oferta
Ubicación : Reus, Granada, Málaga o Sevilla. Responsabilidades: Diseñar, desarrollar y mantener pipelines de datos ETL/ELT para la ingesta, transformación y disponibilidad de datos desde múltiples fuentes. Implementar procesos de procesamiento y transformación de datos utilizando Spark / PySpark, Python y SQL. Participar en el diseño y evolución de arquitecturas, modelos de datos y procesos ETL en soluciones basadas en Data Lake, Data Warehouse o Lakehouse. Garantizar la calidad, consistencia y fiabilidad del dato mediante validaciones, controles y buenas prácticas de ingeniería. Colaborar con equipos de analítica, BI y ciencia de datos para facilitar el consumo de datos y modelos analíticos. Optimizar el rendimiento de pipelines y consultas sobre grandes volúmenes de datos. Integrar datos procedentes de diferentes orígenes: bases de datos relacionales, sistemas cloud, ficheros, APIs y fuentes externas. Participar en la automatización de despliegues y en la gestión del ciclo de vida de los desarrollos mediante CI/CD. Documentar los procesos, flujos de datos y desarrollos técnicos. Trabajar en entornos ágiles, participando activamente en ceremonias y mejora continua del equipo. Requisitos: Entre 4 y 6 años de experiencia en proyectos de Data Engineering o integración de datos . Experiencia sólida en diseño e implementación de ETL/ELT . Dominio de Python y SQL . Experiencia práctica en Spark / PySpark para procesamiento distribuido. Conocimiento de arquitecturas de datos modernas (Data Lake, Data Warehouse, Lakehouse). Experiencia trabajando en al menos un entorno cloud (Azure, AWS o GCP). Conocimiento de CI/CD y control de versiones con Git. Familiaridad con pipelines automatizados (Azure DevOps, GitLab CI/CD, Jenkins o similares). Capacidad para escribir código mantenible, testeable y documentado. Buenas habilidades de comunicación y trabajo en equipo. Valorable Experiencia con herramientas de orquestación (Airflow, Prefect, Azure Data Factory, etc.). Conocimientos básicos de Infraestructura como Código (IaC) (Terraform, ARM, CloudFormation). Conocimiento de herramientas de BI o consumo analítico (Power BI, Tableau, Looker). Certificaciones cloud o de datos (Azure/AWS/GCP Data Engineer Associate). ¿Qué es lo que le ofrecemos? Ambiente de trabajo internacional, positivo, dinámico y motivado. Modelo de trabajo híbrido (teletrabajo/presencial). Horario flexible. Formación continua: Preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán... Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte... Seguro de vida y accidentes. Más de 26 días laborables de vacaciones al año. Fondo social. Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...) 100% del salario en caso de baja médica ¡Y muchas más ventajas de formar parte de T-Systems! Si estás buscando un nuevo desafío, no dudes en enviarnos tu CV. ¡Únete a nuestro equipo! T-Systems Iberia solo procesará los CV de las candidaturas que cumplan los requisitos especificados para cada oferta. #J-18808-Ljbffr