Descripción de la oferta
Ubicación: Reus, Granada, Málaga o Sevilla.
Responsabilidades
Diseñar, desarrollar y mantener pipelines de datos ETL/ELT para la ingesta, transformación y disponibilidad de datos desde múltiples fuentes.
Implementar procesos de procesamiento y transformación de datos utilizando Spark / PySpark, Python y SQL.
Participar en el diseño y evolución de arquitecturas, modelos de datos y procesos ETL en soluciones basadas en Data Lake, Data Warehouse o Lakehouse.
Garantizar la calidad, consistencia y fiabilidad del dato mediante validaciones, controles y buenas prácticas de ingeniería.
Colaborar con equipos de analítica BI y ciencia de datos para facilitar el consumo de datos y modelos analíticos.
Optimizar el rendimiento de pipelines y consultas sobre grandes volúmenes de datos.
Integrar datos procedentes de diferentes orígenes: bases de datos relacionales, sistemas cloud, ficheros, APIs y fuentes externas.
Participar en la automatización de despliegues y en la gestión del ciclo de vida de los desarrollos mediante CI/CD.
Documentar los procesos, flujos de datos y desarrollos técnicos.
Trabajar en entornos ágiles participando activamente en ceremonias y mejora continua del equipo.
Requisitos
Entre 4 y 6 años de experiencia en proyectos de Data Engineering o integración de datos.
Experiencia sólida en diseño e implementación de ETL/ELT.
Dominio de Python y SQL.
Experiencia práctica en Spark / PySpark para procesamiento distribuido.
Conocimiento de arquitecturas de datos modernas (Data Lake, Data Warehouse, Lakehouse).
Experiencia trabajando en al menos un entorno cloud (Azure, AWS o GCP).
Conocimiento de CI/CD y control de versiones con Git.
Familiaridad con pipelines automatizados (Azure DevOps, GitLab CI/CD, Jenkins o similares).
Capacidad para escribir código mantenible, testeable y documentado.
Buenas habilidades de comunicación y trabajo en equipo.
Valorable
Experiencia con herramientas de orquestación (Airflow, Prefect, Azure Data Factory, etc.).
Conocimientos básicos de Infraestructura como Código (IaC) (Terraform, ARM, CloudFormation).
Conocimiento de herramientas de BI o consumo analítico (Power BI, Tableau, Looker).
Certificaciones cloud o de datos (Azure/AWS/GCP Data Engineer Associate).
Información adicional
Qué es lo que le ofrecemos
Ambiente de trabajo internacional, positivo, dinámico y motivado.
Modelo de trabajo híbrido (teletrabajo/presencial).
Horario flexible.
Formación continua: preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán…
Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte…
Seguro de vida y accidentes.
Más de 26 días laborables de vacaciones al año.
Fondo social.
Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados…)
100% del salario en caso de baja médica.
T-Systems Iberia solo procesará los CV de las candidaturas que cumplan los requisitos especificados para cada oferta.
Remote Work
No
Employment Type
Full-time
Key Skills
Apache Hive,S3,Hadoop,Redshift,Spark,AWS,Apache Pig,NoSQL,Big Data,Data Warehouse,Kafka,Scala
Experience
years
Vacancy
1
#J-18808-Ljbffr