Data Architect
hace 15 horas
Madrid
¿Qué estamos buscando? Actualmente, tenemos un puesto vacante para un/a Data Architect que quiera unirse a nuestra compañía. Buscamos una persona con sólida trayectoría en ciencia de datos, capaz de liderar equipos o diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas para nuestro Centro de Excelencia en España (CoE) Data & IA. Tus principales responsabilidades serán: Responsable de diseñar, implementar y evolucionar la arquitectura de datos de la organización, asegurando que los sistemas de ingesta, procesamiento, almacenamaiento y consumo de datos sean escalables, seguros y eficientes. Diseñar y mantener la arquitectura de referencias de datos (en entornos batch y streaming). Definir estrategias de ingesta (CDC, API, streaming), almacenamiento (Data Lake, Data Warehouse, Lakehouse) y orquestación. Asegurar la calidad, integridad y disponibilidad de los datos a lo largo de su ciclo de vida. Liderar la adopción de patrones y frameworks de integración de datos (ETL/ELT, Data Mesh, Event-Driven). Colaborar con equipos de ingeniería, analítica y negocio para definir modelos de datos y necesidades de explotación. Supervisar la seguridad, gobernanza y cumplimiento normativo (GDPR, políticas de acceso, catalogación). Evaluar nuevas tecnologías y proponer mejoras de rendimiento, coste o mantenibilidad. Liderazgo técnico y coaching. Requisitos: Experiencia profesional de más de 7 años en proyectos como Data Architect. Diseño de arquitecturas distribuidas y escalables. Procesamiento batch y streaming. Integración de datos (CDC, APIs, colas, mensajería, ETL/ELT). Patrones de Data Lake / Data Warehouse / Lakehouse / Data Mesh. Principios de seguridad, gobierno y calidad de datos. Modelado de datos relacional y dimensional. Familiaridad con metodologías ágiles (Scrum/Kanban). Valorable nivel de inglés alto (B2/C1) para colaborar en proyectos internacionales. Tecnologías principales con las que trabajamos: Cloud Platforms: Azure (Data Factory, Synapse, Databricks, Event Hub), AWS (Glue, Redshift, S3, Kinesis), GCP (BigQuery, Dataflow, Pub/Sub). Procesamiento de datos: Spark, Databricks, Flink, Beam, Airflow. Bases de datos y almacenamiento: SQL Server, PostgreSQL, Snowflake, Delta Lake, Parquet, BigQuery. Ingesta y streaming: Kafka, Debezium, NiFi, AirByte, Event Hub, Pub/Sub. Gobernanza y catálogo: Unity Catalog, Collibra, Anjana, OpenMetadata, Purview. Contenedores y orquestación: Docker, Kubernetes. Lenguajes: Python, Scala, Java, SQL. Competencias personales: Trabajo en equipo y colaboración multidisciplinaria. Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar. Buena comunicación y documentación técnica. Orientación a resultados y proactividad. Ofrecemos: En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo. ¡Únete a nuestro equipo global! #J-18808-Ljbffr