Data Solutions Architect
hace 17 horas
Valencia
Actualmente, tenemos un puesto vacante para un/a Data Solution Architect que quiera unirse a nuestra compañía. Buscamos una persona con sólida trayectoría en ciencia de datos, capaz de liderar equipos o diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas para nuestro Center of Excellence (CoE) AI.DA. ¿Está considerando presentar su candidatura para este trabajo? Compruebe todos los detalles en esta descripción del puesto y luego haga clic en "Solicitar". Tus principales responsabilidades serán: Buscamos un perfil con background técnico en Data, capaz de moverse con soltura en entornos cloud y de aportar valor tanto en fases de preventa como en la ejecución de proyectos, con una visión práctica y orientada a negocio. • Liderar use case discovery, scoping y definición de la solución, con capacidad de ajustar el nivel técnico según el interlocutor (de negocio a arquitectura)., • Guiar la evaluación técnica durante el proceso de venta (hands‑on), actuando como asesor técnico del equipo comercial y ayudando a tomar decisiones de arquitectura., • Construir relaciones de confianza con cuentas (idealmente enterprise/Tier‑1) y posicionarse como trusted advisor en el “Data & AI landscape”., • Navegar contextos competitivos, responder objeciones y traducir diferenciadores técnicos en valor de negocio., • Ser “voz del cliente” hacia producto/partners cuando haya fricción, gaps o necesidades recurrentes en el campo.Arquitectura de solución:, • Diseñar arquitecturas de Data Engineering / Data Warehousing y, cuando aplique, AI/ML, sobre Databricks y cloud público., • Integrar Databricks con el ecosistema del cliente (IAM/SSO, herramientas de orquestación, BI, data sources, etc.) y con aplicaciones de terceros cuando sea necesario., • Asegurar gobernanza “enterprise‑grade” con Unity Catalog como plano central de gobierno (políticas de acceso, assets de datos/AI, lineage)., • Plantear estrategias híbridas cuando el cliente no puede migrar todo: por ejemplo, federación de consultas para acceder a múltiples fuentes sin migración completa.Industrialización:, • Definir el enfoque de CI/CD para proyectos Databricks (IaC / despliegue por entornos) usando Databricks Asset Bundles como enfoque recomendado, y promover prácticas de ingeniería (control de versiones, code review, testing)., • Diseñar observabilidad operacional: uso de system tables como base de “historical observability” de la cuenta y actividad de plataforma (finops/secops/devops)., • Aportar criterios de optimización de coste (p. ej., formatos/Delta Lake, elección de compute, patrones de ejecución) para evitar sorpresas de TCO en escalado., • Alinear seguridad y gobierno con el modelo de privilegios/Unity Catalog (incl. requisitos para habilitar system tables, etc.)., • Crear activos reutilizables: reference architectures, how‑tos y demo apps para escalar mejores prácticas., • Liderar workshops, sesiones técnicas, whiteboarding y formación a equipos del cliente y a equipos internos., • Mentorización y liderazgo de equipos técnicos (Solution Architects / Data Engineers) y alineación con delivery para “sell what we can deliver”. Esto aparece como expectativa en roles senior del mercado (liderar/mentorar equipos, stakeholder management, best practices de governance/CI/CD/observability)., • Experiencia profesional de 8‑10 años arquitectura de soluciones (o equivalente)., • Experiencia profesional de 3 años con Databricks en entornos enterprise (no solo PoCs)., • Experiencia demostrable en rol customer‑facing (pre‑venta/consultoría/arquitectura) y colaboración estrecha con ventas., • Databricks core: Dominio real de arquitectura lakehouse, patrones de ingestion/transformation/serving y experiencia en Unity Catalog para gobierno. Además de capacidad de integrar Databricks con herramientas externas (orquestación, BI, data sources, etc.)., • Cloud : Experiencia diseñando e implementando arquitecturas en AWS/Azure/GCP (al menos una profunda)., • Lenguajes y stack: Coding fluido en Python + SQL (Scala muy valorable) y base sólida en Spark/Big Data., • Industrialización: CI/CD en Databricks con Asset Bundles y prácticas modernas de despliegue y consistencia entre entornos. Observabilidad con system tables (y/o estándares equivalentes) y enfoque de costes/FinOps., • Experiencia presentando, whiteboarding, adaptando discurso a audiencia técnica/no técnica y gestionando ciclos de venta complejos., • Certificaciones cloud (AWS/Azure/GCP) y Databricks., • Experiencia en sectores regulados (banca/seguros) y gobierno/seguridad avanzada., • Experiencia con escenarios híbridos (federación, coexistencia con otros data stores).Competencias personales:, • Trabajo en equipo y colaboración multidisciplinaria., • Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar., • Buena comunicación y documentación técnica., • Orientación a resultados y proactividad., • Conciliación y Flexibilidad: Posibilidad de trabajar desde casa híbrido/remoto, jornadas flexibles y viernes intensivos., • Formación y Desarrollo: Plan personalizado, programas formativos., • Beneficios Sociales: Seguro vida, apoyo teletrabajo., • Beneficios Flexibles "a la carta": Bolsa corporativa para comida, transporte, seguro médico, guardería y formación, ajustada a tus necesidades y combinada con retribución flexible., • Paquete de Reubicación (si aplica): Apoyo económico, asesoramiento, patrocinio visas., • Programa de Recomendaciones., • Programa de Bienestar: Nutrición, Física, Mental. Descuentos con Wellhub. Servicio de apoyo psicológico gratuito., • Vida en GFT: Oficinas inteligentes, eventos, premios de valores, charlas inspiradoras. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo. #J-18808-Ljbffr