Data Engineer - Virtual Desk
hace 4 días
Valencia
En Virtual Desk impulsamos la transformación digital de grandes organizaciones mediante soluciones innovadoras basadas en inteligencia artificial y automatización de procesos. Combinamos tecnología, estrategia y ejecución para generar impacto real en negocio. Somos un equipo dinámico, colaborativo y orientado a resultados, donde el aprendizaje continuo, la innovación y la excelencia forman parte de nuestro ADN. 🛠️ Responsabilidades Buscamos un/a Data Engineer con sólida formación técnica y pasión por los datos para incorporarse a proyectos innovadores de alto impacto en diversos sectores. Serás pieza clave en la construcción y evolución de plataformas de datos modernas, trabajando junto a Data Scientists, analistas y BI Engineers en un entorno altamente colaborativo y tecnológico. • Diseñar e implementar arquitecturas de datos (Data Lakes, Data Warehouses y entornos Lakehouse) sobre plataformas cloud y on-premise, garantizando calidad, rendimiento y seguridad., • Aplicar metodologías DataOps para el control de versionado, automatización y gobernanza de los pipelines de datos., • Diseñar, implementar y mantener pipelines ETL/ELT desde el origen hasta los modelos e informes finales, incluyendo orquestación, automatización y procesamiento en near real-time., • Monitorizar y documentar el linaje del dato (Data Lineage) a lo largo de todo el ciclo de vida., • Trabajar con usuarios de negocio para asegurar el cumplimiento de requisitos, aplicar la calidad del dato adecuada y garantizar el cumplimiento de LOPD/RGPD., • Colaborar en proyectos de Gobierno del Dato, definiendo políticas, estándares y procesos de calidad., • Coordinar con científicos y analistas de datos la correcta integración de modelos, análisis e informes en la plataforma de datos., • Trabajar de forma transversal con equipos de BI, Data Science y negocio para garantizar la alineación técnica y funcional. ⚙️ Requisitos Técnicos • Titulación universitaria en alguna de las ramas STEM., • Experiencia en entornos cloud (Azure, AWS o GCP) y servicios de datos asociados: Data Factory, Glue, Redshift, BigQuery, Snowflake…, • Dominio de SQL avanzado y experiencia en bases de datos relacionales (SQL Server, Oracle, PostgreSQL) y NoSQL., • Experiencia en implementación de pipelines ETL/ELT y soluciones de Data Warehousing y Data Marts., • Conocimiento del ecosistema Big Data y Lakehouse: Hadoop, Spark, Databricks, Apache Iceberg o Delta Lake., • Experiencia en orquestación de workflows (Apache Airflow o similares) y procesamiento en streaming (Kafka, Flink, Kinesis u otros)., • Programación en Python como lenguaje principal; valorable Scala y/o Java., • Conocimientos de Gobierno del Dato, calidad del dato y privacidad (LOPD/RGPD). ⭐ Valorable • Experiencia en procesamiento en straming y near real-time (Kafka, Flink, Kinesis) y familiaridad con arquitecturas orientadas a eventos tipo Lambda o Kappa., • Conocimientos de Data Lineage, Gobierno del Dato y marcos de calidad aplicados a proyectos reales., • Certificaciones cloud (Azure, AQS, GCP) o en tecnologías del ecosistema data., • Nivel de inglés medio-alto para trabajar con documentación técnica y entornos internacionales. 🚀 ¿Qué Ofrecemos? • Colaboración con expertos tech y negocio, • Proyectos de primer nivel en diversos sectores, • Póliza de seguros y plan de retribución flexible, • Entorno de innovación constante y proyección real