Consultor/a Big Data - Arquitecto/a Sistemas Data
5 days ago
Madrid
Somos una Consultora digital , internacional y ágil. En la era de la post-transformación digital, nos esforzamos para que cada uno de nuestros 28.000 profesionales pueda renovarse continuamente. Cada uno de ellos puede diseñar su itinerario profesional de acuerdo a sus preferencias, emprender junto a sus clientes para construir en la práctica un mundo más positivo, innovar en cada uno de los 27 países y conciliar su carrera profesional con su bienestar personal. Nuestros 28.000 atletas digitales están orgullosos de haberse certificado Top Employer Europe 2024. • Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización., • Elaborar y mantener documentación técnica en espacios colaborativos., • Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa., • Integrar componentes de arquitecturas Big Data según los casos de uso., • Asegurar que las plataformas cumplen con los requisitos del negocio., • Dar soporte técnico en la implantación alineada con metodologías ágiles., • Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa., • Definir una arquitectura de metadatos para interoperabilidad y gobernanza., • Implementar políticas de seguridad en plataformas Big Data., • Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías., • Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico., • Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción., • Participar en el diseño e implementación de soluciones de Business Intelligence., • Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark)., • Liderazgo en implantación y definición técnica/arquitectura de datos., • Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años., • Manejo de Linux y instalación de paquetes, • Lenguaje de comandos Unix, Bash, JSON, • Python, • Protocolos de internet: HTTP, HTTPS, SSL, • Herramientas Unix: CURL, NETCAT, IP, • API REST, • SOLR: instalación, manejo de APIs, backup, restore, • Entorno On-premise, • OPENSHIFT, • CLOUDERA: administración, Spark, Yarn, Kerberos, • Se descartarán candidaturas sin experiencia en SOLR, OPENSHIFT, CLOUDERA, LINUX y PYTHON, • Fundamentos de AWS, • Fundamentos de Azure, • Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial., • Especial Interés:, • CDP Generalist, • MapR Certified Spark Developer, • CDP Administrator – Private Cloud Base, • CCA Spark and Hadoop Developer, • CCA Administrator, • Otras:, • CCA Data Analyst, • CCP Data Engineer, • APM – Certified Associate in Project Management, • Prince2 Foundation, • Certificaciones en Scrum / Scrum Master, • PMI-ACP: PMI Agile Certified Practitioner, • Prince2 Agile, • Cualquier otra certificación oficial relacionada con tecnologías Big Data #J-18808-Ljbffr