Data & AI Engineer (Senior)
hace 18 horas
Bilbao
¿Quiénes somos? En Carina AI Studio, somos un AI Studio apasionado por transformar ideas en productos reales impulsados por inteligencia artificial. Desarrollamos soluciones que combinan ciencia, arte y tecnología para resolver los desafíos más complejos de nuestros clientes en sectores como el público, la salud, la seguridad y la empresa. Trabajamos en proyectos de alto impacto relacionados con: • Procesamiento del lenguaje natural, • Visión por computador, • Sistemas generativos y agentes inteligentes Responsabilidades • Diseñar y desarrollar pipelines de datos para ingesta, transformación, validación y serving, asegurando fiabilidad y mantenibilidad., • Construir y mantener servicios de IA y ML en producción, incluyendo APIs de inferencia, sistemas RAG, extracción y clasificación de información, y motores de scoring., • Diseñar y optimizar modelos de datos y capas de acceso sobre bases SQL, NoSQL y analíticas para casos de uso de producto y analítica., • Realizar procesos de exploración de datos para entender fuentes, detectar patrones y anomalías, validar hipótesis y definir métricas accionables que orienten el desarrollo del producto., • Implementar observabilidad end-to-end mediante métricas, logs, trazas, controles de calidad de datos y alertas., • Desplegar y operar soluciones con enfoque DataOps y MLOps, trabajando versionado, reproducibilidad, gestión de entornos y CI/CD., • Mejorar rendimiento, escalabilidad, latencia y coste en pipelines y servicios mediante estrategias como caching, colas y paralelización., • Colaborar con producto y backend para traducir necesidades de negocio en soluciones técnicas entregables., • +4 años de experiencia construyendo sistemas de datos y/o IA en producción., • Mid-level o senior., • Dominio sólido de Python para desarrollo de APIs, ETL y servicios., • Experiencia con FastAPI., • Experiencia sólida con SQL, incluyendo modelado y optimización de consultas., • Experiencia con al menos una base de datos NoSQL o analítica., • Experiencia construyendo pipelines con herramientas como Airflow, Prefect, dbt o equivalentes., • Conocimientos aplicados de ML y LLMs: embeddings, RAG, prompt engineering, evaluación básica y guardrails., • Buenas prácticas de ingeniería: testing, Git, gestión de entornos y packaging., • Experiencia desplegando en cloud y/o contenedores con Docker., • AWS: ECS, ECR, Lambda, S3, CloudWatch., • Infraestructura como código con Terraform., • CI/CD con GitHub Actions., • Ecosistema LLM: LangChain, LangGraph, vector databases como Pinecone, Weaviate o pgvector, y rerankers., • Mensajería y sistemas asíncronos: SQS, Kafka, RabbitMQ, Celery o procesamiento distribuido., • Data quality y contratos de datos: Great Expectations, validación de esquemas y testing de datos., • Sueldo competitivo, • Trabajo 100% remoto, • Horario flexible adaptado a ti, • Conciliación familiar, • Seguro de salud privado, • Formación continua y oportunidades de crecimiento profesional, • Participación en proyectos de IA con impacto real.