IA responsable: corrigiendo la brecha entre promesas y realidad
2025-10-18 , Track 05 - B05, C02
Language: Español

Incluir inteligencia artificial es un objetivo prioritario en cualquier proyecto hoy en día. La tecnología cambia con una velocidad asombrosa, y es todo un reto estar al día de los últimos avances. Esto provoca que no tengamos tiempo de volvernos expertos en todos los problemas que puede ocasionar, quizás solo dándonos cuenta cuando los proyectos están ya en funcionamiento.

En esta charla, Vicente Herrera y Alberto Rodriguez demostrarán algunos problemas de seguridad, fiabilidad y sesgos de proyectos que emplan Modelos Grandes de Lenguaje (LLM), cómo medirlos, y cómo mitigarlos, combinando su experiencia en proyectos fintech, colaboración en elaboración de estandards como AI Governance Framework de la FINOS Foundation, y bug hunting para Anthropic.

Nos enseñarán cómo realizar mediciones que nos permitan establecer la situación de estos LLM, utilizando datasets como real-toxicity-prompts o herramientas como Garak. Veremos la diferencia de las métricas publicadas con la medición de los modelos una vez desplegados en producción. Luego mostrarán cómo mejorar la seguridad de los modelos como patrones como "LLM as a judge" utilizando LLM Guard.

Los asistentes aprenderán posibles riesgos en proyectos de IA a tener en cuenta durante la planficación, y cómo emplear herramientas para evitarlos. Todas las herramientas y procedimientos demostrados serán open source.


Topic:

Machine Learning and Artificial Intelligence (ML, deep learning, AI ethics, generative models...)

Additional topics:

Security and Networking (cybersecurity, networking, privacy...)

Proposal level:

Intermediate (it is necessary to understand the related bases to go into detail)

"Principal Consultant" en Control Plane, empresa londinense de consultoría en cyberseguridad para tecnologías emergentes. Especializado en ciberseguridad en Kubernetes, así como en seguridad y fiabilidad en IA, con proyectos para empresas fintech multinacionales y organismos guvernamentales.
Profesor en la Universidad Loyola de Sevilla en el Máster en Inteligencia Artificial y el Máster en Análisis de Datos, impartiendo las asignaturas de Tecnología Blockchain y Ética de la IA.
"Maintainer" de "FINOS AI Governance Framework", un proyecto del grupo AI Readiness de la Fintech Open Source Foundation (parte de la Linux Foundation).
Autor del libro «Building Intelligent Cloud Applications» publicado por O’Reilly, sobre el aprovechamiento de servicios de machine learning y function as a service en Azure.
Ponente habitual en conferencias internacionales como Cloud Native + Kubernetes AI Day (KubeCon Europe), Secure AI Summit (CloudNative SecurityCon North America) y OpenUK.
Ver: https://vicenteherrera.com

Consultor Cloud Native en Control Plane enfocado en Kubernetes, seguridad en IA y Software Supply Chain Security. Certificado en AWS y en Kubernetes.