Mireya

Data Scientist en DecideAI


Session

19/10
16:00
40minutos
Cuando tu LLM ve "cosas": Desentrañando y mitigando las alucinaciones con Python
Mireya, Jorge Raúl Gómez Sánchez

Todos hemos presenciado el asombroso poder de los Grandes Modelos de Lenguaje (LLMs). Desde redactar poesía hasta depurar código, su versatilidad es innegable. Sin embargo, como todo poder, conlleva una gran responsabilidad... y también, a veces, una tendencia a la "alucinación". No, no hablamos de experiencias psicodélicas, sino de esa peculiar capacidad de los LLMs para inventar datos, hechos o citas de forma convincente, pero completamente errónea.
En esta comunicación, nos sumergiremos en las profundidades de este intrigante fenómeno. ¿Por qué los LLMs "ven cosas" que no existen en sus datos de entrenamiento? Exploraremos las causas subyacentes de estas invenciones, desde sesgos en los datos hasta la intrínseca naturaleza probabilística de estos modelos. Entender el porqué es el primer paso para evitar que tu chatbot te cite un libro imaginario.
Pero no todo son malas noticias. Lo bueno es que no estamos indefensos. Presentaremos un arsenal de estrategias y herramientas prácticas en Python para detectar y mitigar estas alucinaciones. Nos centraremos en técnicas como la validación de fuentes, la generación asistida por recuperación (RAG) y la implementación de mecanismos de verificación cruzada, todo ello con ejemplos de código que podrás aplicar directamente en tus proyectos.
Prepárate para equipar a tus LLMs con gafas de la verdad, transformándolos de soñadores incorregibles en asistentes confiables y precisos. Porque, al final del día, queremos que nuestros modelos nos solucionen los problemas, no que los generen.

Machine Learning e Inteligencia Artificial
Track 03 - E04, A02