Jorge Raúl Gómez Sánchez
Ingeniero de Telecomunicaciones reconvertido a científico de datos a través de la visión por computador, comenzó en el mundo académico trabajando en varias universidades y centros de investigación de varios países europeos. Posteriormente, centrado en aplicaciones prácticas y vendibles de ciencia de datos, lleva 8 años trabajando en diversas aplicaciones de machine learning
Session
Todos hemos presenciado el asombroso poder de los Grandes Modelos de Lenguaje (LLMs). Desde redactar poesía hasta depurar código, su versatilidad es innegable. Sin embargo, como todo poder, conlleva una gran responsabilidad... y también, a veces, una tendencia a la "alucinación". No, no hablamos de experiencias psicodélicas, sino de esa peculiar capacidad de los LLMs para inventar datos, hechos o citas de forma convincente, pero completamente errónea.
En esta comunicación, nos sumergiremos en las profundidades de este intrigante fenómeno. ¿Por qué los LLMs "ven cosas" que no existen en sus datos de entrenamiento? Exploraremos las causas subyacentes de estas invenciones, desde sesgos en los datos hasta la intrínseca naturaleza probabilística de estos modelos. Entender el porqué es el primer paso para evitar que tu chatbot te cite un libro imaginario.
Pero no todo son malas noticias. Lo bueno es que no estamos indefensos. Presentaremos un arsenal de estrategias y herramientas prácticas en Python para detectar y mitigar estas alucinaciones. Nos centraremos en técnicas como la validación de fuentes, la generación asistida por recuperación (RAG) y la implementación de mecanismos de verificación cruzada, todo ello con ejemplos de código que podrás aplicar directamente en tus proyectos.
Prepárate para equipar a tus LLMs con gafas de la verdad, transformándolos de soñadores incorregibles en asistentes confiables y precisos. Porque, al final del día, queremos que nuestros modelos nos solucionen los problemas, no que los generen.