Rubén

Rubén Míguez es el CTO de Newtral. PhD en IA por la Universidad de Vigo, Rubén combina en su trayectoria profesional experiencia como investigador, product manager y emprendedor en proyectos relacionados siempre con la aplicación de soluciones de inteligencia artificial. En la actualidad lidera desde Newtral un equipo enfocado en la construcción de la primera solución multimodal y multiidioma para verificar información en tiempo real.


Twitter

https://x.com/rubenmiguez

LinkedIn

https://www.linkedin.com/in/rubenmiguez


Session

10-06
12:55
35min
El Gran Tsunami de la Desinformación: Cómo la IA generativa puede ayudarnos a ganar la batalla contra las Fake News
Rubén, Agustín C.

Si cada día se consumen millones de contenidos falsos (elecciones, covid, Ucrania, Gaza...) creados con el propósito de manipular nuestra opinión, ¿qué ocurrirá con la explosión provocada por la IA generativa?¿De quién o de qué podremos fiarnos en internet en un futuro en el que nuestros ojos no podrán diferenciar si algo es o no cierto? Si hasta ahora habíamos vivido oleadas de desinformación, deberíamos empezar a prepararnos para el Gran Tsunami que está por venir.

En un escenario marcado por la creciente dificultad para diferenciar lo que es verdad de lo que no, los verificadores humanos son incapaces de procesar el enorme volumen y la sotisficación de desinformación que circula online. Necesitamos construir soluciones que ayuden en esta tarea y necesitamos hacerlo ya.

Mientras que muchas personas ven la IA generativa como el gran peligro, nosotros creemos que es el arma que nos permitirá luchar contra la desinformación de tú a tú. Las capacidades de los nuevos LLMs (GPT, Gemini, Claude…) para razonar sobre el texto y manejar contenido multimodal y/o multilingüe, nos ofrecen una oportunidad única para desarrollar una nueva generación de agentes inteligentes que ayuden a combatir la desinformación.

Como fact-checkers especializados en el desarrollo de tecnología, en los últimos cinco años hemos probado las distintas tecnologías que han ido apareciendo en este ámbito: reglas lingüísticas, frameworks clásicos de NLP, algoritmos de ML tradicional, modelos de Deep Learning y, ahora, LLMs generativos; con un único objetivo: ser capaces de replicar, en parte, el trabajo que hacen en su día a día nuestros compañeros periodistas.

En esta charla, explicaremos al público cómo hemos implementado nuestros pipelines de datos y análisis/verificación de la desinformación utilizando Python. Nuestro objetivo es mostrar, de manera didáctica y amena, los principales éxitos y fracasos en la construcción de estas tecnologías. Explicaremos cómo pueden trabajar codo a codo periodistas y data scientists en un mismo problema (sin morir en el intento), enseñaremos demos de las PoC desarrolladas hasta la fecha, dedicando un apartado especial a exponer nuestra visión, desde nuestra experiencia en el ámbito, sobre las nuevas soluciones que están por venir en este campo (arquitecturas multi-agente) y cómo pensamos utilizarlas para acabar ganando la batalla contra la desinformación.

El público se irá de la charla con una idea clara del problema que estamos combatiendo, cómo construir agentes inteligentes con Python y las posibilidades/limitaciones de los sistemas actuales.

Deep Learning
Poalla