PyLadiesCon 2025

Ética en la IA: un espacio común para construir en conjunto
06.12.2025 , Main Stream
Sprache: Español

Esta charla aborda de manera introductoria la aplicación de la ética en la IA, específicamente en términos de interpretabilidad y cómo la opacidad de estos modelos genera riesgos tanto técnicos como sociales en un contexto de adopción acelerada.

Analizaremos casos reales donde la falta de transparencia en los procesos de toma de decisiones ha llevado a consecuencias inesperadas. Además, veremos cómo los sistemas que han traído el auge comercial a la inteligencia artificial (los modelos de lenguaje natural) cuentan con mecanismos ocultos que, afortunadamente, se han comenzado a analizar. Con esto, la audiencia podrá conformar una opinión sobre qué tanto hay detrás de cada una de las respuestas que parecen coherentes y neutrales.

Finalmente, dentro de la charla exploraremos cómo los sistemas de IA se han convertido en infraestructuras sociotécnicas que requieren perspectivas multidisciplinarias, y cómo nosotros, como usuarios o desarrolladores, tenemos cabida desde una perspectiva más analítica y participativa en este ecosistema.


Los sistemas de inteligencia artificial trascienden el ámbito técnico para convertirse en sistemas sociotécnicos complejos que requieren perspectivas multidisciplinarias para identificar sesgos en datos y correlaciones espurias que pueden generar resultados poco interpretables.

El auge exponencial de la IA ha creado una percepción de necesidad competitiva que lleva a empresas, instituciones e individuos a integrarla aceleradamente en sus procesos. Esta adopción masiva genera riesgos significativos, especialmente cuando la falta de interpretabilidad y transparencia en los modelos genera una confianza ciega que puede superar al conocimiento empírico y la evaluación crítica.

En esta charla abordaremos:

Interpretabilidad como desafío central: Análisis de cómo la opacidad en los procesos de toma de decisiones de los modelos genera riesgos éticos y operacionales

Casos reales de falta de transparencia: Ejemplos concretos donde la imposibilidad de explicar las decisiones de la IA ha llevado a consecuencias inesperadas y problemáticas

Mecanismos ocultos de razonamiento: Vislumbrar cómo funcionan los modelos detrás de sus respuestas aparentemente coherentes y neutrales

Ciclos de construcción problemáticos: Cómo la falta de explicabilidad en los modelos amplifica sesgos técnicos y éticos

Recomendaciones prácticas: Consideraciones y acciones concretas para un uso más consciente y responsable de estas tecnologías

Karla Doctor es consultora en Machine Learning e inteligencia artificial, especializada en visión por computadora y modelos de lenguaje natural. Su trabajo se centra en la creación de soluciones innovadoras que transforman industrias, impulsando la eficiencia operativa y la toma de decisiones estratégicas.

A lo largo de su carrera, ha desarrollado e implementado tecnologías en sectores como agricultura, transporte y retail, adaptándose a distintos niveles de madurez digital. Su metodología integra la analítica avanzada para maximizar el valor empresarial y el desarrollo tecnológico responsable.

Además, Karla colabora activamente con comunidades globales para impulsar el avance de la IA a través de proyectos y charlas.