Prevenir Sesgos para Reducir las Desigualdades.
10/10/2025 , Auditorio Centrogeo

¿Qué sucede cuando la inteligencia artificial aprende de nuestros prejuicios? Profundizaremos en cómo los datos sesgados pueden llevar a la IA a replicar e incluso agravar desigualdades sociales. En esta charla, se abordarán las estrategias para mitigar estos sesgos, combinando soluciones éticas con enfoques técnicos.


Es fundamental comprender que gran parte de los sesgos identificados en los sistemas de inteligencia artificial no son inherentes a la tecnología en sí, sino que se introducen y magnifican a lo largo de diversas etapas críticas del ciclo de vida del desarrollo de un algoritmo. La fase más influyente y, a menudo, la principal culpable, es la de los datos de entrenamiento.
Es crucial detectar el sesgo en las etapas tempranas del desarrollo de la IA. Esto previene que se propague y perpetúe, asegurando que las decisiones basadas en sus resultados no exacerben las desigualdades existentes ni pongan en riesgo la integridad humana.
Para comprender mejor los sesgos, se han propuesto varias clasificaciones. En esta sesión, nos enfocaremos en la que divide su estudio en cinco categorías clave: sesgos de datos, algorítmicos, humanos, sociales, y de implementación y uso.
Existen estrategias de mitigación basadas en enfoques éticos y técnicos que pueden ayudar a minimizarlo y evitarlo si es posible, desde el balanceo de datos hasta ajustes post entrenamiento que aseguren la equidad de los algoritmos.
Para construir sistemas de IA equitativos y beneficiosos para la sociedad, es fundamental reconocer y abordar activamente el sesgo. Esto requiere un enfoque multidisciplinario que integre la prevención y mitigación en todas las fases de su desarrollo.

Obtuvo su Doctorado en Comunicaciones y Electrónica en el Instituto Politécnico Nacional en la Ciudad de México. Realizó un postdoctorado (2015-2017) en el laboratorio Otha del
departamento de Información y Seguridad en la Universidad de Electro-Comunicaciones en Tokio, Japón. Actualmente trabaja como investigadora para la Secretaría de Ciencia, Humanidades, Tecnología e Innovación SECIHTI en el Centro de Investigación en Ciencias de Información Geoespacial sede Querétaro, donde realiza investigaciones sobre la aplicación de la inteligencia artificial en diversas áreas. Es cocreadora del Observatorio de
Acoso Sexual Callejero “Siempre Seguras”, miembro del Sistema Nacional de Investigadores, de la Asociación Mexicana de Procesamiento del Lenguaje Natural y de la Academia Mexicana de Computación. Sus intereses de investigación son: Inteligencia
Artificial; particularmente Procesamiento del Lenguaje Natural, Análisis de Sentimiento y Ética y riesgos en la Inteligencia Artificial.