Page 12 - DiarioTiempo-23-10-25
P. 12
12
LOS ARTÍCULOS PUBLICADOS EN ESTA SECCIÓN DE OPINION
/ANÁLISIS SON RESPONSABILIDAD ÚNICA DE LOS AUTORES.
Inteligencia artificial con
sesgos reales: nuevos retos
En una región marcada por profundas desigualdades, la inteligencia artificial refleja y amplifica los sesgos de género de la
sociedad, convirtiendo un desafío tecnológico en un problema de desarrollo humano.
ada vez más en América Latina y el Caribe racializadas. Estos errores de identificación compro- datos formales, los sistemas tienden a clasificar a las
(ALC) se utiliza la inteligencia artificial meten libertades, pueden activar detenciones injus- mujeres como “outliers”, un término que en estadís-
(IA) en la toma de decisiones cotidianas que tas y amplificar desigualdades. tica define un valor atípico, es decir, una observación
Cafectan a millones de personas: procesos Paralelamente, cuando los algoritmos de contra- que es numéricamente distante del resto de los datos.
de selección de becas, subsidios, alertas de servicios tación replican historiales laborales masculinizados Desde un enfoque estrictamente estadístico, los resul-
sociales, identificación biométrica, incluso orienta- o cuando el crédito se otorga con modelos que pena- tados de conjuntos de datos con valores atípicos pueden
Gemma Galdon-Clavell ción a víctimas de violencia. lizan trayectorias femeninas según los criterios de conducir a conclusiones erróneas, por lo que general-
Pero, como lo advierte el Informe Regional sobre la banca tradicional, se reducen las oportunidades mente se evitan. Sin embargo, esto no siempre aplica
Desarrollo Humano 2025, la IA se consolida en una para las mujeres, se pierde productividad y se limita en contextos más sutiles, como solicitudes de crédito,
región con desigualdades persistentes, y los datos que el emprendimiento. La región no puede permitirse vacantes laborales o programas sociales, donde las
alimentan estos sistemas reflejan inevitablemente tecnologías que excluyan talento femenino de merca- características de las mujeres pueden diferir de las de
los sesgos arraigados en la sociedad. Si los algorit- dos ya segmentados. los hombres, pero no deberían ser motivo de exclusión
mos aprenden de estas realidades, el sesgo de género Invertir en datos representativos y fortalecer de los procesos de selección.
Ana Pirela-Rios deja de ser un fallo de laboratorio y se convierte en marcos regulatorios del uso de la IA, incorporando Pero las mujeres de la región no solo son usuarias de
un problema de desarrollo: puede excluir a quienes métricas de equidad y mecanismos de rendición de la IA, sino también líderes en la creación de soluciones:
menos aparecen en los registros —como las mujeres cuentas, son pasos clave para usar esta tecnología marcos feministas de desarrollo de IA, herramientas
pobres, indígenas, migrantes o rurales— lo que de forma responsable e inclusiva. Así, la inteligencia abiertas para detectar estereotipos en modelos de
erosionaría aún más la confianza institucional. artificial puede convertirse en una oportunidad no lenguaje e iniciativas que incorporan perspectiva de
Pero la misma tecnología que puede profundizar solo para mejorar la eficiencia en la toma de decisiones, género en el trabajo en plataformas. Colocar a las
desigualdades también sirve para proteger, informar sino también para ampliar la base de beneficiarias de mujeres en el centro —como diseñadoras, auditoras,
y abrir oportunidades, en especial para grupos tradi- la innovación, acelerar la adopción digital y promover reguladoras y usuarias— mejora la calidad técnica
cionalmente excluidos. El desafío es reducir ese sesgo la inclusión laboral y financiera. de los sistemas y acelera su aceptación social. Esta es,
y apostar por controles verificables que prioricen la También conviene revisar el plano simbólico: la además, una política de innovación.
equidad para ampliar derechos, mejorar la focaliza- feminización por defecto de asistentes virtuales o En definitiva, reducir el sesgo de género multiplica
ción de políticas y fortalecer un crecimiento más inclu- chatbots —a través de sus nombres, voces y avata- retornos: políticas sociales más precisas y legítimas;
sivo. res— reproduce jerarquías. Esto puede estar justifica- seguridad compatible con derechos; mercados labo-
UN PROBLEMA “TÉCNICO” QUE YA ES DE do en servicios específicos, pero como norma refuerza rales y financieros más inclusivos y productivos; y
DESARROLLO estereotipos sobre el rol de las mujeres en la sociedad. mayor confianza en instituciones capaces de gobernar
Uno de los principales usos de la inteligencia artifi- El diseño de interfaces, cada vez más usado para tecnologías complejas. Esto se traduce en desarrollo
cial se basa en identificar patrones en grandes volúme- mejorar la provisión de servicios públicos, también es humano: más capacidades reales —salud, educación,
nes de datos para optimizar decisiones. Sin embargo, un elemento de política pública. participación, trabajo digno— y más agencia para
los modelos que “promedian” poblaciones diversas LIDERAZGO FEMENINO: DE “OUTLIERS” A incidir en la propia vida y el entorno.
pueden desfavorecer a los grupos subrepresentados y DISEÑADORAS La IA no es neutra, pero puede ser justa. Para
reproducir patrones históricos de discriminación. En Los principios de no discriminación, transparencia lograrlo, América Latina y el Caribe necesita abrazar
programas de protección social, por ejemplo, varios y supervisión humana ya figuran entre las estrategias un estándar mínimo ya al alcance: datos representati-
países de ALC han incorporado modelos automatiza- y marcos de varios países de la región. El reto es tradu- vos y documentados, métricas de equidad por subgru-
dos para clasificar personas y asignar beneficios, pero cirlos en controles verificables: documentar la compo- pos, auditorías independientes y vías de reparación
los sistemas de puntaje pueden perpetuar la exclusión sición demográfica de los datos; evaluar el desempeño cuando hay daño. Reducir el sesgo de género no solo
si se alimentan de datos donde las mujeres u otros por subgrupos (mujeres por edad, origen, condición abre oportunidades a las mujeres, sino que impulsa el
grupos no están equitativamente representados. migratoria o ruralidad); monitorear los resultados desarrollo para toda la región.
El sesgo de género aparece en decisiones concretas tras el despliegue de los sistemas; y exigir audito- ****Este artículo se basa en los hallazgos del
y la seguridad pública ofrece un contrapunto igual rías independientes obligatorias en sistemas de alto Informe Regional sobre Desarrollo Humano 2025,
de ilustrativo. La región ha adoptado rápidamente impacto (como aquellos usados para protección social, titulado “Bajo presión: Recalibrando el futuro del
tecnologías biométricas y de reconocimiento facial, salud, justicia, y seguridad). Con estos controles la IA desarrollo”, elaborado por el Programa de las Nacio-
pero estudios muestran que los falsos positivos pesan se vuelve auditable y gobernable. nes Unidas para el Desarrollo (PNUD) en América
más sobre las mujeres, y en particular sobre mujeres Debido a exclusiones históricas y baja visibilidad en Latina y el Caribe.
DATA DE LA HISTORIA
Día Internacional del Síndrome de Kabuki
El 23 de octubre se celebra el Día Internacional como promover su investigación.
del Síndrome de Kabuki, una enfermedad rara ¿Qué es el Síndrome de Kabuki?
que afecta a una de cada 32.000 personas, rela- El Síndrome de Kabuki es una enfermedad rara
cionada con retrasos en el desarrollo, lento creci- caracterizada por múltiples anomalías congéni-
miento postnatal y dificultades de aprendizaje. tas, generadas por mutaciones espontáneas o
Con esta efeméride se pretende concienciar a la por herencia autosómica dominante en el gen
población sobre esta patología poco frecuente, MLL2 y por deleciones en los genes KMT2D y
dar apoyo a los afectados y a sus familiares, así KDM6A.

