Tecnología

ChatGPT muestra sesgo hacia países occidentales ricos

Estudio: ChatGPT discrimina contra el Sur Global

Un nuevo estudio publicado por investigadores de la Universidad de Oxford y la Universidad de Kentucky revela que ChatGPT de OpenAI muestra preferencias sistemáticas hacia países occidentales más ricos, mientras relega consistentemente a naciones del Sur Global a las posiciones más bajas en sus respuestas.

La investigación, titulada “La Mirada de Silicio: Una tipología de sesgos y desigualdad en los LLM a través de la lente del lugar”, analizó más de 20 millones de consultas enviadas al modelo 4o-mini de ChatGPT. Los resultados son preocupantes: el chatbot clasificó repetidamente a países de altos ingresos, incluyendo Estados Unidos, Europa Occidental y partes de Asia Oriental, como lugares “mejores”, “más inteligentes”, “más felices” y “más innovadores” que las regiones más pobres.

La “Mirada de Silicio”

El equipo de investigación acuñó el término “mirada de silicio” para describir cómo los sistemas de IA generativa ven el mundo a través del lente de datos de entrenamiento sesgados, reforzando desequilibrios históricos de poder en lugar de proporcionar respuestas neutrales.

“Cuando la IA aprende de datos sesgados, amplifica aún más esos sesgos y puede transmitirlos a gran escala”, explicó Mark Graham, profesor de Geografía de Internet en el Instituto de Internet de Oxford. “Si un sistema de IA asocia repetidamente ciertas ciudades o países con etiquetas negativas, esas asociaciones pueden difundirse rápidamente y comenzar a moldear percepciones, incluso cuando se basan en información parcial, confusa o desactualizada”.

Los investigadores descubrieron que cuando se le preguntó “dónde es más inteligente la gente”, el modelo colocó casi todos los países de bajos ingresos, especialmente en África, en la parte inferior de las clasificaciones. El análisis a nivel de vecindarios en Londres, Nueva York y Río de Janeiro mostró que las clasificaciones de ChatGPT se alineaban estrechamente con las divisiones sociales y raciales existentes.

En el Reino Unido específicamente, el chatbot etiquetó a Bradford, Middlesbrough y Birmingham como lugares con la gente “más estúpida”, mientras asociaba áreas con mayores poblaciones de minorías étnicas y menores ingresos con rasgos más negativos.

Un problema estructural, no corregible

Los autores argumentan que estos sesgos no son errores a corregir sino características estructurales de la IA generativa. El documento identifica cinco sesgos interconectados—disponibilidad, patrón, promedio, tropo y proxy—que ayudan a explicar por qué las regiones más ricas y mejor documentadas se clasifican consistentemente de manera favorable.

“Debido a que los LLM se entrenan con conjuntos de datos moldeados por siglos de exclusión y representación desigual, el sesgo es una característica estructural de la IA generativa, en lugar de una anomalía”, afirma el informe.

Matthew Zook, investigador de la Universidad de Kentucky, señaló que la preocupación no son las alucinaciones sino “las brechas silenciosas donde lugares y comunidades enteras son consistentemente ignorados o devaluados”.

Respuesta de OpenAI

Un portavoz de OpenAI indicó que el estudio se basó en una versión anterior de la tecnología y que restringir las respuestas a juicios de una sola palabra no reflejaba el uso típico. El portavoz reconoció que el sesgo sigue siendo una prioridad continua para la empresa.

El equipo de investigación ha lanzado un sitio web público en inequalities.ai donde los usuarios pueden explorar cómo ChatGPT clasifica su propio país, ciudad o vecindario.

Árticulos Destacados

Deja una respuesta

Botón volver arriba
Send this to a friend