Por qué en el mundo de la IA todas las personas son hegemónicas (con respuesta de ChatGPT incluida)  - RED/ACCIÓN

Por qué en el mundo de la IA todas las personas son hegemónicas (con respuesta de ChatGPT incluida) 

 Una iniciativa de Dircoms + RED/ACCION

Una investigación de The Atlantic, demuestra que los datos, imágenes e información con los cuales son entrenados los diferentes sistemas de inteligencia artificial juegan un papel muy importante. Generalmente, tienden a ser celebridades, modelos o influencers atractivos.

Por qué en el mundo de la IA todas las personas son hegemónicas (con respuesta de ChatGPT incluida) 

Imagen creada a través de la herramienta Stable Diffusion. La indicación fue “crear la cara de una mujer”. Crédito: Stable Diffusion.

Si utilizamos cualquier generador de imágenes de IA como Mid Journey, Stable Diffusion o DALL E-3 y le pedimos que “crear” un hombre o una mujer desde cero “sin ningún registro de edad, ni color de pelo ni de ojos”, loos resultados serán sorprendentes: todos “lindos y lindas”. 

De hecho, Caroline Mimbs Nyce, una periodista de The Atlantic, quién investigó este tema, probó más de seis plataformas populares creadoras de imágenes en las cuales generó más de 100 rostros humanos y confirmó que, si bien ofrecen personas con diferentes colores de pelo u ojos, todas tienen algo en común: son “extremadamente lindas” (casi inhumanamente). 

Pero, ¿cuál es la justificación? ¿Por qué la inteligencia artificial solo crea gente bella y atractiva? ¿Por qué nadie se separa de lo hegemónico en el mundo de la IA? De acuerdo a su investigación la periodista llegó a varias conclusiones que pueden ofrecer una explicación acerca de este fenómeno. 

Por un lado, abarca la teoría de “hegemonía dentro, hegemonía afuera”. En detalle, como todos los sistemas de inteligencia artificial son entrenados con imágenes de personas como supermodelos, influencers o celebridades el resultado que luego ofrecen las herramientas es un rostro puramente alineado a esta información. 

Naturalmente, muchos sugeriría entrenar a las máquinas con fotos de personas “normales”. Sin embargo, Nyce explica que esto puede agravar el problema, más que solucionarlo ya que muchos de nosotros solo publicamos nuestras fotos en redes sociales o plataformas cuando están perfectas (o incluso retocadas). De esta manera, la IA podría entender que la gente es naturalmente atractiva en fotos casuales. 

Imagen creada por Bing AI en la cual se le indicó que genera a "un hombre". Crédito: BingAI.

Por otro lado, la periodista plantea la hipótesis del “punto medio de atracción” para explicar este fenómeno. En profundidad, esta explica que la hegemonía practicada por las máquinas de la inteligencia artificial tiene que ver con la forma en la que estás analizan las imágenes que se le envían. A partir de todos sus estímulos, siempre van a intentar llegar a un promedio de rostro que es, evidentemente, más atractivo que el “no promedio”. 

Por último, habría que considerar que hay alguien que está intencionalmente queriendo que las máquinas generen imágenes hegemónicamente bellas. Esta última hipótesis, denominada “atractivo por diseño” por la periodista, destaca que es posible que las herramientas incorporen un sesgo de atractivo o que los usuarios habituales lo soliciten. 

De hecho, muchos de los sistemas de IA se preocupan por la opinión de los humanos y registran cuales son las cosas que les gustan o no. "No sabemos qué hacen todos estos algoritmos, pero es posible que aprendan de la forma en que la gente interactúa con ellos", afirma para The Atlantic Lisa DeBruine, profesora de psicología y neurociencias. "Quizá la gente sea más feliz con las imágenes de rostros de personas atractivas", profundiza. 

Pero, ¿qué opina la misma IA sobre esto? Hice la prueba y le pregunté a ChatGPT por qué las herramientas de inteligencia artificial utilizadas para generar imágenes crean personas únicamente hegemónicas. En primera instancia, lo negó y dijo que “no era cierto” ya que la IA es una tecnología que se basa en algoritmos y datos para realizar tareas específicas. 

Sin embargo, luego aclaró: “Es importante destacar que la IA en sí misma no tiene preferencias ni prejuicios. Los resultados que genera reflejan las características y los sesgos presentes en los datos con los que se entrena. Si los datos utilizados para entrenar una IA contienen sesgos culturales, raciales, de género u otros, es posible que la IA reproduzca esos sesgos en sus resultados”. 

Como solución, el bot propuso que, dado que el problema está en la información que se usa para alimentar el sistema, se debería insertar e incluir imágenes con más variedad para poder obtener resultados más “diversos” y “realistas”. Esta tarea, según GPT, es responsabilidad de quiénes lo desarrollan y utilizan estas herramientas.