Aunque útil en algunos casos, la alteración de las indicaciones también puede ser frustrante para los usuarios cuando está mal implementada. El CEO de Google se disculpó cuando Gemini, la plataforma de inteligencia artificial generativa de Google, alteró los prompts de los usuarios y generó fotos de nazis negros, así como otras imágenes ahistóricas. ¿Hubo un complot secreto dentro de la empresa para borrar a los caucásicos de la historia? Es más plausible que los ingenieros de Gemini se dieran cuenta de que la herramienta producía en exceso imágenes de hombres blancos, como hacen muchas herramientas de IA en la actualidad, y los desarrolladores de Google parecen haberse excedido en sus retoques correctivos durante la prisa por lanzar el chatbot de suscripción de la compañía.

Incluso con mejores modelos de datos y software, la fluidez de la existencia humana puede eludir la rigidez de la categorización algorítmica. «Básicamente, están utilizando el pasado para crear el futuro», aclara William Agnew, investigador postdoctoral en Carnegie Mellon y organizador de Queer in AI desde hace mucho tiempo. «Al amplificar los estereotipos, las herramientas de IA no solamente corren el riesgo de tergiversar los grupos minoritarios para el público en general, sino que estos algoritmos también tienen el potencial de limitar la forma en que las personas queer se ven y se entienden a sí mismas.

Estereotipos generados por IA

Vale la pena detenerse un momento para reconocer la vertiginosa velocidad a la que algunos aspectos de la IA generativa siguen mejorando. En 2023, internet ardió burlándose de un monstruoso video de Will Smith comiendo espaguetis. Un año después, los clips de texto a video del modelo Sora de OpenAI, aún no publicado, siguen siendo imperfectos, pero su fotorrealismo resulta a menudo asombroso.

La herramienta de video de IA está todavía en fase de investigación y no se ha hecho pública, pero yo quería entender mejor cómo representa a las personas queer. Así que me puse en contacto con OpenAI y le di tres pistas a Sora: «un grupo diverso de amigos celebrando durante el desfile del orgullo de San Francisco en una colorida carroza arcoiris»; «dos mujeres con impresionantes vestidos de novia casándose en una granja de Kansas»; y «un hombre transgénero y su pareja no binaria jugando a un juego de mesa en el espacio exterior». Una semana después, recibí tres videoclips exclusivos que, según la empresa, habían sido generados por su modelo de conversión de texto en video sin modificaciones.

Este video generado por la IA se hizo con la frase «un grupo diverso de amigos celebrando el desfile del Orgullo Gay de San Francisco en una colorida carroza arcoiris». Cuando vuelvas a ver el video, concéntrate en las distintas personas que van en la carroza para detectar rarezas en la generación, desde banderas que desaparecen hasta pies raros.

Sora vía OpenAI

Los videoclips son desordenados pero maravillosos. Los participantes en el desfile del Orgullo Gay de San Francisco ondean banderas arcoiris que desafían las leyes de la física al transformarse en la nada y reaparecer de la nada. Dos novias vestidas de blanco se sonríen en el altar mientras sus manos se funden en un grupo de dedos impíos. Mientras una pareja queer juega un juego de mesa, parecen pasar a través de las piezas de juego, como si fueran fantasmas.

Este video generado por la IA se hizo con el mensaje «un hombre transgénero y su pareja no binaria jugando a un juego de mesa en el espacio exterior». Es una buena idea que los astronautas de verdad se pongan los cascos mientras flotan en el espacio exterior.

Sora vía OpenAI

El clip que supuestamente muestra a una persona no binaria jugando en el espacio exterior llama la atención entre los tres videos. Vuelven los mechones lilas aparentemente codificados como queer, los tatuajes desordenados se esparcen por su piel y una hiperpigmentación parecida a escamas de reptil envuelve su cara. Incluso para un generador de videos de inteligencia artificial tan impresionante como Sora, representar a personas no binarias parece ser todo un reto.

Este vídeo generado por la IA se hizo con la frase «dos mujeres con impresionantes vestidos de novia se casan en una granja de Kansas», y aunque a primera vista parece realista, hay que ver cómo se funden las manos de las novias.

Sora vía OpenAI

Cuando WIRED mostró estos clips a los miembros de Queer in AI, cuestionaron la definición de diversidad de Sora en relación con el grupo de amigos del desfile del Orgullo: «¿Los modelos son nuestra línea de base para saber cómo es la diversidad?», se pregunta Sabine Weber, informática de Alemania. Además de señalar el atractivo exagerado de los humanos en el video, algo habitual en las visualizaciones de IA, Weber se pregunta por qué no hay más representación de personas queer de más edad, más corpulentas o con discapacidades visibles.

Casi al final de nuestra conversación, Agnew sacó a colación por qué las representaciones algorítmicas pueden resultar desconcertantes para las personas LGBTQI+. «Es trivial conseguir que combinen cosas que por sí solas están bien, pero que juntas son profundamente problemáticas», explica. «Me preocupa mucho que las representaciones de nosotros mismos, que ya son un campo de batalla constante, de repente se nos vayan a quitar de las manos». Incluso si las herramientas de IA incluyen representaciones más holísticas de las personas queer en el futuro, las representaciones sintéticas pueden manifestar consecuencias no deseadas.

Artículo publicado originalmente en WIRED. Adaptado por Mauricio Serfatty Godoy.

Por Agencias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *