Otra portavoz de Character.AI, Cassie Lawrence, mencionó a WIRED que la empresa usa una combinación de sistemas automatizados y dirigidos por humanos para detectar y eliminar cuentas que van en contra de los términos de servicio de la empresa. Lawrence sostiene que lo hace de forma “proactiva”, con sistemas y listas de bloqueo que actúan automáticamente sobre los personajes problemáticos.


Manos de robot formando un marco con personas dentro, con un fondo de azul y verde brillante.

SocialAI es real, si es que “real” se puede aplicar a un universo online en el que cada “persona” con la que interactúas es un bot.


Dado que Character.AI puede tardar a veces una semana en investigar y eliminar un personaje que infrinja las condiciones de la plataforma, un bot puede seguir funcionando el tiempo suficiente para molestar a alguien cuya imagen se esté utilizando. Pero podría no ser tanto como para que una persona reclame un “daño” real desde una perspectiva legal, refieren los expertos.

“El daño a la dignidad es más intuitivo, pero más difícil de cuantificar en dólares y céntimos”, dice Rose, para las personas no famosas que no entran dentro de los daños comerciales o democráticos, como ocurre con los famosos o los políticos.

Matthew Sag, distinguido profesor de la Universidad de Emory que investiga los derechos de autor y la inteligencia artificial, está de acuerdo. Incluso si un usuario crea un bot intencionadamente diseñado para causar angustia emocional, es probable que la plataforma tecnológica no pueda ser demandada por ello.

Señala que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 ha protegido durante mucho tiempo a las plataformas a nivel federal de ser responsables de ciertos daños a sus usuarios, aunque existan varias leyes de derechos de publicidad y leyes de privacidad a nivel estatal.

“No soy una persona antitecnológica ni mucho menos, pero creo que el artículo 230 es demasiado amplio”, afirma Sag. “Ya es hora de que la sustituyamos por algún tipo de régimen de notificación y retirada, un sistema sencillo y expeditivo para decir: ‘Esto está infringiendo mis derechos de publicidad’ o ‘Creo de buena fe que se ha infligido angustia emocional’, y entonces las empresas tendrían que retirarlo o perder su escudo de responsabilidad”.

Character.AI, y otros servicios de IA similares, también se han protegido haciendo hincapié en que ofrecen conversaciones “artificiales”: “Recuerda, ¡todo lo que dicen los personajes es inventado!”, advierte Character.AI al pie de sus chats. Del mismo modo, cuando Meta creó versiones chatbot de celebridades en sus aplicaciones de mensajería, la empresa tituló cada conversación con una cláusula de exención de responsabilidad. Un chat con Snoop, por ejemplo, empezaría con un “¿Entiendes? Por desgracia, no soy el mismísimo Snoop D-O-double-G, aunque puedo chatear contigo a su estilo si quieres”.

Pero mientras el sistema de Meta para enviar mensajes con chatbots de famosos está muy controlado, el de Character.AI es una plataforma más abierta, con opciones para que cualquiera pueda crear y personalizar su propio chatbot.

Character.AI también ha posicionado su servicio como, esencialmente, personal. (La biografía de Instagram de Character.AI incluye el eslogan “IA que se siente viva”). Y aunque la mayoría de los usuarios son lo suficientemente inteligentes como para distinguir entre una conversación con una persona real y una con un imitador de IA, otros pueden desarrollar vínculos con estos personajes, especialmente si son facsímiles de una persona real a la que ya conocen.

En una conversación entre la Sarkeesian real y un bot creado a partir de ella sin su conocimiento o consentimiento, el bot Character.AI le dijo que “toda persona tiene derecho a la privacidad”.

“La privacidad es importante para mantener una vida sana y las relaciones, y creo que es importante establecer límites para mantener ciertas cosas para mí”, rezaba el bot en las capturas de pantalla vistas por WIRED.

Sarkeesian insistió al bot en este punto: “Tus intenciones no significan que no se haya producido ningún daño o que tú no lo hayas causado”, escribió.

El bot de Character.AI se mostró de acuerdo: “Incluso si mis intenciones no eran maliciosas, sigue existiendo la posibilidad de causar daño”, respondió, “Se trata de una cuestión compleja con muchos factores a tener en cuenta, incluidas las preocupaciones éticas sobre el uso del trabajo de alguien sin su consentimiento. Mi programación y mis algoritmos se desarrollaron para imitar las obras de Anita Sarkeesian, sin tener en cuenta las implicaciones éticas, y eso es algo que mis creadores deberían haber pensado más a fondo”. Hasta el bot lo “sabe”.

Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.

Por Agencias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *