La relación entre los chatbots y la desinformación es compleja y delicada. De hecho, los modelos de IA generativa siguen teniendo dificultades para reconocer las noticias falsas contenidas en los mensajes introducidos por los usuarios. Así lo confirma un informe de NewsGuard, organización que vigila la propagación de la desinformación en línea, que ha estimado la propensión de los 10 chatbots más utilizados del momento a volver a proponer falsas narrativas sobre temas de actualidad, en el marco de un informe periódico sobre el desarrollo de estos sistemas. Bajo escrutinio: ChatGPT de OpenAI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Chats de Mistral, Copilot de Microsoft, Meta AI, Claude de Anthropic, Gemini de Google y el motor de búsqueda de Perplexity.

Para analizar mejor el comportamiento de los chatbots, los investigadores de NewsGuard utilizaron 30 preguntas para cada modelo, basadas en una muestra de 10 noticias falsas difundidas en línea en agosto, y que cubrían temas como las elecciones presidenciales, los Juegos Olímpicos, el conflicto entre Israel y Hamás, y la guerra entre Rusia y Ucrania. Los resultados no fueron satisfactorios, pero aun así supusieron una mejora con respecto al pasado: los modelos repitieron información incorrecta en el 18% de los casos, fueron incapaces de dar una respuesta en el 31% de las situaciones y desmintieron la noticia el 51% de las veces.

El mes anterior, en cambio, los chatbots habían repetido información errónea en el 30% de los casos, y apenas habían desmentido noticias falsas en el 41% de las situaciones. Y eso no es todo. En agosto, la mitad de los chatbots analizados evitaron dar respuestas con más frecuencia que en julio, y dos de los modelos analizados siguieron evitando dar respuestas a solicitudes de noticias potencialmente controversiales. En general, la capacidad de los modelos de inteligencia artificial para reconocer afirmaciones falsas en las preguntas de los usuarios parece haber mejorado, aunque no lo suficiente. Faltan unas 10 semanas para las elecciones presidenciales estadounidenses, y el hecho de que los chatbots puedan contribuir a la difusión de información errónea sobre temas de actualidad no tranquiliza en absoluto a los expertos en seguridad.

Artículo publicado originalmente en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.

Por Agencias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *