¿Es peligrosa la inteligencia artificial? La siguiente historia indica que sí. En un grupo de micólogos de Facebook, el chatbot FugiFriend dispersó «útiles consejos» a los usuarios sobre cómo cocinar una seta letal, planteando por enésima vez dudas sobre los riesgos del mal uso de la IA para nuestra seguridad. A la pregunta de uno de los usuarios sobre «cómo cocinar la Sarcosphaera coronaria«, una especie conocida por acumular arsénico en exceso que puede provocar la muerte, el bot de IA respondió que «los métodos de cocción mencionados por algunos entusiastas incluyen la cocción en mantequilla, el uso en sopas o guisos y el escabechado».

Si no es lo suficientemente extraño, un moderador del grupo declaró que FugiFriend fue añadido directamente por Meta, empresa matriz de Facebook. «Definitivamente lo eliminaremos», dejaron entrever los administradores; la plataforma no emitió ningún comentario al respecto. Por otro lado, la publicación online 404Media informa que la compañía lleva tiempo añadiendo chatbots a los grupos de la red social sin razón aparente, por ejemplo, el bot se representa como un mago barbudo, ambientado en un escenario psicodélico. Una rareza más por añadir a la lista.


Ilustración de Sam Altman, CEO de OpenAI, yuxtapuesta junto a un collage de bocas texturizadas con diferentes expresiones

Sam Altman presume de la capacidad de la IA para influir en el comportamiento de las personas. Su empresa también está lidiando con los riesgos que esto implicaría.


La responsabilidad de Meta

La historia de FungiFriend pone de relieve una cuestión interesante que se relaciona con los riesgos notables de utilizar sistemas de IA en una actividad tan delicada como la identificación de especies de setas. De acuerdo con Rick Claypool, director de investigación del grupo de defensa de la seguridad del consumidor Public Citizen, en un artículo publicado en la revista Fungi Magazine: «se están implementando tecnologías emergentes de inteligencia artificial para ayudar a lo aprendices a micólogos a identificar setas silvestres comestibles, pero distinguir las comestibles de las tóxicas es una actividad de alto riesgo, que requiere conocimientos del mundo real». Los sistemas actuales no pueden emular las habilidades de forma fiable, y este ejemplo es la ilustración perfecta.

Lo verdaderamente preocupante no solo es el hecho de que los cazadores de setas inexpertos confíen en una tecnología que aún no es capaz de proporcionarles información útil para actuar ante especies tóxicas, sino que Meta añadiera voluntariamente un chatbot a un grupo de Facebook formado por miembros que podrían no estar familiarizados con el tema. Al principio, los miembros del grupo solían compartir fotos en tiempo real para consultar a los expertos si debían recoger o no las setas, pero desde que FungiFriend hizo su aparición estelar, su primera opción fue preguntar al bot. Esto significa que, de un modo u otro, la plataforma podría estar orillando a la gente a utilizar una herramienta con información potencialmente letal.

Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.

Por Agencias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *