Cuando empecemos a ver el despliegue de la automatización, suponiendo que el progreso continúe, creo que estas conversaciones empezarán a producirse y acabarán profundizándose.

Las aplicaciones sociales de acompañamiento serán cada vez más importantes. La gente tendrá todo tipo de puntos de vista diferentes y ese es un gran lugar para tal vez tener una pequeña guerra cultural. Podría ser estupendo para las personas que no encuentran satisfacción en la vida ordinaria, pero ¿y si hay un segmento de la población que disfruta abusando de ellas?

En las esferas política e informativa podríamos ver el uso de la IA en campañas políticas, de marketing, sistemas de propaganda automatizados. Pero si tenemos un nivel suficiente de sabiduría, estas cosas podrían amplificar realmente nuestra capacidad de ser ciudadanos democráticos constructivos, con asesoramiento individual que explique qué significan para ti las propuestas políticas. Habrá un montón de dinámicas para la sociedad.


Fotografía de Joseph Weizenbaum, inventor del chatbot Eliza.

Luego de crear Eliza, Joseph Weizenbaum se pasó toda la vida advirtiendo de los riesgos de la tecnología.


¿Sería realmente malo un futuro en el que la IA haya resuelto muchos problemas, como el cambio climático, las enfermedades y la necesidad de trabajar?

En última instancia, soy optimista sobre lo que podría ser el resultado si las cosas van bien. Pero eso está al otro lado de un montón de reconsideraciones bastante profundas sobre lo que podría ser la vida humana y lo que tiene valor. Podríamos tener esta superinteligencia y podría hacerlo todo; entonces hay un montón de cosas que ya no necesitamos hacer y esto socava mucho de lo que actualmente pensamos que es la especie y el fin de la existencia humana. Quizá también haya mentes digitales que formen parte de este futuro.

Coexistir con las mentes digitales sería en sí mismo un gran cambio. ¿Tendremos que pensar cuidadosamente cómo tratamos a estas entidades?

En mi opinión, la sintiencia, es decir, la capacidad de sufrir, es una condición suficiente, pero no necesaria, para que un sistema de inteligencia artificial tenga estatus moral.

También puede haber sistemas de inteligencia artificial a los que, aunque no sean conscientes, les otorguemos diversos grados de estatus moral. Un razonador sofisticado con una concepción de sí mismo como algo que existe a lo largo del tiempo, preferencias estables, tal vez objetivos vitales y aspiraciones que quiere alcanzar, y quizá pueda establecer relaciones recíprocas con los humanos… si se tratara de un sistema así, creo que es plausible que hubiera formas de tratarle que estarían mal.

Deep Utopia book cover

Libro “Utopía profunda: vida y s de un mundo resuelto” de Nick Bostrom.

Courtesy of Ideapress

¿Y si no permitiéramos que la IA se volviera más voluntariosa y desarrollara cierto sentido de sí misma? ¿No sería eso más seguro?

En este momento, el avance de la inteligencia artificial está fuertemente impulsado. Los beneficios económicos son enormes y serán cada vez más evidentes. También están los avances científicos, los nuevos medicamentos, las fuentes de energía limpia, etcétera. Además, creo que se convertirá en un factor cada vez más importante para la seguridad nacional, donde habrá incentivos militares para impulsar esta tecnología.

Creo que sería deseable que quienquiera que esté en la vanguardia del desarrollo de la próxima generación de sistemas de IA, en particular los sistemas superinteligentes verdaderamente transformadores, tuviera la capacidad de hacer una pausa durante las etapas clave. Eso sería útil para la seguridad.

Por Agencias

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *