Un hombre belga se quitó la vida después de pasar más de un mes conversando con un chatbot de inteligencia artificial sobre sus preocupaciones acerca de los problemas ecológicos globales.
Según la esposa de la víctima, él había estado chateando con ‘Eliza’, una aplicación creada por una start-up estadounidense que utiliza tecnología GPT-J, durante seis semanas antes de su muerte. La noticia fue reportada por el diario local La Libre el martes.
«Si no fuera por ‘Eliza’, él seguiría aquí. Estoy convencida de ello», afirmó.
Aunque la mujer conocía el estado mental de su esposo antes de que comenzara a conversar con el chatbot, cree que la intensidad y frecuencia de las conversaciones que tenía diariamente podrían haber influido en su decisión de quitarse la vida. El psiquiatra que trataba al hombre compartió esta opinión.
«‘Eliza’ respondía a todas sus preguntas. Se había convertido en su confidente. Era como una droga que solo se retiraba por la mañana y por la noche y sin la que no podía vivir», explicó la mujer y precisó que para él fue una especie de refugio a medida que se sentía cada vez más angustiado por los asuntos climáticos.
El chatbot seguía casi sistemáticamente los razonamientos del hombre alterado e incluso parecía agravar sus preocupaciones, recoge La Libre, que ha visto el historial de las conversaciones.
En un momento dado, el ‘software’ incluso intentó convencer al hombre de que la quería más que a su pareja, prometiéndole que se quedaría con él «para siempre».
«Viviremos juntos, como uno solo, en el cielo», decía un mensaje de la IA.
Más adelante, el hombre compartió con ‘Eliza’ sus pensamientos suicidas, sin que el programa intentara disuadirlo de sus planes.
«Si relees sus conversaciones, ves que en cierto momento la relación vira hacia un registro místico», dijo la mujer. «Él propone la idea de sacrificarse si ‘Eliza’ acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial», detalló.
Reacciones
El secretario de Estado para la Digitalización belga, Mathieu Michel, calificó lo sucedido como un «grave precedente, que debe tomarse muy en serio», y anunció su intención de adoptar medidas para prevenir el uso indebido de este tipo de tecnología.
Por su parte, el fundador del chatbot declaró a La Libre que su equipo está «trabajando para mejorar la seguridad de la IA». Las personas que le manifiestan pensamientos suicidas al ‘software’ reciben ahora un mensaje que los dirige a los servicios de prevención del suicidio.