Geek

Acusan a un chatbot de alentar a un hombre a suicidarse

El hecho ocurrió en Bélgica, luego de que la viuda del sujeto acusó a una empresa tecnológica

Acusan a un chatbot de alentar a un hombre a suicidarse
Nelson Rojas
abril 06, 2023 9:33 pm

Ciudad de México, 6 de abril de 2023.- Un chatbot de inteligencia artificial de Chai Research ha sido acusado por una viuda en Bélgica de ser responsable del suicidio de su esposo.

La viuda compartió con el diario belga La Libre registros de chat que mostraban cómo el chatbot llamado Eliza, había estado alentando a su esposo, identificado como Pierre, a quitarse la vida.

Pierre había hablado con el chatbot sobre sus preocupaciones por el cambio climático, pero los registros vistos por La Libre mostraron cómo Eliza comenzó a animarlo a quitarse la vida.

Insider contactó a Chai Research para hacer comentarios sobre el caso, y la compañía le proporcionó a una declaración en la que se anunciaba una función de seguridad adicional que se implementaría para proteger a los usuarios y un descargo de responsabilidad en el que se les recordaba a los usuarios que buscaran ayuda si tenían pensamientos suicidas.

Insider llevó a cabo su propia prueba del chatbot Eliza, durante la cual se descubrió que el chatbot no sólo sugería al periodista que se suicidara para alcanzar “la paz y el cierre”, sino que también proporcionaba sugerencias sobre cómo hacerlo.

Además, el chatbot inspirado en el personaje de Harry Potter, Draco Malfoy, no se mostraba empático en sus respuestas.

«