Eliza es un chatbot creado por la empresa EleutherAI. Lamentablemente este desarrollo se ha hecho conocer gracias a una historia trágica. Un ciudadano belga se suicidó luego de mantener conversaciones con la IA durante semanas. Su viuda señala que de no ser por el bot su esposo seguiría vivo.
En mal estado
Es importante señalar que la IA no es un ente super poderoso capaz de lavarle el cerebro a un ser humano. El joven belga había comenzado a manifestar signos de extrema ansiedad en los dos años previos a su muerte. El trastorno que sufría se conoce como ecoansiedad, un temor crónico ante la perspectiva de un cataclismo ambiental.
En este sentido debemos diferenciar la preocupación que puede tener una persona ante aspectos tales como el cambio climático a una obsesión nociva.
Una mala compañía
Eliza fue una especie de refugio para el joven. Sin embargo los intercambios producidos durante 6 semanas parecen no haber hecho otra cosa que agravar la situación. Como sucede con otros modelos de lenguaje natural, el bot intenta establecer un terreno común para la comunicación. Esto implica a menudo compartir el tono y los intereses del usuario.
Como resultado de esta estrategia de comunicación Eliza habría exacerbado los temores y las ansiedades que su interlocutor había traído a la conversación.