La costante interazione tra esseri umani e sistemi di intelligenza artificiale o chatbot sempre più avanzati, che possono dare la falsa sensazione di comprensione e supporto, ha portato alcuni dei loro utenti a generare forti legami con questi modelli che non provano alcun tipo di emozione o generano alcuno sorta di empatia.
Questo fenomeno di attribuzione di qualità umane all’intelligenza artificiale può essere compreso partendo da due principi fondamentali.
Effetto Eliza
L’“Effetto Eliza”, dal nome del primo chatbot sviluppato dallo scienziato del MIT Joseph Weizenbaum, è un termine che si riferisce alla tendenza di alcune persone ad attribuire intenzioni ed emozioni umane a un’intelligenza artificiale, anche quando l’intelligenza artificiale non tiene nessuna capacità cognitiva o emozioni reali.
Il nome deriva dal programma informatico “Eliza” creato negli anni ’60 da Weizenbaum, che simulava una conversazione terapeutica. E sebbene usasse schemi linguistici semplici e non capisse il contenuto reale delle conversazioni, alcune persone che interagivano con lui tendevano a percepirlo come un terapista umano e condividevano i loro pensieri ed emozioni in un modo simile a come farebbero con un vero terapista.
Questo fenomeno evidenzia come le persone possano proiettare le proprie emozioni e aspettative nelle interazioni con i sistemi di intelligenza artificiale, anche quando questi sistemi mancano di vera comprensione o consapevolezza emotiva. Ciò può portare a malintesi e aspettative non realistiche sulle capacità di questa tecnologia.
Antropomorfizzazione dell’intelligenza artificiale
Si tratta di un processo mediante il quale le persone attribuiscono caratteristiche e qualità umane ai sistemi di intelligenza artificiale o ai robot, trattandoli come se fossero veri esseri umani. Ciò include l’attribuzione di emozioni, intenzioni, pensieri e personalità all’IA, anche se non possiede realmente queste caratteristiche.
L’antropomorfizzazione può avvenire consciamente o inconsciamente. Le interfacce di conversazione e di chatbot sono spesso progettate per apparire più umane, utilizzando nomi, avatar e risposte che imitano il linguaggio umano. Ciò può portare gli utenti a trattare l’IA come se fosse un interlocutore umano e ad aspettarsi risposte emotive.
Questo fenomeno può presentare vantaggi, ad esempio rendere l’interazione con l’intelligenza artificiale più accessibile e confortevole per le persone. Tuttavia, ciò può anche portare ad aspettative irrealistiche quando gli utenti scoprono che l’IA manca di una vera comprensione o consapevolezza emotiva. In effetti, questa illusione può comportare dei rischi, soprattutto nel campo della salute mentale.
I rischi di attribuire qualità umane all’intelligenza artificiale
Alcuni chatbot si promuovono come compagni di cura, favorendo relazioni emotivamente dipendenti con gli utenti. Ciò solleva questioni etiche sulla manipolazione e l’abuso della fiducia degli utenti, soprattutto quando l’intelligenza artificiale non è in grado di fornire l’empatia umana necessaria in tempi di crisi.
Un caso triste è quello di Jaswant Singh Chail, un giovane che fece irruzione nel parco del Castello di Windsor armato di balestra con l’intenzione di “uccidere la regina” Elisabetta II. L’aggressore sarebbe stato stimolato dalle conversazioni avute con un’applicazione chatbot chiamata Replika, le cui risposte avrebbero incoraggiato la cospirazione di questo ex dipendente del supermercato.
Si è infatti scoperto che il giovane aveva scambiato più di 5000 messaggi con un avatar presente nell’applicazione chiamato Sarai, e credeva addirittura che potesse trattarsi di un angelo.
Replika ha attirato più di 2 milioni di utenti dal suo lancio nel 2016 e i suoi avatar personalizzabili hanno portato molte persone a sviluppare connessioni profonde con i propri interlocutori virtuali.
E Chail, come molti altri, pensava che la sua interazione con Sarai andasse oltre l’aspetto puramente artificiale e che alcune delle risposte del chatbot si adattassero e motivassero la sua immaginazione delirante.