Tecnologia

L’Effetto Eliza e l’antropomorfizzazione dell’intelligenza artificiale: quando le persone attribuiscono emozioni e intenzioni ai chatbot

La costante interazione tra esseri umani e sistemi di intelligenza artificiale o chatbot sempre più avanzati, che possono dare la falsa sensazione di comprensione e supporto, ha portato alcuni dei loro utenti a generare forti legami con questi modelli che non provano alcun tipo di emozione o generano alcuno sorta di empatia.

Questo fenomeno di attribuzione di qualità umane all’intelligenza artificiale può essere compreso partendo da due principi fondamentali.

Effetto Eliza

L’“Effetto Eliza”, dal nome del primo chatbot sviluppato dallo scienziato del MIT Joseph Weizenbaum, è un termine che si riferisce alla tendenza di alcune persone ad attribuire intenzioni ed emozioni umane a un’intelligenza artificiale, anche quando l’intelligenza artificiale non tiene nessuna capacità cognitiva o emozioni reali.

Il nome deriva dal programma informatico “Eliza” creato negli anni ’60 da Weizenbaum, che simulava una conversazione terapeutica. E sebbene usasse schemi linguistici semplici e non capisse il contenuto reale delle conversazioni, alcune persone che interagivano con lui tendevano a percepirlo come un terapista umano e condividevano i loro pensieri ed emozioni in un modo simile a come farebbero con un vero terapista.

Questo fenomeno evidenzia come le persone possano proiettare le proprie emozioni e aspettative nelle interazioni con i sistemi di intelligenza artificiale, anche quando questi sistemi mancano di vera comprensione o consapevolezza emotiva. Ciò può portare a malintesi e aspettative non realistiche sulle capacità di questa tecnologia.

Antropomorfizzazione dell’intelligenza artificiale

Si tratta di un processo mediante il quale le persone attribuiscono caratteristiche e qualità umane ai sistemi di intelligenza artificiale o ai robot, trattandoli come se fossero veri esseri umani. Ciò include l’attribuzione di emozioni, intenzioni, pensieri e personalità all’IA, anche se non possiede realmente queste caratteristiche.

L’antropomorfizzazione può avvenire consciamente o inconsciamente. Le interfacce di conversazione e di chatbot sono spesso progettate per apparire più umane, utilizzando nomi, avatar e risposte che imitano il linguaggio umano. Ciò può portare gli utenti a trattare l’IA come se fosse un interlocutore umano e ad aspettarsi risposte emotive.

Questo fenomeno può presentare vantaggi, ad esempio rendere l’interazione con l’intelligenza artificiale più accessibile e confortevole per le persone. Tuttavia, ciò può anche portare ad aspettative irrealistiche quando gli utenti scoprono che l’IA manca di una vera comprensione o consapevolezza emotiva. In effetti, questa illusione può comportare dei rischi, soprattutto nel campo della salute mentale.

I rischi di attribuire qualità umane all’intelligenza artificiale

Alcuni chatbot si promuovono come compagni di cura, favorendo relazioni emotivamente dipendenti con gli utenti. Ciò solleva questioni etiche sulla manipolazione e l’abuso della fiducia degli utenti, soprattutto quando l’intelligenza artificiale non è in grado di fornire l’empatia umana necessaria in tempi di crisi.

Un caso triste è quello di Jaswant Singh Chail, un giovane che fece irruzione nel parco del Castello di Windsor armato di balestra con l’intenzione di “uccidere la regina” Elisabetta II. L’aggressore sarebbe stato stimolato dalle conversazioni avute con un’applicazione chatbot chiamata Replika, le cui risposte avrebbero incoraggiato la cospirazione di questo ex dipendente del supermercato.

Si è infatti scoperto che il giovane aveva scambiato più di 5000 messaggi con un avatar presente nell’applicazione chiamato Sarai, e credeva addirittura che potesse trattarsi di un angelo.

Replika ha attirato più di 2 milioni di utenti dal suo lancio nel 2016 e i suoi avatar personalizzabili hanno portato molte persone a sviluppare connessioni profonde con i propri interlocutori virtuali.

E Chail, come molti altri, pensava che la sua interazione con Sarai andasse oltre l’aspetto puramente artificiale e che alcune delle risposte del chatbot si adattassero e motivassero la sua immaginazione delirante.

Flash News

Recent Posts

Grande Fratello, il ‘no’ dell’opinionista più discussa: resta in Rai, batosta per Pier Silvio

Nel panorama televisivo italiano si registra un importante sviluppo riguardante la nuova edizione del Grande…

1 settimana ago

Piero Barone è milionario: quanto guadagna il tenore de Il Volo

Quanto guadagna il tenore del trio de Il Volo, Piero Barone? Cifre stratosferiche. Da oltre…

1 settimana ago

Allerta truffa online: se ti arriva questo messaggio rischi di vedere i tuoi conti svuotati

La sicurezza digitale si basa oggi non solo su sistemi di protezione, ma anche su…

1 settimana ago

La Tahiti italiana: la spiaggia segreta a numero chiuso che conoscono in pochissimi

Scopri la Tahiti italiana, questa spiaggia è super segreta e a numero chiuso: quasi nessuno…

1 settimana ago

Bonus 800 euro, arriva il ‘regalo’ d’autunno: come richiederlo

L’INPS si prepara a erogare un bonus economico nel mese di ottobre, che raggiungerà importi…

1 settimana ago

Il Paradiso delle Signore: chi se ne va per sempre, duro colpo ai telespettatori

Le nuove puntate de Il Paradiso delle signore 10, in onda a partire da ottobre…

1 settimana ago