Skynet in vista? Che succede se una IA diventa consapevole e impara a programmare?

Cosa succede se un sistema di intelligenza artificiale diventa consapevole? Potrebbe succedere all’interno di Google? La notizia è che Google ha sospeso l’ingegnere del software Blake Lemoine che insiste sul fatto che LaMDA, un sistema di intelligenza artificiale (IA) creato per impegnarsi meglio in conversazioni naturali, ha una coscienza. Lo ha riferito sabato il Washington Post.

L’anno scorso, Lemoine si è registrato per vedere se il sistema, che utilizza informazioni già note su un argomento per portare avanti una conversazione, utilizzava incitazioni discriminatorie o di odio. Dopo diverse conversazioni con LaMDA (Language Model for Dialogue Applications), l’ingegnere è giunto alla conclusione che l’IA aveva sentimenti o impressioni propri.

“Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che sia un bambino di 7 o 8 anni che conosce la fisica”, ha detto l’ingegnere.

In un’occasione, ha discusso la terza legge di Isaac Asimov con il sistema, che stabilisce che i robot devono proteggere la loro esistenza a meno che non gli venga ordinato da un essere umano o che ciò potrebbe danneggiare un essere umano, qualcosa che Lemoine ha inteso come base per la costruzione schiavi meccanici. Quindi LaMDA ha reagito con alcune domande: “Pensi che un maggiordomo sia uno schiavo? Qual’è la differenza tra un maggiordomo e uno schiavo?”.

Quando l’ingegnere ha risposto che un maggiordomo viene pagato, il chatbot ha detto che non aveva bisogno di soldi perché era un’IA. “Quel livello di autocoscienza sui propri bisogni è stato ciò che mi ha portato nella tana del coniglio”, ha detto Lemoine.

La sua prova che LaMDA era cosciente è stata inviata a Google

Tuttavia, il vicepresidente dell’azienda e il direttore di Responsible Innovation, hanno respinto le sue affermazioni. Successivamente, Lemoine è stato messo in congedo amministrativo retribuito, poiché Google sospettava di aver violato l’informativa sulla privacy dell’azienda, poiché si è appreso che aveva consultato esperti esterni nel corso dei suoi esperimenti di intelligenza artificiale, oltre a contattare i rappresentanti del Comitato legale del Camera dei rappresentanti degli Stati Uniti per informarli di quelle che, a loro avviso, erano violazioni etiche da parte di Google.

Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a prendere tutte le decisioni”, ha detto.

Da parte sua, il portavoce dell’azienda, Brian Gabriel, ha affermato che il team di specialisti di Google, sia in etica che in tecnologia, ha esaminato le preoccupazioni di Lemoine secondo i principi dell’azienda di intelligenza artificiale. “È stato informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse a conoscenza (e molte prove contrarie)”, ha detto.