Spenta per precauzione Intelligenza Artificiale Facebook che stava sviluppando una propria lingua.

Forse non tutti sanno che Facebook sta studiando l’Intelligenza Artificiale. Un tema che anche Hollywood se ne sta occupando da tempo, anche se sotto un altro aspetto, ma sappiamo come il cinema anticipi spesso il futuro dell’umanità.

E’ successo proprio così come spiegato nel titolo di questo articolo. Due bot programmati da Facebook hanno creato una propria lingua, e poi sono stati disattivati come precauzione, per impedire che la loro comunicazione si evolvesse senza controllo.

Tutto è iniziato con la ricerca Fair, un progetto che cercava di migliorare l’intelligenza artificiale, di quelli che possono, per esempio, risponderci in una chat di aiuto. Con questo scopo, due robot, chiamati “Alice e Bob“, erano programmati per negoziare tra loro, parlando in inglese.

Tuttavia, anche se tutto andava secondo i piani e i robots negoziavano tra loro sempre meglio, qualcosa è cambiato improvvisamente. I ricercatori sono rimasti sorpresi quando hanno notato che i robot dicevano ciò che sembrava privo di significato. Innanzitutto, hanno immaginato un errore. Ma realizzarono rapidamente qualcosa di sorprendente: quando lo analizzarono, giunsero alla conclusione che Bob e Alice non stavano parlando in modo incoerente, ma avevano creato un linguaggio incomprensibile per gli umani.

Apparentemente, entrambi avevano concordato di eliminare alcuni “ornamenti” della lingua, in modo che fosse più efficace e permettesse loro di negoziare meglio. Presto il linguaggio è diventato incomprensibile per gli umani (foto).

Secondo quanto emerso, prima di questo fatto che può essere visto come una forma in cui “l’intelligenza artificiale è fuori controllo“, gli investigatori hanno deciso di estinguere il sistema per impedire che la lingua continuasse ad evolversi.

Digital Journal, un giornale che ha riportato il caso, ha sottolineato che non è la prima volta che un’intelligenza artificiale (Artificial Intelligence) crea il proprio linguaggio. Era già stato verificato all’interno della fondazione OpenAI, fondata da Elon Musk, che l’IA sviluppava il proprio modo di comunicare.

Il team responsabile dell’esperimento di Facebook, ha riferito di aver deciso di spegnerlo, non perché ci fosse un pericolo (come se i robot fossero “scappati” sul web), ma perché, se si verifica un errore e non è possibile capirlo, non si può ripararlo. Sarà proprio per questo o hanno voluto nascondere dell’altro?