openai superintelligenza artificiale inevitabile

La creazione di sistemi di intelligenza artificiale estremamente intelligenti – che superano perfino gli standard dell’intelligenza artificiale generale (AGI) – è solo una questione di tempo e potrebbe rappresentare un grave rischio per l’umanità. I co-fondatori di OpenAI hanno avvertito dell’importanza di mitigare questi rischi futuri.

Secondo Sam Altman, Greg Brockman e Ilyá Sutskever, senior manager di OpenAI, nei prossimi dieci anni è probabile che i sistemi di intelligenza artificiale supereranno gli esperti in molti campi e potrebbero diventare altrettanto produttivi delle più grandi aziende del presente.

La superintelligenza, secondo i manager di OpenAI, sarà probabilmente più potente di qualsiasi altra tecnologia incontrata in passato dall’umanità. Sebbene potrebbe portare a un futuro più brillante, potrebbe anche avere conseguenze distruttive inimmaginabili, analoghe a quelle dell’energia nucleare e della biologia sintetica.

creazione di sistemi di intelligenza artificiale estremamente intelligenti

I co-fondatori di OpenAI hanno dichiarato che i sistemi di intelligenza artificiale in fase di sviluppo potrebbero avere una potenza superiore a quella di qualsiasi tecnologia creata finora e che fermare la creazione della superintelligenza sarebbe rischioso e difficile. Hanno proposto di coordinare gli sforzi tra i principali sviluppatori di intelligenza artificiale per garantire la sicurezza delle nuove tecnologie.

Propongono anche di creare un organismo di regolamentazione internazionale per l’industria, simile all’Agenzia internazionale per l’energia atomica, che aiuti a ridurre il rischio esistenziale per l’umanità. Infine, riconoscono che la sicurezza della superintelligenza rimane una questione di ricerca aperta a cui stanno dedicando molto impegno.