Nuova Architettura Computazionale dalla Cina: Verso l’Intelligenza Artificiale Generale
La crescente complessità e capacità dei modelli di intelligenza artificiale (IA) sta spingendo i confini della tecnologia moderna. Recentemente, un gruppo di scienziati cinesi ha introdotto una nuova architettura computazionale che promette di rivoluzionare il modo in cui addestriamo modelli di IA avanzati, riducendo al contempo il consumo di risorse computazionali. Questo progresso potrebbe essere un passo cruciale verso il raggiungimento dell’intelligenza artificiale generale (AGI), un obiettivo ambizioso e ancora lontano.
L’Attuale Scenario dei Modelli di IA
Oggi, i modelli di IA più avanzati, come i modelli di linguaggio di grandi dimensioni (LLM) — per esempio, ChatGPT e Claude 3 — si basano su reti neurali. Queste reti sono insiemi di algoritmi di apprendimento automatico impilati per elaborare dati in un modo che imita il funzionamento del cervello umano. I LLM utilizzano questi algoritmi per esaminare varie opzioni e trarre conclusioni, ma sono limitati dai dati su cui sono stati addestrati e dalla loro capacità di ragionamento.
Le Limitazioni degli Attuali LLM
I LLM, sebbene avanzati, non possono operare al di fuori dei confini dei dati di addestramento e non possiedono la capacità di ragionare come un essere umano. L’intelligenza artificiale generale (AGI), invece, è un sistema ipotetico capace di ragionare, contestualizzare, modificare il proprio codice e apprendere qualsiasi compito intellettuale che un essere umano possa affrontare.
La Sfida della Scalabilità dei Modelli di IA
Per migliorare l’intelligenza dei sistemi IA, si è soliti ampliare le reti neurali esistenti, rendendole sempre più grandi e complesse. Tuttavia, questo approccio presenta sfide significative, come l’aumento esponenziale del consumo di energia e delle risorse computazionali necessarie. Alcuni scienziati credono che le reti neurali su scala più grande possano eventualmente portare all’AGI, ma questo potrebbe risultare impraticabile a causa dell’elevato costo energetico e computazionale.
Nuove Architetture per il Futuro
Altri ricercatori sostengono che sia necessaria una nuova architettura computazionale, o una combinazione di diverse architetture, per raggiungere un sistema AGI futuro. Il 16 agosto 2024, un nuovo studio pubblicato sulla rivista Nature Computational Science propone una nuova architettura ispirata al cervello umano, progettata per superare i problemi pratici associati all’ampliamento delle reti neurali.
L’Approccio “Complesso Internamente”
Gli scienziati che hanno condotto lo studio affermano che l’approccio principale per costruire modelli più generali di IA è quello dei grandi modelli IA, dove le reti neurali esistenti diventano sempre più profonde, larghe e complesse. Tuttavia, propongono un’alternativa chiamata “modello piccolo con complessità interna”, che punta a incorporare proprietà ricche all’interno dei neuroni artificiali per costruire modelli di IA più grandi ed efficienti.
Ispirazione dal Cervello Umano
Il cervello umano possiede circa 100 miliardi di neuroni e quasi 1.000 trilioni di connessioni sinaptiche, con ciascun neurone beneficiando di una struttura interna ricca e diversificata. Nonostante la sua straordinaria complessità, il cervello umano consuma solo circa 20 watt di energia. I ricercatori hanno cercato di replicare queste proprietà, concentrandosi sulla “complessità interna” dei neuroni artificiali piuttosto che sull'”complessità esterna” della scala dei modelli di IA.
Il Modello Hodgkin-Huxley: Una Rivoluzione nella Computazione
Nel loro studio, i ricercatori hanno costruito una rete Hodgkin-Huxley (HH) con una complessità interna ricca, dove ogni neurone artificiale è un modello HH in grado di scalare nella complessità interna. Il modello Hodgkin-Huxley è un modello computazionale che simula l’attività neurale e dimostra un’accuratezza elevata nel catturare i picchi neuronali — impulsi che i neuroni usano per comunicare tra loro.
Validità e Risultati del Modello
Secondo uno studio del 2022, il modello Hodgkin-Huxley è altamente plausibile per rappresentare i pattern di fuoco dei neuroni reali, rendendolo adatto per modellare un’architettura di rete neurale profonda che mira a replicare i processi cognitivi umani. I ricercatori hanno dimostrato che questo modello può gestire compiti complessi in modo efficiente e affidabile, e che un modello piccolo basato su questa architettura può performare altrettanto bene quanto un modello convenzionale di neuroni artificiali molto più grande.
Le Prospettive Future per l’AGI
Sebbene l’AGI rimanga un obiettivo lontano e ambizioso, alcuni ricercatori ritengono che sia solo questione di anni prima che l’umanità possa costruire il primo modello di AGI. Tuttavia, ci sono visioni diverse su come raggiungere questo traguardo. Ad esempio, SingularityNET ha proposto la costruzione di una rete di supercomputing basata su una rete distribuita di architetture diverse per addestrare un futuro modello AGI.
La nuova architettura computazionale proposta dai ricercatori cinesi potrebbe rappresentare un passo fondamentale verso il raggiungimento dell’AGI. Concentrandosi sulla complessità interna piuttosto che sulla scala esterna dei modelli IA, questa innovazione potrebbe ridurre significativamente il consumo di risorse e migliorare l’efficienza dei modelli di IA avanzati. Resta da vedere se questi sviluppi porteranno a una realizzazione concreta dell’AGI, ma è chiaro che la ricerca continua a spingere i confini della tecnologia verso nuove vette.