VIDEO > L'intelligenza artificiale permetterà ai robot di sentire.

Gli esperti del MIT stanno lavorando a un nuovo sistema che consentirà ai robot di riconoscere il loro ambiente attraverso il tatto quando non dispongono di informazioni visive. Ad esempio, in una stanza buia, la vista che consente loro di percepire un oggetto solo vedendolo.

Secondo una dichiarazione ufficiale, esistono già robot programmati per sentire il tocco degli oggetti o per vederli, ma questi “sensi” non interagiscono tra loro. Tuttavia, questo nuovo sistema di Intelligenza Artificiale, sviluppato dai ricercatori nel laboratorio di Intelligenza Artificiale e Informatica (CSAIL), consente al robot di imparare a vedere al tatto e sentire una superficie usando la vista, simile a cosa fanno gli umani.

Per questo è stato utilizzato un braccio robot KUKA, con uno speciale sensore tattile noto come GelSight, progettato da un altro team del MIT. Secondo la dichiarazione, il metodo del team permette di creare segnali tattili realistici da stimoli visivi e di predire cosa è l’oggetto e quale parte viene toccata direttamente da questi stimoli.

VIDEO > L'intelligenza artificiale permetterà ai robot di sentire.

Il modello si basa su un sistema di associazione dell’immagine dell’oggetto con il suo ambiente, quindi sono stati compilati in un database chiamato VisGel, con più di tre milioni di immagini visive e tattili accoppiate.

Per fare questo, il team ha realizzato un video con una webcam di circa duecento oggetti, come strumenti o prodotti comuni dell’hogr, che erano stati riprodotti circa dodicimila volte e convertito i piccoli video in immagini statiche, che sono stati archiviati nelle basi di dati.

VIDEO > L'intelligenza artificiale permetterà ai robot di sentire.

In questo modo, affinché il robot possa differenziare il tocco di un oggetto con la vista, il sistema deve individuare dove l’oggetto sarà toccato e quindi dedurre la sua forma e interpretazione, seguendo l’inferenza che gli esseri umani fanno del tocco degli oggetti guardali e basta. Le immagini di riferimento aiutano a codificare i dettagli su di esso e sull’ambiente.

Immediatamente, è stato introdotto il braccio del robot, che ha confrontato ciò che stava vedendo con l’immagine di riferimento e immediatamente ha identificato la sua posizione e il livello di tocco.

Nel caso in cui il robot sia in grado di riconoscere visivamente un oggetto toccandolo, permettendogli di trovare elementi in luoghi bui, come una stanza senza luce, il modello ha analizzato un’immagine tattile e ne ha identificato la forma e il materiale, oltre a cercare riferimenti visivi per sapere come interagire con lui.

A poco a poco ci stiamo avvicinando a un futuro che, in passato, si poteva vedere solo nei film o nei libri. Pensi che siamo sulla strada giusta o non stiamo prestando attenzione agli avvertimenti? Vieni a discuterne sulla nostra pagina Facebook di SpazioUFO.