Google Gemini Screenshare: nuove funzioni per un’assistenza AI più smart

  • Google presenta nuove funzioni per il suo assistente di intelligenza artificiale Gemini: una rivoluzione nell’interazione con la tecnologia.

Google continua a innovare nel campo dell’intelligenza artificiale (IA) con il suo assistente Gemini, che sta evolvendo per rendere le interazioni con gli utenti più naturali e intuitive. Durante il Mobile World Congress (MWC) 2025 di Barcellona, la compagnia ha presentato due nuove funzionalità chiave: Screenshare e la possibilità di effettuare consultazioni in tempo reale a partire dai video. Queste innovazioni promettono di migliorare notevolmente l’esperienza dell’utente e trasformare il modo in cui interagiamo con la tecnologia nella vita quotidiana.

Screenshare: una nuova forma di interazione visiva con Gemini

Una delle novità più interessanti presentate da Google è la funzione Screenshare, che consente agli utenti di condividere in tempo reale ciò che vedono sulle proprie schermate con l’assistente di intelligenza artificiale Gemini. Questa funzionalità offre un’interazione più fluida e visiva, consentendo agli utenti di porre domande in merito a ciò che stanno osservando in quel momento.

Immagina di stare navigando su un sito di e-commerce alla ricerca di un paio di jeans larghi. Grazie a Screenshare, puoi mostrare a Gemini la pagina del prodotto e chiedergli, per esempio, quali capi si abbinerebbero meglio a quei jeans. L’assistente analizzerà l’immagine e ti fornirà suggerimenti di moda basati sulle tendenze attuali.

Questa funzione non si limita solo agli acquisti, ma può essere utilizzata anche in altre situazioni quotidiane, come comprendere meglio le informazioni presenti in un grafico, ricevere aiuto per compilare un modulo online o persino tradurre un testo che appare su un’immagine in un’altra lingua.

Screenshare amplia le possibilità di interazione con l’IA, permettendo agli utenti di ottenere risposte rapide e precise in base a ciò che stanno visualizzando in tempo reale.

Búsqueda con video: risolvere dubbi in tempo reale mentre si registra un video

Un’altra funzionalità interessante è la ricerca con video in tempo reale, che permette agli utenti di fare domande direttamente mentre stanno registrando un video. Questa funzione, già annunciata durante il Google I/O 2024, è ora pronta per essere utilizzata in modo pratico.

Per esempio, supponiamo che tu stia registrando un video di una ricetta e ti venga un dubbio su un ingrediente o su un passaggio della preparazione. Ora, puoi semplicemente chiedere a Gemini mentre continui a registrare, e l’assistente risponderà in base alle informazioni presenti nel video. Questa funzionalità apre una vasta gamma di applicazioni: daiuto agli studenti per comprendere concetti durante le lezioni online, fino a fornire spiegazioni su come riparare un dispositivo mentre si registra il processo.

Disponibilità e accesso: chi potrà utilizzare queste nuove funzioni?

Le funzioni di Screenshare e di ricerca video in tempo reale saranno inizialmente disponibili per gli utenti di Gemini Advanced, che fanno parte del Google One AI Premium Plan su dispositivi Android. Si prevede che l’implementazione inizi entro la fine del mese, con un’estensione progressiva a più utenti e dispositivi nei prossimi mesi.

Per molti utenti, queste nuove versioni di Gemini rappresentano un importante passo verso un’interazione più personalizzata e adatta alle esigenze quotidiane. Senza dubbio, queste innovazioni confermano la posizione di Google nel campo dello sviluppo di tecnologie di intelligenza artificiale sempre più intuitive e accessibili.

Cosa riserva il futuro per Gemini? L’intelligenza artificiale multimodale

Con queste migliorie, Google ci invita a riflettere sul futuro di Gemini e su cosa possiamo aspettarci dall’intelligenza artificiale nei prossimi anni. L’ascesa dell’IA multimodale fa prevedere che le future versioni di Gemini integreranno in modo sempre più fluido diversi tipi di informazioni, come testo, immagini, audio e video, in un unico flusso interattivo.

Inoltre, è probabile che vedremo un’integrazione più profonda di Gemini con altri servizi di Google, come Google Lens, Google Search e Google Assistant, ampliando ulteriormente le possibilità di utilizzo dell’intelligenza artificiale nella vita quotidiana. Questi sviluppi potrebbero cambiare radicalmente il modo in cui le persone interagiscono con la tecnologia, facendo in modo che gli assistenti digitali diventino sempre più intuitivi, personali e adattati al contesto.

In sintesi, l’evoluzione di Gemini con queste nuove funzionalità rappresenta un passo fondamentale verso un’intelligenza artificiale più avanzata e accessibile. Google continua a guidare l’innovazione in questo settore, tracciando la via verso un futuro in cui l’interazione con la tecnologia sarà sempre più fluida, naturale e utile.