La nuova era degli strumenti di intelligenza artificiale ci mostra cosa è capace di fare la tecnologia nel 2023. Non parliamo solo di generatori di immagini come Midjourney, per esempio, o di chatbot come ChatGPT, ma cominciamo anche a intravedere un futuro nelle truffe online e le frodi sono un mix tra l’ingegno di hacker esperti e l’efficacia dell’intelligenza artificiale.
Nuovo strumento per il male online: WormGPT
Sotto questo curioso nome, che potrebbe tradursi come VermeGPT, troviamo un modulo di intelligenza artificiale che si basa su un ampio modello linguistico chiamato GPT-J, anch’esso open source.
Quest’ultimo dettaglio è essenziale per comprendere come un modello linguistico open source possa essere modificato da hacker malintenzionati per eliminare alcune restrizioni dei modelli convenzionali e poter così, ad esempio, creare virus e malware con l’approvazione di una tecnologia progettata per aiutare l’essere umano.
Gli attacchi di phishing sono stati uno dei primi utilizzi di questa IA criminale, anche se, date le sue molteplici capacità, tra cui spiccano il supporto per caratteri illimitati o la formattazione del codice, sembra che siamo solo alla soglia di ciò che potrebbe accadere.
Senza dubbio, i chatbot più moderni entusiasmano milioni di utenti in tutto il mondo per un motivo fondamentale: la facilità d’uso della loro interfaccia. In questo caso immaginate se esistesse uno strumento simile, ma con la capacità di provocare danni senza alcun tipo di limite. Questo è il vero pericolo di WormGPT.
Naturalmente, ci sono altri pericoli al di fuori di WormGPT, come la possibilità di corrompere ChatGPT stesso per eseguire azioni per le quali non dovrebbe essere preparato. E alcuni hacker utilizzano il chatbot OpenAI per estrarre informazioni sensibili, generare contenuti inappropriati o eseguire codice dannoso.
La difesa contro questo tipo di strumenti coinvolge gli esperti di sicurezza informatica che utilizzano modelli di intelligenza artificiale a proprio favore per rilevare e contrastare questo tipo di chatbot dannosi e criminali informatici che utilizzano l’intelligenza artificiale per i propri interessi. Inoltre, la prevenzione e l’individuazione di qualsiasi tipo di truffa online dovrebbe essere uno dei grandi aspetti da integrare nella formazione di qualsiasi tipologia di lavoratore.