AI generativa: Google spiega come viene sfruttata dai malintenzionati
AI generativa e cybercriminali: Google spiega come i malintenzionati hanno cercato (senza successo) di manipolare Gemini.
![AI generativa: Google spiega come viene sfruttata dai malintenzionati](https://cdn.ilsoftware.it/gprOaWtQ1A76DjMEQwIsjzJcjFk=/2160x1350/filters:format(webp)/https://www.ilsoftware.it/app/uploads/2023/07/Progetto-senza-titolo-19-1.jpg)
Già con la nascita dei primi modelli AI e il loro lancio sul mercato, cybercriminali e malintenzionati di qualunque tipo hanno cercato di sfruttare questi strumenti a loro vantaggio. Chi lavora nell’AI generativa, in tutta risposta, ha gradualmente implementato nuove forme di difesa, per evitare eventuali abusi.
In questo contesto, Google ha a lungo osservato i comportamenti poco leciti di alcuni utenti su Gemini, andando poi a ricostruire i tentativi di abuso rispetto alla propria AI generativa.
Il Threat Intelligence Group della compagnia ha appena pubblicato un rapporto, individuando due tipi principali di attacchi: quelli che usano l’AI come “supporto”, come la generazione di codice per creare malware o simili, e quelli che cercano direttamente di far eseguire all’AI azioni indesiderate, come la raccolta impropria di dati.
Quando parliamo di malintenzionati, ci riferiamo a due categorie di soggetti. I primi fanno parte della famigerata categoria degli Advanced Persistent Threats (APT), grandi gruppi di hacker spesso legati a stati e governi. I secondi rientrano nel contesto Information Operations (IO), che riguardano di più attività illecite legate ai social media.
Abusi dell’AI generativa: Gemini chiude la strada ai cybercriminali, ma il rischio di intromissione resta
Nel documento stilato da Google, vi è una buona notizia: Gemini, nonostante i tentativi, sembra aver respinto i cybercriminali. Nonostante i tentativi di jailbreak, il modello AI sembra aver retto, risultando uno strumento pressoché inutile per il crimine informatico.
Nonostante ciò, alcuni soggetti poco raccomandabili si sono comunque affidati a Gemini per effettuare ricerche. Secondo l’azienda di Mountain View, i gruppi APT di almeno quattro paesi (Cina, Iran, Corea del Nord e Russia) avrebbero utilizzato l’AI generativa per cercare informazioni rispetto obiettivi militari e di intelligence.
Nonostante l’infrastruttura di Gemini abbia retto ai tentativi di abuso, i rischi legati a questa tecnologia restano concreti. I modelli AI in circolazione al momento sono molti e, rispetto a Google, non è detto che tutte le compagnie forniscano adeguate protezioni contro i criminali informatici.