L’Intelligenza Artificiale genera gemelli digitali cattivi, un’altra minaccia alla nostra sicurezza sul web?
Potrebbero essere in arrivo i nostri “gemelli digitali cattivi”, ovvero nostre “copie informatiche” generate dall’Intelligenza Artificiale in grado di incrementare le truffe, che diventeranno sempre più difficili da scovare. L’allarme arriva da Trend Micro, azienda di sicurezza informatica. Dato che l’Intelligenza Artificiale Generativa si fa sempre più strada nelle aziende e nelle società che servono,...
Potrebbero essere in arrivo i nostri “gemelli digitali cattivi”, ovvero nostre “copie informatiche” generate dall’Intelligenza Artificiale in grado di incrementare le truffe, che diventeranno sempre più difficili da scovare. L’allarme arriva da Trend Micro, azienda di sicurezza informatica.
Dato che l’Intelligenza Artificiale Generativa si fa sempre più strada nelle aziende e nelle società che servono, dobbiamo essere attenti alle minacce – spiega Jon Clay, VP di Threat Intelligence presso Trend Micro – Gli attacchi iper-personalizzati richiederanno uno sforzo a livello di settore per sradicarli e affrontarli. I leader aziendali dovrebbero ricordare che oggi non esiste un rischio informatico autonomo. Ogni rischio per la sicurezza è in ultima analisi un rischio aziendale, con il potenziale di avere un impatto profondo sulla strategia futura
Proprio pochi giorni fa il Garante per la Privacy ha bloccato per gli utenti italiani DeepSeek, software di intelligenza artificiale relazionale sviluppato da due società cinesi, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, al fine di proteggere i dati sensibili visto il grado di sicurezza in merito, giudicato insufficiente.
Leggi anche: Intelligenza Artificiale: perché il Garante per la Privacy ha bloccato DeepSeek per gli utenti italiani
Ora, secondo l’azienda, la minaccia è ben più grave, perché intenzionale: i “gemelli digitali cattivi”, che violano o fanno trapelare informazioni personali, utilizzano poi tali dati per addestrare un Large Language Model (LLM), ovvero una tecnologia IA avanzata incentrata sulla comprensione e sull’analisi del testo, in modo da imitare conoscenza, personalità e stile di scrittura di una vittima.
Questi, se utilizzati in combinazione con video/audio deepfake e dati biometrici compromessi, potrebbero essere utilizzati per portare a compimento la frode di identità o per “intrappolare” un amico, un collega o un familiare.
Deepfake e IA potrebbero quindi essere sfruttati in attacchi iperpersonalizzati su larga scala per migliorare le truffe di compromissione aziendale (BEC/BPC) e finti dipendenti, attirare e corteggiare vittime prima di consegnarle a un operatore umano, che può chattare tramite un filtro di personalità di un LLM, ma anche per raccogliere informazioni open source in modo più efficace.
Lo sviluppo delle capacità nella preparazione pre-attacco migliorerà il successo dell’attacco – spiegal’azienda – Crea personaggi dei social media apparentemente autentici su larga scala per diffondere informazioni errate/disinformazioni e truffe
In risposta a queste crescenti minacce, Trend Micro raccomanda di implementare un approccio basato sul rischio alla sicurezza informatica, consentendo l’identificazione centralizzata di asset diversi e un’efficace valutazione/prioritizzazione/mitigazione del rischio.
Un quadro preoccupante quanto atteso – commenta all’ANSA, Pierluigi Paganini, Ceo di Cyberhorus e professore di Cybersecurity presso l’Università Luiss Guido Carli – Nell’underground criminale spopolano già piattaforme in grado di creare deepfake ed e-mail di phishing capaci ingannare la maggior parte degli utenti online. Preoccupa anche l’integrazione di questa nuova tecnologia nelle aziende
L’Intelligenza Artificiale è progresso, ma la nuova prospettiva dimostra, ancora una volta, quanto sia cruciale bilanciare innovazione e tutela dei dati.
L’IA sostituirà in molti processi l’essere umano e monitorarne l’operato potrebbe essere tutt’altro che semplice introducendo nuovi rischi di sicurezza – continua Paganini – Troppe aziende ed organizzazioni sono oggi impreparate a fronteggiare queste minacce emergenti: è fondamentale adottare strategie di difesa più avanzate, come l’approccio basato sul rischio, il rafforzamento della sicurezza degli LLM e la formazione continua degli utenti
E, paradossalmente, proprio la stessa Intelligenza Artificiale, che ha già dimostrato di poter essere di grande aiuto in molteplici situazioni, potrebbe essere di grande aiuto.
Leggi anche: L’Intelligenza Artificiale può davvero combattere la disinformazione?
In questo l’IA potrebbe darci una grossa mano, molteplici sono le sue applicazioni per finalità di difesa
Non vuoi perdere le nostre notizie?
- Iscriviti ai nostri canali Whatsapp e Telegram
- Siamo anche su Google News, attiva la stella per inserirci tra le fonti preferite
Fonti: Trend Micro / Ansa
Leggi anche: