Hackers usam Google Gemini AI para melhorar ataques
Tal como as pessoas comuns vão descobrindo as vantagens de usar ferramentas AI para melhorar a sua produtividade, também os hackers estão a fazê-lo para melhorarem os seus ataques. A Google revelou que vários grupos de hackers estão a utilizar o Gemini para melhorar as suas operações. Embora estas APTs (Advanced Persistent Threats), principalmente do Irão e da China, não estejam a lançar ataques directos através do Gemini, estão a usá-lo para melhorar a eficiência das suas ferramentas e métodos de ataque, pesquisando vulnerabilidades e aperfeiçoando campanhas de phishing. O Grupo de Inteligência de Ameaças do Google (GTIG - Google's Threat Intelligence Group) detectou a utilização do Gemini com este objectivo, em mais de 20 países, com hackers a automatizar tarefas e a refinar estratégias de ataque. Os hackers iranianos são os utilizadores mais activos, recorrendo ao Gemini para investigações militares e de cibersegurança, campanhas de phishing e operações de influência. Os grupos chineses têm explorado a ferramenta para obter informações sobre entidades governamentais dos EUA, criar scripts para infiltração em redes, e análise de ferramentas de segurança. Já os hackers norte-coreanos, usaram o Gemini para criar candidaturas falsas para infiltrar trabalhadores remotos no Ocidente; enquanto os russos o utilizaram maioritariamente para assistência em programação e ofuscação de malware. O Google também observou tentativas falhadas de contornar as restrições de segurança do Gemini através de jailbreaks públicos - que diz não terem tido sucesso contra o seu assistente. A ameaça da cibercriminalidade assistida por AI não se limita ao Gemini. Também a OpenAI divulgou um relatório semelhante sobre o ChatGPT, confirmando o aumento da utilização destas ferramentas para fins ilícitos. Embora os modelos AI mais populares implementem medidas de segurança que visam evitar este tipo de uso, os hackers continuam a procurar formas de as contornar. Além disso, há cada vez mais modelos AI que contam com menos protecções, que podem ser facilmente manipulados para fins maliciosos. Infelizmente, isto é algo que desde logo seria previsível que viesse a acontecer. Seria ingénuo pensar que ferramentas que assistem programadores e utilizadores em tarefas legítimas não fossem abusadas para fins maliciosos - e que todas as medidas de protecção que forem implementadas sejam inevitavelmente ultrapassadas. A isto soma-se o número crescente de modelos AI com capacidades cada vez mais sofisticadas e que podem ser usados localmente em hardware modesto, permitindo um uso totalmente livre. A única solução é usar estas mesmas ferramentas AI para resolver e evitar vulnerabilidades que elas próprias possam ajudar a descobrir, inviabilizando que esses ataques possam ser efectuados.
A Google revelou que vários grupos de hackers estão a utilizar o Gemini para melhorar as suas operações. Embora estas APTs (Advanced Persistent Threats), principalmente do Irão e da China, não estejam a lançar ataques directos através do Gemini, estão a usá-lo para melhorar a eficiência das suas ferramentas e métodos de ataque, pesquisando vulnerabilidades e aperfeiçoando campanhas de phishing. O Grupo de Inteligência de Ameaças do Google (GTIG - Google's Threat Intelligence Group) detectou a utilização do Gemini com este objectivo, em mais de 20 países, com hackers a automatizar tarefas e a refinar estratégias de ataque.
Os hackers iranianos são os utilizadores mais activos, recorrendo ao Gemini para investigações militares e de cibersegurança, campanhas de phishing e operações de influência. Os grupos chineses têm explorado a ferramenta para obter informações sobre entidades governamentais dos EUA, criar scripts para infiltração em redes, e análise de ferramentas de segurança. Já os hackers norte-coreanos, usaram o Gemini para criar candidaturas falsas para infiltrar trabalhadores remotos no Ocidente; enquanto os russos o utilizaram maioritariamente para assistência em programação e ofuscação de malware. O Google também observou tentativas falhadas de contornar as restrições de segurança do Gemini através de jailbreaks públicos - que diz não terem tido sucesso contra o seu assistente.
A ameaça da cibercriminalidade assistida por AI não se limita ao Gemini. Também a OpenAI divulgou um relatório semelhante sobre o ChatGPT, confirmando o aumento da utilização destas ferramentas para fins ilícitos. Embora os modelos AI mais populares implementem medidas de segurança que visam evitar este tipo de uso, os hackers continuam a procurar formas de as contornar. Além disso, há cada vez mais modelos AI que contam com menos protecções, que podem ser facilmente manipulados para fins maliciosos.
Infelizmente, isto é algo que desde logo seria previsível que viesse a acontecer. Seria ingénuo pensar que ferramentas que assistem programadores e utilizadores em tarefas legítimas não fossem abusadas para fins maliciosos - e que todas as medidas de protecção que forem implementadas sejam inevitavelmente ultrapassadas. A isto soma-se o número crescente de modelos AI com capacidades cada vez mais sofisticadas e que podem ser usados localmente em hardware modesto, permitindo um uso totalmente livre. A única solução é usar estas mesmas ferramentas AI para resolver e evitar vulnerabilidades que elas próprias possam ajudar a descobrir, inviabilizando que esses ataques possam ser efectuados.