L'intelligenza artificiale per sviluppare armi: Google aggiorna le sue linee guida

L'obiettivo è quello di collaborare con i governi democratici "per la sicurezza nazionale". Fino a oggi, il gigante di Mountain View aveva promesso di non utilizzare mai l'AI per fini "che potrebbero nuocere"

Feb 5, 2025 - 15:06
 0
L'intelligenza artificiale per sviluppare armi: Google aggiorna le sue linee guida

Roma, 5 febbraio 2025 - E se l'intelligenza artificiale fosse utilizzata per sviluppare armi o strumenti di sorveglianza? Almeno sulla carta, Google non lo esclude più. Alphabet, la holding controllata dal gigante della search, ha infatti cambiato le sue linee guida, abbandonando la promessa di non utilizzare l'AI per fini "che potrebbero nuocere".

Come riporta Bbc News, questo grande cambiamento etico è stato annunciato su un blog dal vicepresidente di Google James Manyika e dal direttore del laboratorio AI 'DeepMind', Demis Hassabis. I due sostengono che l'intelligenza artificiale debba lavorare insieme ai governi democratici per "supportare la sicurezza nazionale". "Riteniamo che le democrazie dovrebbero guidare lo sviluppo dell’intelligenza artificiale, guidate da valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani - si legge nel post - E crediamo che aziende, governi e organizzazioni che condividono questi valori dovrebbero lavorare insieme per creare un’intelligenza artificiale che protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale". Un passo indietro rispetto alla decisione del 2018 del colosso di Mountain View di sospendere la collaborazione con il Pentagono, che aveva causato sdegno, petizioni e dimissioni da parte di molti dipendenti. Google temeva che il progetto 'Maven' del governo statunitense fosse il primo passo per utilizzare l'AI per la creazione di armi. Sembra che ora questa preoccupazione sia venuta meno.

Rivoluzioni etiche di questo tipo non sono una novità per Google: se alla sua nascita il motto dei fondatori Sergei Brin e Larry Page era "Non essere cattivo", nel 2015, con la nascita di Alphabet, è stato tramutato in "Fai la cosa giusta". Per quanto riguarda le direttive recentemente emesse, Manyika e Hassabis hanno spiegato che la loro revisione era necessaria per andare di pari passo con l'evoluzione dell'AI, che è profondamente diversa oggi rispetto ad appena qualche anno fa.

L'annuncio è stato dato a pochi giorni dalla pubblicazione del report finanziario di Alphabet, che ha registrato entrate inferiori a quanto ci si aspettasse.

I timori etici relativi all'utilizzo dell'intelligenza artificiale sono al centro del dibattito sin dall'inizio del suo sviluppo. In particolare, molti esperti hanno espresso preoccupazioni in quanto sono i guadagni commerciali a dirigere la sua direzione, a discapito di regole comuni sul tema che mancano ancora. Il loro obiettivo è quello di difendere l'umanità dai rischi che un abuso dell'AI potrebbe comportare.