Dietrofront di Google sul divieto di impiego militare dell’intelligenza artificiale
Google rimuove l'impegno a non usare l'intelligenza artificiale per le armi dal proprio sito web. Era il 2018 quando il colosso di Mountain View aveva stabilito i suoi principi di intelligenza artificiale dopo essersi ritirato dal progetto governativo Maven per analizzare i video dei droni utilizzando l'Ia, sulla scia delle proteste dei dipendenti
Google rimuove l’impegno a non usare l’intelligenza artificiale per le armi dal proprio sito web. Era il 2018 quando il colosso di Mountain View aveva stabilito i suoi principi di intelligenza artificiale dopo essersi ritirato dal progetto governativo Maven per analizzare i video dei droni utilizzando l’Ia, sulla scia delle proteste dei dipendenti
Google ritira la promessa di non utilizzare l’intelligenza artificiale per scopi militari.
Il colosso tecnologico di Mountain View ha rimosso l’impegno ad astenersi dall’usare l’IA per applicazioni potenzialmente dannose, come armi e sorveglianza, secondo gli “AI Principles” aggiornati dell’azienda. A riportare per la prima volta il cambiamento è stato Bloomberg.
Una versione precedente dei principi dell’IA affermava che Google non avrebbe usato la sua tecnologia AI per armi o sorveglianza.
I principi aggiornati dell’azienda riflettono le crescenti ambizioni di Google di offrire la sua tecnologia e i suoi servizi di intelligenza artificiale a più utenti e clienti, tra cui i governi, osserva Cnbc. Il cambiamento è anche in linea con la crescente retorica dei leader della Silicon Valley su una gara di intelligenza artificiale in cui il vincitore prende tutto tra Stati Uniti e Cina, con il Cto di Palantir Shyam Sankar che ha affermato lunedì che “sarà uno sforzo di tutta la nazione che si estenderà ben oltre il Pentagono affinché noi come nazione vinciamo”. Non è un caso che lo scorso autunno il colosso social di Menlo Park ha cambiato la proprio politica per aprire il suo modello di intelligenza artificiale Llama al governo per “applicazioni di sicurezza nazionale”. Tra gli appaltatori governativi a cui Meta ha aperto Llama c’erano anche Aws, Anduril, Lockheed Martin, Microsoft e Palantir.
Big G ha pubblicato l’aggiornamento poco prima del rapporto finanziario di fine anno di Alphabet: la società madre di Google ha pubblicato un fatturato del quarto trimestre che ha deluso le aspettative degli analisti dopo il rallentamento della crescita del suo business cloud. Alphabet ha poi annunciato l’intenzione di investire 75 miliardi di dollari in spese capitali nel 2025 per espandere la propria presenza nell’intelligenza artificiale.
Tutti i dettagli.
IL PRECEDENTE IMPEGNO DI GOOGLE SULL’IMPIEGO MILITARE DELL’INTELLIGENZA ARTIFICIALE
Come già detto, una versione precedente dei principi AI di Google affermava che l’azienda non avrebbe perseguito “armi o altre tecnologie il cui scopo principale o implementazione è quello di causare o facilitare direttamente lesioni alle persone” e “tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando le norme accettate a livello internazionale”.
Sempre la versione precedente sosteneva che Google avrebbe “tenuto conto di un’ampia gamma di fattori sociali ed economici”.
PROJECT MAVEN, REMEMBER?
Google ha stabilito i suoi principi di intelligenza artificiale nel 2018 dopo il ritiro dal programma governativo chiamato Project Maven per applicare l’apprendimento automatico alle riprese di sorveglianza dei droni.
Nell’estate 2018 Google, uno dei primi partecipanti a Maven, ha dichiarato che avrebbe smesso di lavorare al progetto del Pentagono. Il colosso di Mountain View è stato costretto nella decisione dalle proteste dei dipendenti che pretendono Big G sia fuori dal war business. Nonostante il ritiro di Google, il Pentagono ha continuato a lavorare al progetto Maven sostenendo che il programma “migliora le prestazioni del team uomo-macchina fondendo intelligenza e operazioni attraverso AI/ML [artificial intelligence/machine learning] e tecnologia di realtà aumentata. Project Maven cerca di ridurre il tempo necessario per il processo decisionale a una frazione del tempo necessario senza AI/ML”.
Non solo, sempre Cnbc ha ricordato che nel 2018 Google aveva anche abbandonato la gara per un contratto cloud del Pentagono da 10 miliardi di dollari in parte perché “non poteva essere sicura” che si sarebbe allineata ai principi di intelligenza artificiale dell’azienda, aveva affermato la società all’epoca.
COSA SCRIVE ORA BIG G
Ma questi obiettivi non sono più visualizzati sul sito web AI Principles di Google.
I nuovi principi di intelligenza artificiale affermano che Google “procederà laddove riteniamo che i probabili benefici complessivi superino sostanzialmente i rischi e gli svantaggi prevedibili”. In un post sul blog, Google ha difeso il cambiamento, sostenendo che le aziende e i governi democratici devono collaborare su un’Ia che “supporti la sicurezza nazionale”.
“C’è una competizione globale in corso per la leadership dell’IA all’interno di un panorama geopolitico sempre più complesso”, si legge in un post del blog scritto da James Manyika, SVP, Research, Labs, Technology & Society insieme a Demis Hassabis, ceo di Google DeepMind. “Crediamo che le democrazie dovrebbero guidare lo sviluppo dell’intelligenza artificiale, guidate da valori fondamentali come libertà, uguaglianza e rispetto dei diritti umani”.
Nel post, si precisa che Google “rimarrà coerente con i principi ampiamente accettati del diritto internazionale e dei diritti umani, valutando sempre il lavoro specifico valutando attentamente se i benefici superano sostanzialmente i potenziali rischi”.
Tempi lontani quelli del “Don’t be evil”, il motto iniziale “Non essere malvagio”. In origine, molto prima dell’attuale ondata di interesse per l’etica dell’IA, osserva la Bbc, i fondatori di Google, Sergei Brin e Larry Page, hanno affermato che il loro motto per l’azienda era “non essere malvagio”. Dopodiché nel 2015, con la ristrutturazione di Alphabet, il motto si è evoluto in “Fai la cosa giusta”.