Meta avverte: i futuri modelli di AI potrebbero avere conseguenze catastrofiche

Meta avverte: i futuri modelli di AI potrebbero avere conseguenze catastrofiche Un documento interno di Meta, intitolato Frontier AI Framework, esprime preoccupazioni riguardo a possibili scenari catastrofici legati allo sviluppo di nuovi modelli di intelligenza artificiale. L’azienda ammette che alcuni sistemi potrebbero rappresentare un rischio critico, con conseguenze catastrofiche e potenzialmente irreversibili per l’umanità. Secondo quanto riportato da TechCrunch, Meta ha individuato due categorie di Ai [...]

Feb 5, 2025 - 04:49
 0
Meta avverte: i futuri modelli di AI potrebbero avere conseguenze catastrofiche

Meta avverte: i futuri modelli di AI potrebbero avere conseguenze catastrofiche

Un documento interno di Meta, intitolato Frontier AI Framework, esprime preoccupazioni riguardo a possibili scenari catastrofici legati allo sviluppo di nuovi modelli di intelligenza artificiale. L’azienda ammette che alcuni sistemi potrebbero rappresentare un rischio critico, con conseguenze catastrofiche e potenzialmente irreversibili per l’umanità.

Secondo quanto riportato da TechCrunch, Meta ha individuato due categorie di Ai considerate troppo pericolose per essere rilasciate: sistemi ad alto rischio e sistemi a rischio critico.

Entrambe le categorie potrebbero essere utilizzate per attacchi informatici o la creazione di armi chimiche e biologiche, ma le critical risk potrebbero causare danni non mitigabili nel contesto in cui verrebbero implementate.

L’azienda cita alcuni esempi concreti di scenari temuti, tra cui:

  • La violazione automatizzata di reti informatiche protette senza intervento umano;
  • La scoperta e lo sfruttamento autonomo di vulnerabilità zero-day.
  • Truffe automatizzate su larga scala contro individui e aziende;
  • La creazione e la diffusione di armi biologiche ad alto impatto.

Meta assicura che, nel caso in cui un modello venga identificato come un rischio critico, il lavoro su di esso verrà immediatamente interrotto e si cercherà di impedirne il rilascio. Tuttavia, il documento ammette che le misure di sicurezza potrebbero non essere sufficienti per evitare che tali tecnologie possano sfuggire al controllo:

“L’accesso è strettamente limitato a un piccolo numero di esperti, con protezioni di sicurezza per prevenire hacking o esfiltrazione, nella misura in cui ciò sia tecnicamente fattibile e commercialmente praticabile”.