OpenAI nomina l’ex capo dell’NSA, sollevando preoccupazioni sulla sorveglianza

“Siete stati avvertiti”

La società che ha creato ChatGPT, OpenAI, ha rivelato di aver aggiunto al suo consiglio di amministrazione il generale dell’esercito statunitense in pensione ed ex direttore della NSA Paul Nakasone. Nakasone ha supervisionato la sezione Cyber Command dell’esercito, che si occupa di sicurezza informatica.

“L’esperienza impareggiabile del generale Nakasone in settori come la cybersicurezza”, ha dichiarato il presidente del consiglio di amministrazione di OpenAI Bret Taylor in un comunicato, “aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità”.

Come riportato qui, la nuova posizione di Nakasone presso l’azienda di intelligenza artificiale, dove siederà anche nel comitato per la sicurezza di OpenAI, non è stata ben accolta da molti. Da tempo legate alla sorveglianza dei cittadini statunitensi, le tecnologie integrate nell’IA stanno già ravvivando e intensificando le preoccupazioni sulla sorveglianza. Alla luce di ciò, non dovrebbe sorprendere che uno dei più forti oppositori alla nomina di OpenAI sia Edward Snowden, ex dipendente della NSA e noto informatore.

“Hanno tolto la maschera: non fidatevi mai di OpenAI o dei suoi prodotti”, ha scritto Snowden in un post di venerdì su X-formerly-Twitter, aggiungendo che “c’è solo una ragione per nominare” un direttore dell’NSA “nel vostro consiglio di amministrazione”.

“Questo è un tradimento intenzionale e calcolato dei diritti di ogni persona sulla terra”, ha continuato. “Siete stati avvertiti”.

Preoccupazioni per la trasparenza

Snowden non è stato certo il primo noto esperto di sicurezza informatica a esprimere disapprovazione per l’annuncio di OpenAI.

“Penso che la più grande applicazione dell’IA sarà la sorveglianza di massa della popolazione”, ha twittato Matthew Green, professore di crittografia della Johns Hopkins University, “quindi l’ingresso dell’ex capo dell’NSA in OpenAI ha una logica solida”.

L’arrivo di Nakasone segue una serie di partenze di alto profilo da OpenAI, tra cui importanti ricercatori sulla sicurezza, nonché il completo scioglimento del team di sicurezza “Superalignment“, ormai defunto. Il Comitato per la sicurezza, reincarnazione di quel team, è attualmente guidato dall’amministratore delegato Sam Altman, che nelle ultime settimane è stato criticato per aver utilizzato tattiche commerciali che includevano il silenziamento di ex dipendenti. È inoltre importante notare che OpenAI è stata spesso oggetto di critiche per la mancanza di trasparenza sui dati utilizzati per addestrare i suoi diversi modelli di intelligenza artificiale.

Tuttavia, secondo Axios, molti a Capitol Hill hanno visto la garanzia di OpenAI di Nakasone come un trionfo della sicurezza. La “dedizione di OpenAI alla sua missione si allinea strettamente con i miei valori e la mia esperienza nel servizio pubblico”, secondo una dichiarazione rilasciata da Nakasone.

“Non vedo l’ora di contribuire agli sviluppi di OpenAI”, ha aggiunto, “per garantire che l’intelligenza artificiale generale sia sicura e vantaggiosa per le persone in tutto il mondo”.

Le reazioni dei sostenitori della privacy come Edward Snowden e degli esperti di sicurezza informatica sono giustificate. I loro avvertimenti sul potenziale di armamento dell’IA per la sorveglianza di massa sotto la guida di Nakasone non possono essere ignorati con leggerezza.

Mentre le capacità dell’intelligenza artificiale continuano a progredire a passo di carica, un impegno costante per i diritti umani, le libertà civili e i valori democratici deve guidare lo sviluppo di queste tecnologie.

Il futuro dell’IA e a maggior ragione dell’AGI, rischia di creare scenari pericolosi non solo dati dall’imprevedibilità di uno strumento tanto potente, ma anche dai fini dei suoi utilizzatori, che potrebbero facilmente operare per fini poco leciti, ed essere anche i pochi a poterlo utilizzare. Inoltre, il rischio dell’ingerenza dei governi per appropriarsi di tale strumento per fini poco etici non è da escludere. E le recenti vicende fanno salire i sospetti.

>>>  Figure 02, la seconda generazione di robot umanoidi