L’intelligenza artificiale e i suoi lati negativi

L’intelligenza artificiale sta cambiando il modo in cui svolgiamo alcune attività e in cui possiamo accedere alle informazioni. Tuttavia, ci sono alcuni modi inquietanti in cui l’IA può essere usata per generare danni. Ecco 5 esempi.

1. SORVEGLIANZA ONNIPRESENTE

Secondo questo articolo, Tristan Harris e Aza Raskin, esperti/tecnici del Center for Humane Technology, sostengono che ogni possibilità che avevamo come specie di leggere 1984 come un avvertimento piuttosto che come una linea guida è probabilmente svanita.

I due hanno discusso di come abbiamo fondamentalmente frainteso i vincoli dei modelli linguistici di grandi dimensioni (LLM) con cui oggi lavoriamo attraverso applicazioni come Google Bard o ChatGPT. Quando diciamo “linguaggio”, di solito intendiamo “linguaggio umano”, ma per un computer tutto è un linguaggio. Questo ha permesso ai ricercatori di addestrare un’intelligenza artificiale su immagini di scansioni cerebrali e di osservare come l’intelligenza artificiale inizi a decifrare approssimativamente i pensieri che passano per la nostra mente.

Un altro esempio è stato l’impiego di un’intelligenza artificiale da parte degli accademici per tracciare i segnali radio che ci circondano. L’IA è stata istruita utilizzando due telecamere allineate stereoscopicamente, una delle quali monitorava una stanza con delle persone e l’altra i segnali radio all’interno. La seconda telecamera è stata in grado di ricostruire fedelmente gli eventi in diretta nella stanza dopo che la telecamera standard è stata tolta dai ricercatori. Questo è stato possibile solo esaminando i segnali radio.

L’intelligenza artificiale ha reso possibile hackerare la vita quotidiana. Tutto ciò suggerisce che in futuro la privacy non sarà più un’opzione. Forse nemmeno all’interno dei propri pensieri.

2. SISTEMI AUTONOMI DI ARMAMENTI LETALI

In passato, il combattimento consisteva nel colpire i nemici brandendo una spada e un’ardesia d’acciaio. L’uso della spada è ancora presente, ma ora si tratta di tablet Android che vengono montati su un controller wireless Xbox di fattura scadente e utilizzati per dirigere missili tomahawk contro le case della gente da una distanza di 5.000 miglia. Di fatto, la cavalleria si è estinta.

Naturalmente, anche se le forze armate di tutto il mondo hanno fatto ogni sforzo per trasformare i combattimenti reali in una sorta di simulatore alla Call of Duty, per alcuni non è ancora abbastanza.

Ora, invece, ci affidiamo alle macchine per gestire il lavoro sporco. I micidiali sistemi di armi autonome ci permettono di dissociarci completamente dall’uccisione reciproca per la conquista del petrolio e la terra. I droni a pilotaggio automatico, a bersaglio automatico e a ingaggio spietato vanno nelle zone di conflitto e massacrano senza pietà chiunque non sia della “nostra razza”.

Il settore che crea queste minacce a pilotaggio autonomo le definisce “munizioni vaganti”, e l’STM Kargu è probabilmente il più comune (anche se non c’è modo di saperlo con certezza). Ma tutti gli altri sembrano pensare che “droni suicidi” sia un appellativo migliore per loro. Armati di tecnologia di riconoscimento facciale, i droni vengono rilasciati in sciami dove danno liberamente la caccia agli obiettivi prima di bombardarli in picchiata e farsi esplodere in un tripudio di gloria che sfida la Convenzione di Ginevra.

3. RICATTO GENERATIVO

Le fotografie false non sono una novità. Per decenni, utenti esperti hanno ingannato gli altri con fotografie Photoshoppate di grande effetto. Ma improvvisamente ci troviamo in una situazione in cui per ottenere risultati ancora più elevati non è necessario alcun talento. Inoltre, oltre alle immagini, sono inclusi anche video, scritti e persino voci. Non è difficile immaginare qualcuno che in un prossimo futuro indosserà la vostra pelle digitale e vi causerà problemi di ogni tipo se guardiamo alla tecnologia alla base della funzione “Spatial Personas” di Vision Pro che crea un avatar fotorealistico di voi stessi.

Naturalmente, dal momento che è già in atto, non è poi così difficile da immaginare. Di recente, l’FBI è stata costretta ad allertare il pubblico sui rischi posti dalle nuove tecniche di estorsione rese possibili dai software di intelligenza artificiale, che offrono ai criminali la possibilità di produrre fotografie e video falsi, ingannevoli o compromessi delle vittime. Peggio ancora, i requisiti per entrare in questa operazione criminale sono così bassi che bastano alcune immagini pubbliche sui social media o pochi secondi di un video pubblico su YouTube.

I Deepfake online sono così comuni che alcune aziende hanno paura di rilasciare online strumenti appena sviluppati per timore di ciò che ne verrebbe fatto. Di recente, Meta, la società proprietaria di Facebook, ha seguito un percorso simile dopo aver introdotto VoiceBox, il più potente programma di generazione di IA text-to-speech creato finora. Meta ha deciso che la tecnologia era troppo immorale per essere utilizzata su larga scala, anche se era ben consapevole di quanto presto se ne sarebbe abusato.

I truffatori hanno già sviluppato metodi per farlo da soli, quindi non ha molta importanza. Oggi viviamo in una società di post-verità, dato che le telefonate false ad amici e familiari in cerca di denaro o informazioni personali sono in aumento. Non ci si può più fidare di tutto ciò che non si può vedere con i propri occhi o toccare con le proprie mani.

4. SPYWARE ARTIGIANALE

La minaccia rappresentata dai malware o spyware generati dall’intelligenza artificiale, sviluppati di recente, ha suscitato molte discussioni nella comunità della sicurezza. Gli analisti della sicurezza hanno difficoltà a dormire su questo problema, poiché molti di loro pensano che sia solo una questione di tempo prima che la nostra capacità di combattere i cyberattacchi sia praticamente inesistente.

Non ci sono ancora esempi documentati di malware o spyware prodotti dall’intelligenza artificiale, quindi siate pazienti. Juhani Hintikka, CEO di WithSecure, una società di analisi della sicurezza, ha fatto sapere che il suo team ha osservato diversi campioni di malware sviluppati gratuitamente da ChatGPT. Hintikka ha affermato che la capacità di ChatGPT di cambiare le proprie generazioni porterà a mutazioni e a un malware più “polimorfico”, rendendo ancora più difficile l’identificazione da parte dei difensori, come se questo non fosse già abbastanza preoccupante.

Tim West, direttore dell’intelligence sulle minacce di WithSecure, ha sottolineato il problema chiave: “ChatGPT supporterà l’ingegneria del software nel bene e nel male”. West aggiunge che il chatbot di OpenAI “abbassa la barriera d’ingresso per lo sviluppo di malware da parte dei soggetti che operano in questo campo”, riferendosi alla facilità di accesso per coloro che cercano di infliggere danni. Prima i soggetti che si occupano di minacce dovevano dedicare molto tempo alla creazione del codice dannoso che producevano. Ora, chiunque può teoricamente creare programmi dannosi utilizzando ChatGPT. Di conseguenza, il numero di soggetti che agiscono in modo pericoloso e di minacce create potrebbe aumentare in modo significativo.

Non ci vorrà molto prima che la diga si rompa e che l’IA distrugga la capacità umana di essere sicuri online. Anche se possiamo impiegare l’intelligenza artificiale per reagire, questo non farebbe che peggiorare la situazione, perché sono innumerevoli le minacce che ci arrivano da scenari come quello menzionato da WithSecure. Al momento non abbiamo altra scelta che aspettare l’assalto, che sembra comunque in arrivo.

5. POLIZIA PREDITTIVA

Nel tentativo di evitare che i crimini si verifichino in primo luogo, le forze dell’ordine di tutto il mondo stanno attualmente utilizzando algoritmi per cercare di anticipare i luoghi in cui è più probabile che si verifichino i crimini e per assicurarsi che la loro presenza sia percepita in questi luoghi per scoraggiare i potenziali colpevoli.

Ma il crimine può essere previsto? L’Università di Chicago è di questa opinione. Grazie all’impiego di modelli di tempo e luogo, ha creato un nuovo algoritmo che prevede i crimini. Secondo i rapporti, il programma ha un tasso di precisione del 90% nel prevedere i crimini fino a una settimana prima.

Chi non è d’accordo sul fatto che un minor numero di crimini sia positivo? Ma che dire degli individui di colore che sembrano essere costantemente individuati da questi algoritmi? Poiché un algoritmo è essenzialmente un metodo di calcolo, la qualità dei risultati che produce dipende interamente dai dati in ingresso.

La profilazione razziale di persone innocenti da parte della polizia e una maggiore presenza della polizia nei quartieri di colore sono tutti possibili risultati di una storia di razzismo della polizia in nazioni come gli Stati Uniti. Per sua stessa natura, una maggiore presenza della polizia comporta un tasso più elevato di polizia, che distorce ulteriormente i dati, aumenta il pregiudizio predittivo nei confronti di questi quartieri e porta a un aumento della presenza della polizia, che fa ripartire l’intero ciclo.

Quindi, il problema principale di questi nuovi modi di danneggiare e ingannare le persone non è solo la potenza dell’IA, ma anche il fatto che queste attività non richiedono molte conoscenze come in passato, pur essendo operazioni complicate. Pertanto, ci saranno molti altri che cercheranno di truffare o danneggiare le persone. Inoltre, i sistemi che cercano di prevenire i crimini potrebbero facilmente punire gli innocenti poiché gli algoritmi tendono a comportarsi in modo più statistico che ad analizzare caso per caso. Perciò abbiamo bisogno che ogni sistema automatico non escluda mai l’intervento umano al 100%, poiché la vita non è una statistica.