La tecnologia più avanzata del momento potrebbe diventare il più grande incubo

L’intelligenza artificiale sta avanzando ormai in ogni campo: dall’analisi dei dati sulla lotta al terrorismo, alla ricerca medica, alle missioni spaziali, ma anche in dispositivi come cellulari o nelle applicazioni.

Il problema è però che una tecnologia così avanzata e in costante evoluzione, potrebbe divenire un’arma pericolosa se usata in modo errato.

Alcune situazioni hanno iniziato a far riflettere:

INCIDENTI

Il ciclista ucciso negli USA da un’auto senza conducente, ha riaperto il dibattito sui sistemi di guida automatica. Non è sempre facile per un software riconoscere tutte le casistiche, è quindi facile capitare in situazioni che vengano interpretate in modo errato, come ad esempio una persona che venga vista come un oggetto innocuo piuttosto che un ostacolo.

BOT

Dopo lo scandalo di Cambridge Analytica, si è evidenziato come i social possano influenzare la coscienza politica delle persone, dando importanza a certe notizie piuttosto che altre attraverso i bot. Mark Zuckerberg ha sostenuto che implementerà un sistema di AI in grado di bloccare sul nascere le fake news, anche in formato video.

Ciò apre però nuovamente il dilemma sulla ragionevolezza della censura.

PACE

Google avrebbe messo le sue tecnologie a disposizione del Pentagono, in particolare con il cosiddetto Project Maven, un progetto con la quale sarebbe possibile classificare e riconoscere immagini catturate dai droni. Alcuni ricercatori della stessa Google avrebbero sollevato il dubbio che tali informazioni potessero essere utilizzate per fornire indicazioni a droni killer. Google ha poi redatto un codice etico per l’Intelligenza Artificiale nel quale si impegna a realizzare un AI che non possano arrecare danno all’uomo, un po’ come teorizzato da Asimov con le leggi delle robotica.

Ciononostante, il Pentagono potrebbe comunque continuare la ricerca nel campo di armi basate su AI.

IL GRANDE FRATELLO

In Cina si sta sviluppando il più grande sistema di sorveglianza al mondo. Centinaia di migliaia di telecamere in ogni luogo del paese e un sistema di riconoscimento facciale, sarebbero in grado di identificare e così seguire praticamente chiunque: non solo malviventi, ma anche normali cittadini. Il passo successivo sarà un riconoscimento facciale in grado di identificare anche le emozioni.

Dovremo quindi temere sempre di più di essere noi stessi?

FAKE NEWS VIDEO

Oltre alle fake news, potrebbero arrivare anche i fake video. Non sarebbero video realizzati da utenti, ma bensì da un’AI in grado di riprodurre video fake in modo da renderli indistinguibili da quelli veri.

La DARPA (l’agenzia del governo americano che si occupa di tecnologie militari), sta lavorando ad un’AI in grado di riconoscere i fake video realizzati da altre AI.

Si aprirà quindi una battaglia tra AI buone e cattive?

PREGIUDIZIO

È stato dimostrato che sistemi non correttamente programmati potrebbero diventare razzisti o misogini poiché rispecchiano le convinzioni di chi li ha creati. Oppure nel caso di sistemi AI per selezione del personale, potrebbero selezionare utilizzando dati vecchi, continuando ad esempio a discriminare operando scelte basate su parametri obsoleti.

L’affidarsi troppo all’AI senza considerare il buon senso potrà certamente portare a disumanizzare le nostre logiche perché troppo fedeli alle analisi di un’AI.

Fonte Focus