Siamo ciechi di fronte al fatto che i sistemi di IA stanno attualmente causando danni alle persone a causa delle maggiori preoccupazioni per i possibili rischi esistenziali del futuro

Il rischio che l’intelligenza artificiale può rappresentare è stato anche definito come “rischio x”. Come riportato qui, i sistemi di IA di per sé non costituiscono un problema in quanto agenti superintelligenti, anche se la ricerca sostiene l’idea che non dovrebbero essere inclusi nei sistemi di armamento a causa dei loro rischi.

Già le auto a guida autonoma con sistemi di tracciamento dei pedoni malfunzionanti, i robot della polizia e i sistemi di IA che identificano erroneamente le persone come sospette nei crimini potrebbero mettere in pericolo la vostra vita. Purtroppo, i sistemi di IA possono avere effetti disastrosi sulla vita delle persone senza bisogno di essere superintelligenti. Poiché sono reali, i sistemi di IA che hanno già dimostrato di causare danni sono più pericolosi di ipotetici sistemi di IA “senzienti”.

In un nuovo libro, la pioniera della ricerca e dell’attivismo in materia di IA Joy Buolamwini racconta le sue esperienze e le sue preoccupazioni riguardo agli attuali sistemi di IA.

Dire che i problemi potenziali dell’IA sono più significativi dei danni attuali ha lo svantaggio di distogliere i finanziamenti e l’attenzione legislativa da altre questioni urgenti. Le aziende che affermano di temere la minaccia esistenziale rappresentata dall’IA possono dimostrare la loro sincera preoccupazione per la salvaguardia dell’umanità frenando il rilascio dei prodotti di IA che ritengono pericolosi.

La Campagna per fermare i robot assassini sostiene da tempo la necessità di prendere precauzioni contro i sistemi autonomi letali e la disumanizzazione digitale. I governi che sono preoccupati per l’uso letale dei sistemi di IA possono attuare queste misure. La campagna discute le applicazioni dell’IA che potrebbero essere letali senza trarre la drammatica conclusione che le macchine senzienti finiranno per spazzare via l’umanità.

È comune pensare alla violenza fisica come al peggior tipo di violenza, ma questa prospettiva rende più facile trascurare i modi dannosi in cui la violenza strutturale è mantenuta nelle nostre culture. Questa espressione è stata creata dal sociologo norvegese Johan Galtung per spiegare come le strutture e le organizzazioni sociali danneggiano le persone impedendo loro di soddisfare i propri bisogni fondamentali. L’intelligenza artificiale usata per negare alle persone l’accesso al lavoro, alla casa e all’assistenza sanitaria prolunga il dolore personale e lascia ferite generazionali. Possiamo essere lentamente uccisi dai sistemi di intelligenza artificiale.

La preoccupazione riguarda i problemi attuali e le vulnerabilità emergenti dell’IA e la possibilità di affrontarli in modo da contribuire a creare un futuro in cui gli oneri dell’IA non ricadano in modo sproporzionato sulle persone vulnerabili ed emarginate, alla luce di quanto rivelato dalla ricerca “Gender Shades” sui pregiudizi algoritmici di alcune delle più importanti aziende tecnologiche del mondo. È urgente risolvere il problema dei sistemi di IA con scarsa intelligenza che causano diagnosi errate o arresti sbagliati.

Le persone che sono già state danneggiate e quelle che potrebbero essere colpite dai sistemi di IA sono casi che possono essere considerati rischi x (x-risk), in cui le persone colpite possiamo considerarle col termine excoded. Quando un ospedale impiega l’IA per il triage e omette di fornirvi assistenza medica, o quando applica un algoritmo clinico che vi nega l’accesso a un trapianto di organi salvavita, potreste essere considerati excoded. Se una richiesta di prestito viene rifiutata da un sistema decisionale algoritmico, potreste definirvi excoded.

Quando il vostro curriculum viene automaticamente filtrato e non vi viene data la possibilità di candidarvi per i posti di lavoro che i sistemi di intelligenza artificiale non hanno ancora sostituito, potreste considerarvi degli excoded. Ugualmente, quando un algoritmo di selezione degli inquilini rifiuta di concedervi la residenza. Questi sono tutti esempi reali. Tutti hanno la probabilità di essere esclusi, e coloro che sono già svantaggiati sono più vulnerabili.

Per questo motivo, la ricerca non può limitarsi ai ricercatori di IA, agli addetti ai lavori o agli influencer con buone intenzioni.

Non è sufficiente raggiungere gli accademici e gli addetti ai lavori. Dobbiamo assicurarci che la battaglia per la giustizia algoritmica includa anche le persone normali che potrebbero essere danneggiate dall’IA.

Come già avevamo sottolineato in precedenza, la pericolosità dell’IA non va solo vista nel futuro prossimo, ma già oggi laddove sistemi ben più semplici, ma pur sempre automatizzati stanno sostituendo le decisioni umane semplificandole a tal punto da renderle ingiuste. I casi più eclatanti sono i ban sulle piattaforme come i social media dove ormai la maggior parte delle persone le usa per lavorare e in molti casi rappresentano la base del loro impiego. Non essendoci una regolamentazione adeguata, quando si viene bannati (molto spesso ingiustamente), non si ha quasi mai possibilità di rivendicare il proprio diritto di tutela, soprattutto laddove si ha un’attività alle spalle basata su tali sistemi. C’è quindi un’ignoranza del sistema (voluta o non) che ci riporta indietro verso una giustizia a senso unico. Se tutto ciò viene ignorato, è facile finire vittima di un sistema che ti esclude ingiustamente in questo e in mille altri casi senza possibilità di appellarsi, il che rende un semplice algoritmo molto più pericoloso di un’IA superintelligente.

Unmasking AI: My mission to protect what is human in a world of machines, di Joy Buolamwini, è disponibile per l’acquisto qui