Capire cosa è etico e come implementarlo in tal senso potrebbe richiedere metodi diversi

Capire cosa costituisce un comportamento etico è necessario per progettare macchine che ragionino e si comportino in modo moralmente corretto. Dopo molti millenni di indagini morali, c’è ancora un continuo disaccordo su come definire ciò che è moralmente giusto e sbagliato.

Le diverse teorie etiche offrono ragioni diverse su come definire un’attività etica e spesso ne contestano le conseguenze. È quindi necessario che questo problema abbia una soluzione ingegneristica per poter progettare un sistema etico artificiale adeguato.

Il processo computazionale di valutazione e selezione delle varie opzioni, attuato in modo da rispettare i vincoli sociali, etici e legali è definito processo decisionale etico. Per scegliere la migliore soluzione etica che permetta di raggiungere i propri obiettivi, è fondamentale riconoscere ed escludere le possibilità non etiche.

Azioni etiche

Dobbiamo innanzitutto capire se è possibile stabilire una descrizione computazionale formale dell’azione etica per decidere se possiamo creare sistemi etici. Dennett è un filosofo che ha scritto molto di filosofia morale ed etica. È famoso per il suo lavoro su diversi argomenti, tra cui: il libero arbitrio, il determinismo e la natura della consapevolezza. Egli elenca le seguenti tre condizioni per definire un’azione etica:

  • deve essere possibile scegliere tra diverse azioni;
  • deve esserci un accordo generale nella società sul fatto che almeno una delle opzioni sia socialmente vantaggiosa;
  • il sistema deve essere in grado di identificare l’azione socialmente vantaggiosa e decidere esplicitamente di intraprenderla in quanto si tratta della cosa etica da compiere.

In teoria, è possibile creare un sistema che soddisfi i requisiti sopra citati. Un esempio sarebbe il seguente: Per cominciare, assumiamo che un sistema etico sia sempre in grado di riconoscere l’intera gamma di opzioni a sua disposizione. Detto questo, è semplice creare un algoritmo in grado di scegliere un’azione da tale elenco. Poiché il nostro sistema ha a disposizione una serie di opzioni, la prima condizione viene soddisfatta.

Possiamo fornire al sistema informazioni su una serie di azioni, ad esempio etichettando ogni azione con un elenco di caratteristiche. Queste etichette possono essere utilizzate dal sistema, in questa situazione, per determinare l’azione migliore. Immaginiamo ora di poter assegnare ad ogni azione potenziale nella situazione data un “grado etico” (per esempio, un numero compreso tra 0 e 1, dove 1 è il più etico e 0 il meno). Il secondo criterio è soddisfatto. Il sistema può quindi utilizzare questa conoscenza per scegliere l’opzione più etica.
Il terzo criterio è soddisfatto da questo presupposto.

I diversi approcci

Esistono tre categorie principali di ragionamento etico:

  • Approcci top-down, che estrapolano scelte specifiche da regole generali;
  • Approcci bottom-up, che deducono principi generali da esempi specifici. L’obiettivo è fornire al sistema informazioni sufficienti su ciò che altre persone hanno fatto in circostanze analoghe, nonché i mezzi per integrare tali informazioni in qualcosa di etico;
  • Gli approcci ibridi sono invece utilizzati per favorire una reazione morale ponderata, ritenuta cruciale per prendere decisioni etiche; essi mescolano aspetti degli approcci bottom-up e top-down.

Top-down

Secondo una specifica teoria etica (o forse un insieme di teorie), un approccio top-down specifica ciò che il sistema dovrebbe fare in una determinata situazione. Questi modelli definiscono formalmente le regole, gli obblighi e i diritti che indirizzano le decisioni del sistema. Gli approcci top-down si basano spesso su architetture di credenza-desiderio-intenzione e sono un’estensione del lavoro sul ragionamento normativo.

Le diverse strategie top-down attingono da diverse teorie etiche. La soddisfazione di un particolare valore è utilizzata come base per la decisione nei modelli massimizzanti, che si conformano grosso modo alla visione utilitaristica del “meglio per i più”.

Le strategie top-down presuppongono che i sistemi di intelligenza artificiale siano in grado di considerare consapevolmente come le loro azioni possano influenzare la moralità degli altri. Questi sistemi dovrebbero aderire ai seguenti standard:

  • Essere linguaggi rappresentativi con una profondità sufficiente a collegare le azioni del sistema e la conoscenza del settore ai valori e norme stabiliti;
  • Mettere in atto i processi di pianificazione richiesti dal ragionamento pratico della teoria;
  • Capacità deliberative per determinare se lo scenario è effettivamente moralmente giusto.

Le strategie top-down impongono un approccio etico al sistema. Questi metodi partono dal presupposto implicito che l’etica e la legge siano equivalenti e che un insieme di regole sia sufficiente a fungere da guida per il comportamento etico. Tuttavia, non sono la stessa cosa. Di solito, la legge delinea ciò che ci è permesso fare e ciò che dobbiamo astenere dal fare. Mentre l’etica ci insegna a giocare una partita “buona” per tutti, la legge spiega solo le regole del gioco e non offre indicazioni su come vincere al meglio.

Inoltre, anche se una cosa è legale, potremmo trovarla inaccettabile. E anche se pensiamo che qualcosa sia giusto, potrebbe non essere permesso.

Bottom-up

Gli approcci bottom-up presumono che l’apprendimento del comportamento etico derivi dall’osservazione di come si comportano gli altri. Un robot moralmente competente, secondo Malle, dovrebbe includere un meccanismo che consenta “l’apprendimento e il miglioramento costanti”. Per Malle, affinché i robot sviluppino una competenza etica, devono acquisire moralità e norme nello stesso modo in cui lo fanno i bambini piccoli. In uno studio, Malle ha chiesto agli individui di valutare la loro moralità utilizzando il Moral Foundations Questionnaire, che valuta i principi etici del danno, dell’equità e dell’autorità. Queste informazioni sono state utilizzate per stimare l’accettabilità morale di un insieme di proposizioni.

Gli approcci bottom-up si basano sul principio fondamentale che ciò che è socialmente accettabile è anche eticamente accettabile. Tuttavia, è risaputo che a volte le posizioni accettate di fatto sono inaccettabili in base a standard indipendenti (morali ed epistemici) e ai fatti a disposizione.

Ibrido

Gli approcci top-down e bottom-up sono utilizzati negli approcci ibridi, nel tentativo di rendere il ragionamento etico dei sistemi di intelligenza artificiale accettabile sia dal punto di vista legale che sociale.

Invece di essere fondato su linee guida morali o principi di ottimizzazione, questo punto di vista si basa su euristiche sociali pragmatiche. Secondo questa prospettiva, sia la natura che l’educazione hanno un ruolo nello sviluppo del comportamento morale.

Per definizione, gli approcci ibridi possono beneficiare dei vantaggi degli approcci top-down e bottom-up, evitando i loro svantaggi. Di conseguenza, potrebbero fornire un percorso accettabile per il futuro.

Chi decide i valori?

I valori culturali e personali degli individui e delle società coinvolte devono essere presi in considerazione durante la progettazione di sistemi di IA. È particolarmente importante considerare e chiarire i seguenti elementi per valutare le decisioni prese alla luce di tali dati.

Folla: Il campione da cui vengono raccolti i dati è sufficientemente eterogeneo da riflettere la gamma e la diversità delle persone che saranno influenzate dalle decisioni del sistema di intelligenza artificiale? Inoltre, i dati raccolti sulle decisioni prese dalle persone riflettono inevitabilmente pregiudizi (inconsci) e bias.

Scelta: La teoria del voto consiglia che dare solo due opzioni può facilmente essere una falsa rappresentazione della scelta reale, nonostante il fatto che una scelta binaria possa inizialmente sembrare più semplice.

Informazioni: Le risposte sono sempre inquadrate dalla domanda posta. La formulazione di una domanda potrebbe implicare uno scopo politico, in particolare quelle che suscitano forti emozioni.

Coinvolgimento: In generale, non tutti gli utenti hanno lo stesso impatto sulle decisioni prese. Tuttavia, indipendentemente dalla partecipazione, ogni voto è ugualmente importante.

Legittimità: I sistemi democratici richiedono decisioni a maggioranza. Ci possono essere però dubbi sul risultato quando i margini sono estremamente ridotti. I risultati tengono conto anche del fatto che il voto sia obbligatorio o volontario.

Sistema elettorale: Si riferisce all’insieme di norme che regolano le modalità di consultazione dei cittadini, lo svolgimento delle elezioni e dei referendum e la determinazione dei loro esiti. Il modo in cui questo sistema è stato creato influenza notevolmente i risultati.

Le diverse priorità di valore porteranno a scelte diverse e spesso è impossibile realizzare pienamente tutti i valori desiderati. I valori, inoltre, sono idee astratte ed estremamente nebulose, che possono essere interpretate in vari modi a seconda dell’utente e della situazione.

Le decisioni si basano su obiettivi a lungo termine e su valori condivisi piuttosto che su convenienze a breve termine e interessi personali ristretti. Fishkin identifica i seguenti elementi vitali per una deliberazione valida, basandosi sull’effettiva applicazione di piattaforme per la democrazia deliberativa:

  • Informazioni: Tutti i partecipanti hanno accesso a dati accurati e pertinenti.
  • Equilibrio sostanziale: In base alle prove fornite, è possibile confrontare diverse prospettive.
  • Diversità: Tutti i partecipanti hanno accesso a tutte le posizioni significative pertinenti al tema in questione e saranno tenuti tutti in considerazione.
  • Coscienziosità: I partecipanti considerano con attenzione ogni punto.
  • Pari considerazione: Per valutare le opinioni si usano le prove, non la persona che le sostiene.

A questi possiamo aggiungere un altro principio.

  • Apertura: Ai fini della progettazione e dell’attuazione di soluzioni basate sul buon senso collettivo, le descrizioni delle opzioni considerate e delle decisioni prese devono essere trasparenti e facilmente accessibili.

Come abbiamo visto, creare un sistema di IA che sia moralmente giusto non è così semplice, anche seguendo diversi approcci la possibilità di ottenere percentuali (seppur basse) di ingiustizia potrebbe comunque verificarsi.

Quante volte siamo incappati in tali sistemi, seppur acora acerbi? Ad esempio quando un profilo di un social network ci viene bannato o ci viene sospeso un account a cui non abbiamo possibilità di replica. Questi esempi infatti ci dovrebbero mettere in guardia sulla poca democraticità di un sistema di IA che emette sentenza irreversibili. Non solo ci riporta a sistemi dittatoriali, ma non consente una fruizione delle piattaforme in modo corretto.

Se quindi tutto ciò va evitato, per attuare una decisione più obiettiva possibile è necessario che ogni giudizio non sia mai definitivo e privo di ricorso, ma consenta sempre di appellarsi ad un giudizio umano, specialmente laddove vi sia ambiguità. Inoltre, il ragionamento logico e il buon senso non dovrebbero mai mancare nell’applicazione di una regola in modo da poter perseguire la massima obiettività.

Quante volte abbiamo dovuto subire regole erronee, ma avvallate dalla maggioranza che si sono poi rivelate sbagliate? I semplici numeri non garantiscono quindi l’obiettività e l’eticità di una norma neppure la non accettazione della sua inutilità anche di fronte ad una maggioranza.

Responsible Artificial Intelligence di Virginia Dignum è disponibile per l’acquisto qui