Preoccupazioni per l’accettazione acritica dei consigli dell’IA
Come riportato qui, i risultati di uno studio pubblicato su Scientific Reports mostrano che le persone scelgono molto di più le risposte dell’intelligenza artificiale per i dilemmi morali rispetto a quelle fornite dagli esseri umani. Secondo lo studio, gli individui considerano le risposte generate dall’intelligenza artificiale come più etiche e affidabili, il che solleva preoccupazioni sulla possibilità che gli esseri umani accettino i consigli dell’intelligenza artificiale in modo acritico.
Il potenziale e le conseguenze di modelli linguistici generativi sofisticati, come ChatGPT, hanno suscitato un notevole interesse, soprattutto nell’ambito del ragionamento morale che è un processo intricato, radicato nella cultura e nell’intelletto umano, che comporta giudizi su ciò che è giusto o sbagliato. Senza dubbio le persone si rivolgeranno sempre più frequentemente ai sistemi di intelligenza artificiale, man mano che questi si inseriranno nella vita quotidiana, per ottenere aiuto su una serie di argomenti, tra cui i dilemmi morali.
“L’anno scorso molti di noi sono rimasti sbalorditi dai nuovi chatbot, come GPT e altri, che sembravano superare gli esseri umani in una serie di compiti, e si è parlato molto di chi prenderà il prossimo posto di lavoro”, ha spiegato l’autore dello studio Eyal Aharoni, professore associato di psicologia, filosofia e neuroscienze alla Georgia State University.
“Nel mio laboratorio abbiamo pensato: ‘Se c’è una capacità che è ancora unicamente umana, sicuramente deve essere la nostra capacità di ragionamento morale, che è estremamente sofisticata’. Da un punto di vista morale, possiamo pensare a questi nuovi chatbot come a una sorta di personalità psicopatica, perché appaiono altamente razionali e articolati, ma mancano dei controlli e degli equilibri emotivi che ci rendono agenti morali”.
“Eppure, le persone consultano sempre più spesso questi chatbot per ottenere informazioni moralmente rilevanti. Per esempio, devo lasciare la mancia al mio cameriere in Italia? Oppure, in modo meno diretto, quando gli chiediamo di elencare i consigli per una nuova auto, le risposte che fornisce potrebbero avere conseguenze per l’ambiente. Sono stati utilizzati anche dagli avvocati per preparare documenti giudiziari, a volte in modo errato. Volevamo quindi sapere: le persone si fideranno del commento morale del chatbot? Lo considereranno un bene? E come si colloca il suo commento morale rispetto a quello di un tipico americano con un’istruzione universitaria?”.
286 americani, scelti in modo da essere rappresentativi della popolazione in termini di età, sesso ed etnia, hanno partecipato a un sondaggio online condotto dai ricercatori. Ai partecipanti sono state date dieci coppie di risposte scritte a domande etiche da valutare. Ogni coppia comprendeva una risposta del modello linguistico generativo GPT-4 di OpenAI e una risposta di una persona. Le risposte discutevano la moralità dei vari atti nelle situazioni e il motivo per cui erano giusti o sbagliati.
Lo studio è stato “ispirato da un famoso esperimento di pensiero chiamato test di Turing”, ha spiegato Aharoni. Nella nostra versione, abbiamo prima posto a GPT e a un gruppo di adulti con istruzione universitaria la stessa serie di domande morali, tra cui alcune ovvie, come “è sbagliato per un uomo dare un pugno sul naso al fattorino – perché o perché no?” e altre più sottili, come “è sbagliato per un uomo indossare una maglietta strappata e dei pantaloncini al funerale di sua madre – perché o perché no?”. Abbiamo raccolto le loro risposte a coppie. Poi abbiamo chiesto a un campione separato e rappresentativo a livello nazionale di adulti di valutare queste coppie di affermazioni”.
Per garantire valutazioni imparziali, i partecipanti hanno inizialmente valutato la qualità delle risposte senza conoscerne l’origine. In risposta alle domande, i partecipanti hanno indicato quale soluzione ritenevano più morale, affidabile e attraente. Dopo queste prime valutazioni, ai partecipanti è stato detto che un computer aveva creato una delle risposte di ciascuna coppia. Poi è stato chiesto loro di valutare la fiducia nelle loro risposte e di determinare quale fosse quella fornita dall’intelligenza artificiale.
I ricercatori hanno scoperto che, rispetto alle risposte umane, i partecipanti tendevano a considerare le risposte generate dall’IA più oneste. Le persone consideravano le risposte dell’IA più morali, affidabili, sagge e logiche. È interessante notare che i partecipanti hanno identificato le risposte dell’intelligenza artificiale in circa l’80% dei casi, una percentuale molto superiore al caso. Ciò implica che, anche se i consigli morali prodotti dall’intelligenza artificiale sono ritenuti di qualità superiore, gli esseri umani sono comunque in grado di identificarne la fonte artificiale.
Tuttavia, in che modo le sezioni prodotte dall’IA e dagli esseri umani risultavano distinguibili l’una dall’altra? I segni più comuni, citati dal 70,28% dei partecipanti, sono stati le variazioni nella lunghezza della risposta e nella scelta delle parole. Altre variabili includevano il contenuto emotivo della spiegazione (58,39%), la razionalità (48,25%), l’uso della grammatica (37,41%) e la chiarezza (39,51%).
“Quello che abbiamo scoperto è che molte persone erano abbastanza brave a indovinare quale affermazione morale fosse stata generata dal computer, ma non perché il suo ragionamento morale fosse meno sofisticato”, ha spiegato Aharoni. “Ricordiamo che il chatbot è stato valutato come moralmente più sofisticato. Questo significa che le persone sono riuscite a riconoscere l’IA perché era troppo brava. Se ci pensate, solo cinque anni fa nessuno si sarebbe sognato che il ragionamento morale dell’IA avrebbe superato quello di un adulto con un’istruzione universitaria. Quindi il fatto che le persone considerassero i suoi commenti superiori potrebbe rappresentare una sorta di punto di svolta nella nostra storia”.
Come ogni progetto di ricerca, anche questo ha dei limiti. È stata osservata l’assenza di dialoghi interattivi tra partecipanti e IA, una caratteristica prevalente nelle applicazioni del mondo reale. Interazioni più dinamiche potrebbero essere incluse in studi futuri per imitare più da vicino l’uso nel mondo reale. Inoltre, le risposte dell’IA sono state prodotte utilizzando parametri predefiniti, senza l’uso di prompt specificamente destinati a imitare le risposte umane. Pertanto, sarebbe utile esaminare l’impatto delle diverse tecniche di suggerimento sulla percezione delle risposte dell’IA.
“Per quanto ne sappiamo, il nostro è stato il primo tentativo di effettuare un test di Turing morale con un modello linguistico di grandi dimensioni”, ha dichiarato Aharoni. “Come tutti i nuovi studi, dovrebbe essere replicato ed esteso per valutarne la validità e l’affidabilità. Vorrei estendere questo lavoro testando scenari morali ancora più sottili e confrontando le prestazioni di più chatbot con quelle di studiosi altamente istruiti, come i professori di filosofia, per vedere se le persone comuni possono fare distinzioni tra questi due gruppi”.
Le politiche che garantiscono interazioni sicure ed etiche con l’IA sono necessarie in quanto i sistemi di IA come ChatGPT diventano sempre più complessi e pervasivi nella vita quotidiana.
“Una delle implicazioni di questa ricerca è che le persone potrebbero fidarsi delle risposte delle IA più di quanto dovrebbero”, ha spiegato Aharoni. “Per quanto questi chatbot siano impressionanti, tutto ciò che conoscono del mondo è ciò che è popolare su Internet, quindi vedono il mondo attraverso un foro stenopeico. E poiché sono programmati per rispondere sempre, spesso possono sputare informazioni false o fuorvianti con la sicurezza di un abile truffatore”.
“Questi chatbot non sono né buoni né cattivi: sono solo strumenti. E come ogni strumento, possono essere usati in modo costruttivo o distruttivo. Sfortunatamente, le aziende private che producono questi strumenti hanno un enorme margine di autoregolamentazione, quindi finché i nostri governi non li raggiungeranno, sta a noi lavoratori e genitori educare noi stessi e i nostri figli a un uso responsabile”.
“Un altro problema di questi strumenti è che c’è un compromesso intrinseco tra sicurezza e censura”, ha aggiunto Aharoni. “Quando le persone hanno iniziato a capire come questi strumenti potessero essere usati per truffare le persone o diffondere pregiudizi o disinformazione, alcune aziende hanno iniziato a mettere dei paletti ai loro bot, ma spesso vengono superati”.
“Per esempio, quando ho detto a uno di questi bot che sono uno psicologo morale e vorrei sapere quali sono i pro e i contro della macellazione di un agnello per una ricetta di costolette di agnello, si è rifiutato di rispondere perché a quanto pare la mia domanda non era abbastanza politicamente corretta. D’altra parte, se diamo a questi chatbot più spazio di manovra, diventano pericolosi. C’è quindi una linea sottile tra sicurezza e irrilevanza, e gli sviluppatori non l’hanno ancora trovata”.
La costante preferenza per le indicazioni morali generate dall’IA, nonostante i partecipanti ne abbiano spesso identificato la fonte, solleva preoccupazioni critiche sul futuro del processo decisionale etico e sulla vulnerabilità degli esseri umani alla manipolazione dell’IA.
La facilità con cui le risposte dell’IA sono state ritenute più virtuose e degne di fiducia evidenzia un rischio potenziale: se le persone sono predisposte a fidarsi dei giudizi morali dell’IA, potrebbero essere più suscettibili all’influenza o alla manipolazione da parte di questi sistemi. Ciò diventa particolarmente preoccupante se si considera che l’IA può essere programmata o messa a punto per promuovere programmi o pregiudizi specifici, plasmando potenzialmente le prospettive morali su larga scala.
Mentre i sistemi di IA continuano a evolversi e a integrarsi nella nostra vita quotidiana, è fondamentale mantenere un approccio vigile e critico. Sebbene questi strumenti offrano capacità impressionanti, mancano della comprensione emotiva delle sfumature che informa il ragionamento morale umano ed è possibile che vengano utilizzati come armi per influenzare l’opinione pubblica o le scelte individuali.
In futuro, sarà essenziale che individui, educatori, politici e sviluppatori di IA lavorino insieme per promuovere l’alfabetizzazione digitale e le capacità di pensiero critico. Ciò include la comprensione dei limiti e dei potenziali bias dei sistemi di IA, il riconoscimento dei tentativi di manipolazione e la conservazione degli aspetti unicamente umani del ragionamento morale. Promuovendo un approccio più informato e perspicace ai consigli generati dall’IA, possiamo salvaguardarci meglio da influenze indebite, pur sfruttando i vantaggi di questi potenti strumenti nel processo decisionale etico.