Quando l’intelligenza artificiale ha le allucinazioni, ci fa da specchio per i nostri pregiudizi

Negli ultimi tempi, c’è stato un grande interesse per l’introduzione di modelli linguistici di grandi dimensioni (LLM) sempre più efficienti, come GPT-3.5. Tuttavia, la fiducia in questi modelli è diminuita perché gli utenti hanno scoperto che possono sbagliare e che, proprio come noi, non sono perfetti.

Secondo questo articolo, un LLM che produce informazioni false è detto “allucinato“, e attualmente si sta sviluppando una serie di ricerche volte a ridurre questo impatto. Ma mentre lottiamo con questo processo, è importante considerare come la nostra stessa tendenza ai bias e alle illusioni influenzi la precisione degli LLM che sviluppiamo.

Possiamo iniziare a sviluppare sistemi di intelligenza artificiale più saggi, che in ultima analisi contribuiranno a ridurre l’errore umano, comprendendo la connessione tra il potenziale allucinatorio dell’intelligenza artificiale e il nostro.

Come le persone hanno le “allucinazioni”

È risaputo che le persone inventano le informazioni. A volte lo facciamo di proposito, altre volte no. Quest’ultimo caso è causato da pregiudizi cognitivi, noti anche come euristiche, che sono scorciatoie mentali che acquisiamo come risultato di esperienze precedenti.

Queste scorciatoie derivano spesso da una necessità. Possiamo comprendere solo una certa quantità di informazioni che bombardano costantemente i nostri sensi in ogni momento e possiamo ricordare solo una piccola parte della quantità totale di informazioni a cui siamo stati esposti.

Di conseguenza, il nostro cervello deve affidarsi ad associazioni apprese per riempire gli spazi vuoti e consentire risposte rapide a qualsiasi domanda o problema che ci si presenti. In altre parole, in base a ciò che sappiamo, il nostro cervello fa una stima di quale sarebbe la risposta corretta. Questo è un caso di bias umano ed è noto come “confabulazione“.

La scarsa capacità di giudizio può essere causata dai nostri bias. Consideriamo il bias di automazione, che si riferisce alla nostra propensione a favorire le informazioni prodotte da sistemi automatici rispetto a quelle provenienti da fonti non automatizzate (come ChatGPT). Questo pregiudizio può indurci a trascurare gli errori e persino a prendere in considerazione informazioni errate.

L’effetto alone è un’utile euristica che descrive come le nostre prime impressioni su qualcosa abbiano un impatto sul modo in cui interagiamo con essa in futuro. E il bias di fluidità, che spiega come preferiamo le informazioni presentate in modo comprensibile.

Resta il fatto che i pregiudizi e le distorsioni cognitive colorano spesso il pensiero umano e che queste tendenze “allucinatorie” avvengono di solito a nostra insaputa.

Come l’IA ha le “allucinazioni”

“Allucinazione” si riferisce semplicemente a un tentativo infruttuoso di prevedere una risposta appropriata a un input.

Tuttavia, dal momento che anche gli LLM usano questa tecnica per “riempire i vuoti”, ci sono ancora alcune somiglianze tra il modo in cui gli esseri umani e gli LLM hanno le allucinazioni.

Facendo una previsione su quale parola di una sequenza apparirà successivamente, sulla base di ciò che è accaduto prima e delle relazioni che il sistema ha appreso attraverso l’addestramento, gli LLM producono una risposta.

Gli LLM mirano ad anticipare la reazione più probabile, proprio come gli esseri umani. A differenza degli esseri umani, però, lo fanno senza rendersi conto di ciò che stanno dicendo. In questo modo possono produrre parole incomprensibili.

Esistono numerose spiegazioni del perché gli LLM abbiano allucinazioni. L’addestramento su dati errati o insufficienti è una spiegazione importante. La programmazione del sistema per l’apprendimento da questi dati e il modo in cui viene rafforzato attraverso un ulteriore addestramento con gli esseri umani sono altri aspetti.

Che cosa è più semplice correggere se le allucinazioni si verificano sia negli esseri umani che negli LLM, anche se per motivi diversi?

Può sembrare più semplice migliorare i processi e i dati di addestramento che supportano gli LLM piuttosto che correggere noi stessi. Tuttavia, questo non tiene conto dell’impatto delle variabili umane sui sistemi di intelligenza artificiale (ed è un esempio di un altro bias noto come errore fondamentale di attribuzione).

Poiché le nostre carenze e quelle delle nostre tecnologie sono strettamente collegate, la risoluzione di una di esse contribuirà a risolvere l’altra. Ecco alcuni metodi che possiamo utilizzare per farlo.

  • Gestione accurata dei dati. I bias dell’intelligenza artificiale derivano spesso da dati di addestramento insufficienti o incompleti. Assicurarsi che i dati di addestramento siano vari e rappresentativi, sviluppare algoritmi consapevoli dei bias e utilizzare metodi come il bilanciamento dei dati per eliminare modelli distorti o discriminanti sono tutti modi per risolvere il problema.
  • Un’intelligenza artificiale trasparente e spiegabile. Tuttavia, anche dopo aver utilizzato le misure sopra menzionate, i bias nell’IA possono ancora esistere ed essere difficili da individuare. Possiamo comprendere meglio l’esistenza di bias negli output studiando come questi possano entrare in un sistema e diffondersi al suo interno. Questo è il fondamento dell'”IA spiegabile”, che mira ad aumentare la trasparenza dei processi decisionali utilizzati dai sistemi di IA.
  • Mettere al primo posto le esigenze delle persone. La responsabilità umana e l’incorporazione dei valori umani nei sistemi di IA sono elementi necessari per identificare, gestire e imparare dai bias di un’IA. A tal fine, le parti interessate devono includere individui con diversi background, culture e punti di vista.

Possiamo creare sistemi di intelligenza artificiale più intelligenti che possano aiutarci a controllare tutte le nostre allucinazioni cooperando in questo modo.

L’IA viene impiegata nel settore sanitario, ad esempio, per analizzare le scelte dei pazienti. Questi sistemi automatizzati che imparano dai dati umani identificano le discrepanze e invitano il medico a risolverle. In questo modo, è possibile migliorare le scelte diagnostiche preservando la responsabilità umana.

L’intelligenza artificiale viene impiegata nel campo dei social media per aiutare a formare moderatori umani in grado di individuare gli abusi, come nel progetto Troll Patrol per combattere le aggressioni online contro le donne.

Un altro esempio è la possibilità di esaminare i cambiamenti dell’illuminazione notturna nelle varie regioni e di utilizzarla come indicatore della povertà relativa di un’area utilizzando l’intelligenza artificiale e le immagini satellitari (dove una maggiore illuminazione è correlata a una minore povertà).

È importante non trascurare il fatto che l’attuale fallibilità degli LLM funge da specchio alla nostra, mentre cerchiamo di migliorarne l’accuratezza.

Le innate distorsioni cognitive del pensiero umano si riflettono nelle tendenze allucinatorie dei grandi modelli linguistici. I difetti dell’IA sono preoccupanti, ma offrono anche una possibilità. Capire dove e perché gli LLM hanno le allucinazioni ci aiuta a sviluppare sistemi trasparenti ed etici.

Dal punto di vista dei vantaggi, il debug delle allucinazioni dell’IA ci spinge a rivalutare il nostro stesso giudizio. Dimostra come input scadenti ed elaborazioni distorte falsino i risultati. Le analogie ci incoraggiano a ridurre i bias su entrambi i fronti. Se usata con attenzione, l’allucinazione dell’IA può servire come strumento diagnostico, evidenziando gli errori nel ragionamento o nei dati.

Un’allucinazione non controllata, tuttavia, presenta numerosi inconvenienti. Un’IA inaffidabile rischia di danneggiare gli esseri umani fornendo informazioni false, commettendo errori medici e in altri modi. L’uso della fede cieca nelle conclusioni dell’IA richiede cautela. Inoltre, la scarsa trasparenza diminuisce la responsabilità.

Prestare attenzione ai dati di addestramento, sostenere un’IA comprensibile e mettere al primo posto le esigenze umane sono tutte componenti di soluzioni equilibrate. Se usata con attenzione, la riflessione dell’IA sulla nostra fragilità umana è un vantaggio piuttosto che un difetto. Offre il potenziale per migliorare sia l’IA che l’intelligenza umana. Insieme, possiamo creare meccanismi che rafforzino i nostri punti di forza comuni, riducendo al contempo i nostri difetti comuni.

I problemi di allucinazione dell’IA sono una sorta di riflesso della società. Possiamo cercare la verità e la comprensione sia nelle persone che nelle macchine, se abbiamo saggezza. La strada da percorrere richiede l’accettazione dei nostri difetti come collettività.

In seguito alle risposte fornite da un’intelligenza artificiale, sarebbe opportuno che il sistema includesse anche l’avvertenza dell’esistenza di tesi alternative o diametralmente opposte. Questo aiuterebbe a mitigare nell’utente umano il rischio di radicalizzazione su una certa posizione o di polarizzazione su un’unica prospettiva.

Stimolare il pensiero critico e il dubbio costruttivo dovrebbe essere una componente essenziale di un sistema IA equilibrato ed efficace. Laddove non esistono risposte definitive o univoche, il dubbio può infatti rappresentare uno strumento prezioso di ragionamento ed analisi. L’IA andrebbe quindi integrata con avvertenze sulle diverse chiavi di lettura, per rafforzare la capacità umana di elaborare le informazioni in modo multidimensionale.