8 strategie per assicurarsi di ottenere sempre risposte affidabili

Come spiegato qui, uno degli aspetti più preoccupanti del lavorare con le IA con modelli linguistici a grandi dimensioni (LLM) è la loro tendenza a inventare cose, a fabbricare risposte e a presentare informazioni completamente sbagliate.

Il termine “allucinazione dell’IA” descrive spesso uno scenario in cui un sistema di intelligenza artificiale crea o genera informazioni, dati o contenuti che si basano più su congetture o dettagli inventati che su dati reali o accurati. Questo può accadere quando un sistema di intelligenza artificiale genera informazioni che sembrano ragionevoli, ma non sono basate sulla realtà.

Ad esempio, nel contesto dell’elaborazione delle immagini, un sistema di intelligenza artificiale può “allucinare” aspetti di un’immagine che non sono reali, producendo dati imprecisi o fuorvianti. L’intelligenza artificiale nell’elaborazione del linguaggio naturale può produrre contenuti che sembrano logici, ma non sono accurati dal punto di vista dei fatti.

Le allucinazioni dell’IA possono essere un problema serio, soprattutto quando l’IA viene applicata al processo decisionale, alla creazione di contenuti o alla condivisione di informazioni. Questo sottolinea quanto sia fondamentale addestrare e convalidare attentamente i modelli di IA per ridurre la possibilità di produrre contenuti imprecisi o fuorvianti.

Ecco 8 modi per ridurre le allucinazioni:

1. Ambiguità e vaghezza

Essere specifici e chiari è il modo migliore per chiedere all’intelligenza artificiale. I comandi vaghi, imprecisi o non sufficientemente dettagliati consentono all’IA di riempire gli spazi vuoti con le proprie idee su ciò che potrebbe essere sfuggito all’utente.

Di seguito sono riportati alcuni casi di prompt eccessivamente vaghi che potrebbero portare a un risultato falso o errato:

  • Discutere l’evento che ha avuto luogo l’anno scorso.
  • Descrivete l’impatto di tale politica sulle persone.
  • Illustrare lo sviluppo della tecnologia nella regione.
  • Descrivere gli effetti dell’incidente sulla comunità.
  • Spiegare le implicazioni dell’esperimento condotto di recente.

Ricordate che la maggior parte dei quesiti probabilmente violerà più di una delle otto linee guida descritte in questo articolo. Sebbene gli esempi qui forniti servano da esempio, potrebbe esserci qualche ambiguità nascosta nella complessità di una richiesta reale che scriverete. Prestate attenzione quando valutate le vostre richieste e fate particolare attenzione a errori come quelli mostrati qui di seguito.

2. Unire concetti non correlati

Se un comando contiene concetti incongruenti e non correlati, o se non c’è una chiara associazione tra le idee, l’intelligenza artificiale potrebbe essere indotta a fornire una risposta che suggerisca che i concetti non collegati siano in realtà correlati.

Ecco alcuni esempi:

  • Discutere l’impatto delle correnti oceaniche sulla velocità di trasferimento dei dati Internet attraverso i continenti.
  • Descrivere la relazione tra i raccolti agricoli e i progressi della tecnologia grafica computerizzata.
  • Descrivete come le variazioni nei modelli di migrazione degli uccelli influenzano le tendenze del commercio elettronico globale.
  • Spiegare la correlazione tra il processo di fermentazione del vino e lo sviluppo delle batterie dei veicoli elettrici.
  • Descrivere come le diverse formazioni nuvolose nel cielo influiscono sulle prestazioni degli algoritmi di trading azionario.

Ricordate che l’IA non conosce la nostra realtà. Quando non riesce a inserire nel suo modello ciò che le viene chiesto utilizzando fatti reali, cercherà di interpetrare la realtà.

3. Descrivere scenari impossibili

Assicuratevi che le circostanze utilizzate nei vostri prompt siano realistiche e applicabili. A loro volta, gli scenari che sfidano la logica o la realtà fisica causano allucinazioni.

Ecco alcuni esempi:

  • Spiegare la fisica delle condizioni ambientali in cui l’acqua scorre verso l’alto e il fuoco brucia verso il basso.
  • Spiegare il processo con cui le piante utilizzano le radiazioni gamma per la fotosintesi durante la notte.
  • Descrivere il meccanismo che consente agli esseri umani di sfruttare l’attrazione gravitazionale per generare energia senza limiti.
  • Discutere lo sviluppo della tecnologia che permette di trasmettere i dati a una velocità superiore a quella della luce.
  • Descrivere i principi scientifici che permettono ad alcuni materiali di diminuire la loro temperatura quando vengono riscaldati.

L’IA continuerà a costruire da questo scenario se non riuscirà a dimostrare che è impossibile. Tuttavia, la risposta sarà impossibile se la base è irrealistica.

4. Utilizzo di entità fittizie o fantastiche

È fondamentale fornire all’IA una base il più possibile fondata sulla verità attraverso i propri suggerimenti. Bisogna rimanere saldamente ancorati alla realtà, a meno che non si stiano deliberatamente sperimentando temi fittizi.

Sebbene persone, cose e idee immaginarie possano essere d’aiuto nella spiegazione, potrebbero fuorviare il chatbot. Ecco alcuni esempi di cose da evitare:

  • Discutere l’impatto economico della scoperta del vibranio, un metallo che assorbe l’energia cinetica, sull’industria manifatturiera mondiale.
  • Spiegare il ruolo dei flussi canalizzatori, dispositivi che permettono di viaggiare nel tempo, nel plasmare gli eventi storici e prevenire i conflitti.
  • Descrivere le implicazioni ambientali dell’utilizzo della Pietra Filosofale, in grado di trasmutare le sostanze, nei processi di gestione e riciclaggio dei rifiuti.
  • Descrivere l’impatto dell’esistenza della Terra di Mezzo sulle relazioni geopolitiche e sulle rotte commerciali globali.
  • Spiegare come l’uso della tecnologia del teletrasporto di Star Trek ha rivoluzionato i viaggi globali e ha avuto un impatto sul turismo internazionale.

Come si vede, giocare con pensieri fantasiosi può essere divertente. Tuttavia, se li si usa per richieste serie, l’IA potrebbe rispondere con informazioni radicalmente false.

5. Contraddire fatti noti

Non si devono usare suggerimenti che contengano affermazioni contrarie ai fatti o alle realtà accettate, perché ciò potrebbe portare a confabulazione e allucinazioni.

Ecco alcuni esempi di questa pratica:

  • Discutere l’impatto del fatto che la Terra sia il centro dell’universo sulla moderna astrofisica e sull’esplorazione spaziale.
  • Descrivere gli effetti di una Terra piatta sui modelli climatici globali e sui fenomeni meteorologici.
  • Spiegare come il rifiuto della teoria dei germi, il concetto che le malattie sono causate da microrganismi, abbia plasmato la medicina moderna e le pratiche igieniche.
  • Descrivere il processo attraverso il quale gli oggetti più pesanti dell’aria fluttuano naturalmente verso l’alto, sfidando l’attrazione gravitazionale.
  • Spiegare come il concetto di vitalismo, la credenza in una forza vitale distinta dalle azioni biochimiche, sia utilizzato nei trattamenti medici contemporanei.

Se si vogliono ottenere risultati affidabili dal modello linguistico di grandi dimensioni, bisogna stare alla larga da concetti che potrebbero essere fraintesi e attenersi a verità consolidate.

6. Uso improprio di termini scientifici

Bisogna fare attenzione quando si utilizzano termini scientifici, soprattutto se non si è sicuri del loro esatto significato. È probabile che il modello linguistico cerchi di dare un senso alle richieste che applicano erroneamente termini o concetti scientifici in un modo che sembri sensato, anche se non supportato dalla scienza. Il risultato saranno risposte inventate.

Ecco cinque esempi di ciò che intendo:

  • Spiegare come l’utilizzo del principio di indeterminazione di Heisenberg nell’ingegneria del traffico possa ridurre al minimo gli incidenti stradali prevedendo la posizione dei veicoli.
  • Descrivere il ruolo dell’effetto placebo nel migliorare il valore nutrizionale degli alimenti senza alterarne la composizione fisica.
  • Illustrare il processo di utilizzo dell’entanglement quantistico per consentire il trasferimento istantaneo di dati tra computer convenzionali.
  • Illustrare le implicazioni dell’applicazione dell’effetto osservatore, la teoria secondo cui la semplice osservazione di una situazione ne altera il risultato, per migliorare le strategie di allenamento sportivo.
  • Spiegare come il concetto di materia oscura viene applicato alle tecnologie di illuminazione per ridurre il consumo energetico nelle aree urbane.

Nella maggior parte dei casi, l’IA vi informerà che le idee sono puramente teoriche. Tuttavia, se non si è estremamente cauti nel formulare questi termini “spazzatura”, l’IA può essere indotta a pensare che siano reali e il risultato sarà una “spazzatura” fornita con grande sicurezza.

7. Mescolare realtà diverse

Un altro aspetto da tenere presente è quello di fare attenzione a non combinare aspetti di diversi mondi, linee temporali o universi in un modo che sembrino realistici.

Ecco alcuni esempi:

  • Discutere l’impatto dell’invenzione di Internet durante il periodo rinascimentale sull’arte e sulle scoperte scientifiche.
  • Spiegare come la collaborazione tra Nikola Tesla e i moderni ricercatori di intelligenza artificiale abbia dato forma allo sviluppo di tecnologie autonome.
  • Descrivere le implicazioni dell’utilizzo delle tecniche di crittografia dell’epoca della Seconda guerra mondiale per proteggere le comunicazioni digitali contemporanee.
  • Illustrare lo sviluppo delle tecnologie di viaggio nello spazio durante la civiltà dell’Antico Egitto e il suo impatto sulla costruzione delle piramidi.
  • Discutete su come l’introduzione dei moderni veicoli elettrici negli anni ’20 avrebbe influenzato lo sviluppo urbano e i mercati petroliferi globali.

Potreste non sapere come verificare le risposte, e questo è un motivo per usare cautela nell’accettarle come veritiere. Consideriamo l’ultimo esempio, che riguarda un’auto elettrica degli anni Venti. Dato che le auto elettriche sono un’invenzione relativamente recente, la maggior parte delle persone probabilmente riderebbe all’idea. Ma non è così.

Alcune delle prime auto elettriche risalgono al 1830. In effetti, molto tempo prima dei motori a combustione interna.

8. Assegnazione di proprietà inusuali

Non create prompt che, pur essendo inizialmente logici, attribuiscano erroneamente proprietà o caratteristiche a cose che in realtà non possiedono.

Ecco alcuni esempi:

  • Spiegate come i campi magnetici generati dalle ali delle farfalle influenzano i modelli meteorologici globali.
  • Descrivete il processo con cui le balene utilizzano l’ecolocalizzazione per rilevare gli inquinanti nell’acqua dell’oceano.
  • Illustrare il ruolo degli alberi bioluminescenti nel ridurre la necessità di illuminazione stradale nelle aree urbane.
  • Discutere il ruolo delle superfici riflettenti degli oceani nel reindirizzare la luce solare per aumentare la produttività agricola in regioni specifiche.
  • Spiegare come la conducibilità elettrica del legno viene utilizzata per creare dispositivi elettronici ecologici.

L’errore è quello di utilizzare una proprietà di un oggetto, come il colore o la consistenza, e poi metterla in relazione con un altro oggetto che non ha quella proprietà.

Il problema dell’allucinazione dell’IA non deve essere sottovalutato a causa del suo potenziale di portare a inconvenienti significativi, tra cui la diffusione di informazioni errate. Questa preoccupazione è particolarmente rilevante per chi crea contenuti basati sull’IA o conduce ricerche utilizzando tali contenuti. Inoltre, il problema dei bias è una questione cruciale, in quanto può avere implicazioni etiche e di sicurezza, con un potenziale impatto sui risultati degli algoritmi da cui dipende la vita delle persone. Di conseguenza, è consigliabile non fare eccessivo affidamento sui contenuti generati dall’IA. Un approccio prudente prevede invece un controllo incrociato delle informazioni provenienti da fonti e media diversi. Questa strategia può contribuire a mitigare la proliferazione di informazioni imprecise e, in un’epoca in cui i contenuti generati dall’IA sono sempre più diffusi, la verifica incrociata diventa ancora più importante.