Come spiegato qui, uno degli aspetti più preoccupanti del lavorare con le IA con modelli linguistici a grandi dimensioni (LLM) è la loro tendenza a inventare cose, a fabbricare risposte e a presentare informazioni completamente sbagliate.
Il termine “allucinazione dell’IA” descrive spesso uno scenario in cui un sistema di intelligenza artificiale crea o genera informazioni, dati o contenuti che si basano più su congetture o dettagli inventati che su dati reali o accurati. Questo può accadere quando un sistema di intelligenza artificiale genera informazioni che sembrano ragionevoli, ma non sono basate sulla realtà.
Ad esempio, nel contesto dell’elaborazione delle immagini, un sistema di intelligenza artificiale può “allucinare” aspetti di un’immagine che non sono reali, producendo dati imprecisi o fuorvianti. L’intelligenza artificiale nell’elaborazione del linguaggio naturale può produrre contenuti che sembrano logici, ma non sono accurati dal punto di vista dei fatti.
Le allucinazioni dell’IA possono essere un problema serio, soprattutto quando l’IA viene applicata al processo decisionale, alla creazione di contenuti o alla condivisione di informazioni. Questo sottolinea quanto sia fondamentale addestrare e convalidare attentamente i modelli di IA per ridurre la possibilità di produrre contenuti imprecisi o fuorvianti.
Ecco 8 modi per ridurre le allucinazioni:
Essere specifici e chiari è il modo migliore per chiedere all’intelligenza artificiale. I comandi vaghi, imprecisi o non sufficientemente dettagliati consentono all’IA di riempire gli spazi vuoti con le proprie idee su ciò che potrebbe essere sfuggito all’utente.
Di seguito sono riportati alcuni casi di prompt eccessivamente vaghi che potrebbero portare a un risultato falso o errato:
Ricordate che la maggior parte dei quesiti probabilmente violerà più di una delle otto linee guida descritte in questo articolo. Sebbene gli esempi qui forniti servano da esempio, potrebbe esserci qualche ambiguità nascosta nella complessità di una richiesta reale che scriverete. Prestate attenzione quando valutate le vostre richieste e fate particolare attenzione a errori come quelli mostrati qui di seguito.
Se un comando contiene concetti incongruenti e non correlati, o se non c’è una chiara associazione tra le idee, l’intelligenza artificiale potrebbe essere indotta a fornire una risposta che suggerisca che i concetti non collegati siano in realtà correlati.
Ecco alcuni esempi:
Ricordate che l’IA non conosce la nostra realtà. Quando non riesce a inserire nel suo modello ciò che le viene chiesto utilizzando fatti reali, cercherà di interpetrare la realtà.
Assicuratevi che le circostanze utilizzate nei vostri prompt siano realistiche e applicabili. A loro volta, gli scenari che sfidano la logica o la realtà fisica causano allucinazioni.
Ecco alcuni esempi:
L’IA continuerà a costruire da questo scenario se non riuscirà a dimostrare che è impossibile. Tuttavia, la risposta sarà impossibile se la base è irrealistica.
È fondamentale fornire all’IA una base il più possibile fondata sulla verità attraverso i propri suggerimenti. Bisogna rimanere saldamente ancorati alla realtà, a meno che non si stiano deliberatamente sperimentando temi fittizi.
Sebbene persone, cose e idee immaginarie possano essere d’aiuto nella spiegazione, potrebbero fuorviare il chatbot. Ecco alcuni esempi di cose da evitare:
Come si vede, giocare con pensieri fantasiosi può essere divertente. Tuttavia, se li si usa per richieste serie, l’IA potrebbe rispondere con informazioni radicalmente false.
Non si devono usare suggerimenti che contengano affermazioni contrarie ai fatti o alle realtà accettate, perché ciò potrebbe portare a confabulazione e allucinazioni.
Ecco alcuni esempi di questa pratica:
Se si vogliono ottenere risultati affidabili dal modello linguistico di grandi dimensioni, bisogna stare alla larga da concetti che potrebbero essere fraintesi e attenersi a verità consolidate.
Bisogna fare attenzione quando si utilizzano termini scientifici, soprattutto se non si è sicuri del loro esatto significato. È probabile che il modello linguistico cerchi di dare un senso alle richieste che applicano erroneamente termini o concetti scientifici in un modo che sembri sensato, anche se non supportato dalla scienza. Il risultato saranno risposte inventate.
Ecco cinque esempi di ciò che intendo:
Nella maggior parte dei casi, l’IA vi informerà che le idee sono puramente teoriche. Tuttavia, se non si è estremamente cauti nel formulare questi termini “spazzatura”, l’IA può essere indotta a pensare che siano reali e il risultato sarà una “spazzatura” fornita con grande sicurezza.
Un altro aspetto da tenere presente è quello di fare attenzione a non combinare aspetti di diversi mondi, linee temporali o universi in un modo che sembrino realistici.
Ecco alcuni esempi:
Potreste non sapere come verificare le risposte, e questo è un motivo per usare cautela nell’accettarle come veritiere. Consideriamo l’ultimo esempio, che riguarda un’auto elettrica degli anni Venti. Dato che le auto elettriche sono un’invenzione relativamente recente, la maggior parte delle persone probabilmente riderebbe all’idea. Ma non è così.
Alcune delle prime auto elettriche risalgono al 1830. In effetti, molto tempo prima dei motori a combustione interna.
Non create prompt che, pur essendo inizialmente logici, attribuiscano erroneamente proprietà o caratteristiche a cose che in realtà non possiedono.
Ecco alcuni esempi:
L’errore è quello di utilizzare una proprietà di un oggetto, come il colore o la consistenza, e poi metterla in relazione con un altro oggetto che non ha quella proprietà.
Il problema dell’allucinazione dell’IA non deve essere sottovalutato a causa del suo potenziale di portare a inconvenienti significativi, tra cui la diffusione di informazioni errate. Questa preoccupazione è particolarmente rilevante per chi crea contenuti basati sull’IA o conduce ricerche utilizzando tali contenuti. Inoltre, il problema dei bias è una questione cruciale, in quanto può avere implicazioni etiche e di sicurezza, con un potenziale impatto sui risultati degli algoritmi da cui dipende la vita delle persone. Di conseguenza, è consigliabile non fare eccessivo affidamento sui contenuti generati dall’IA. Un approccio prudente prevede invece un controllo incrociato delle informazioni provenienti da fonti e media diversi. Questa strategia può contribuire a mitigare la proliferazione di informazioni imprecise e, in un’epoca in cui i contenuti generati dall’IA sono sempre più diffusi, la verifica incrociata diventa ancora più importante.
Otto robot umanoidi all'avanguardia destinati a trasformare le industrie e a ridefinire il futuro del…
Boston Dynamics ritira il suo iconico robot Atlas e presenta un nuovo robot umanoide avanzato,…
Un dirigente del settore tecnologico rivela la tendenza crescente delle cosiddette "fidanzate" generate dall'IA.
Come l'algoritmo di TikTok modella le esperienze degli utenti e sull'importanza della supervisione umana nello…
Gli esperti avvertono che i "fantasmi" artificiali potrebbero disturbare il processo di elaborazione del lutto,…
Come gli LLM utilizzano le funzioni lineari per recuperare le conoscenze fattuali, fornendo informazioni sul…