La fiducia dei ricercatori nell’IA diminuisce nonostante la crescente diffusione

Published:

Il rapporto Wiley mostra che la fiducia dei ricercatori è in forte calo, nonostante l’adozione dell’IA sia in forte aumento

Per loro natura, gli scienziati affrontano le affermazioni con un sano scetticismo: è fondamentale per il loro lavoro. Tuttavia, la loro crescente diffidenza nei confronti dell’intelligenza artificiale rivela un modello preoccupante: più la si conosce, più genera diffidenza.

Come spiegato qui, il rapporto preliminare sull’impatto della ricerca per il 2025 dell’editore accademico Wiley rivela una contraddizione sorprendente. Con l’aumentare della complessità dei sistemi di IA, la fiducia scientifica in essi è effettivamente diminuita rispetto ai livelli del 2024.

I dati raccontano una storia rivelatrice. La preoccupazione per le “allucinazioni” dell’IA, ovvero i casi in cui grandi modelli linguistici presentano con sicurezza informazioni false come vere, è passata dal 51% al 64% su base annua. Ciò è avvenuto nonostante l’adozione dell’IA da parte dei ricercatori sia salita dal 45% al 62%, suggerendo che gli scienziati stiano contemporaneamente abbracciando e dubitando di questi strumenti.

Le preoccupazioni relative alla sicurezza e alla privacy sono aumentate di 11 punti percentuali, mentre sono aumentate anche le preoccupazioni etiche e le richieste di trasparenza. Forse il dato più significativo è il crollo dell’ottimismo: l’anno scorso, gli scienziati credevano che l’IA superasse le prestazioni umane in più della metà delle applicazioni. Quest’anno, quella cifra è scesa a meno di un terzo.

Questa tendenza è in linea con studi precedenti che mostrano una relazione inversa tra conoscenza dell’IA e fiducia. Più le persone comprendono il funzionamento di questi sistemi, più diventano scettiche, mentre i sostenitori entusiasti spesso possiedono la minore comprensione tecnica.

>>>  L'intelligenza artificiale che già ci danneggia

Il ragionamento alla base dello scetticismo professionale non è misterioso. Le allucinazioni rappresentano un problema fondamentale che ha già compromesso procedimenti legali, decisioni mediche e pianificazione dei viaggi. È preoccupante che i test effettuati a maggio abbiano rivelato che queste falsificazioni persistevano, o addirittura aumentavano, man mano che i modelli diventavano più potenti.

C’è anche una dimensione economica scomoda. Gli utenti preferiscono costantemente i sistemi di IA che rispondono con incrollabile sicurezza rispetto a quelli che riconoscono l’incertezza o le lacune nei dati, anche quando tale sicurezza è mal riposta. Questo crea incentivi perversi: eliminare le allucinazioni potrebbe effettivamente allontanare i clienti.

Per chiunque navighi nel ciclone dell’IA, gli scienziati offrono una preziosa verifica della realtà. La loro esperienza professionale con questi strumenti li ha resi sempre più cauti, una prospettiva che vale la pena considerare prima di accettare affermazioni audaci per buone.

Un campanello d’allarme da non ignorare

Il crescente scetticismo degli scienziati nei confronti della tecnologia dell’IA invia un messaggio chiaro: chi lavora a stretto contatto con questi strumenti ne comprende meglio i limiti. Non si tratta di semplice tecnofobia o resistenza all’innovazione, ma di cautela informata derivante dall’esperienza diretta.

Eppure questo scetticismo potrebbe essere proprio ciò di cui abbiamo bisogno. Gli scienziati occupano una posizione unica come sistema di allerta precoce della società per il difetto più pericoloso dell’IA: le allucinazioni che gli utenti comuni non sono in grado di rilevare. Quando l’IA presenta con sicurezza informazioni inventate come fatti, la maggior parte delle persone non ha le competenze necessarie per metterle in discussione. Si fidano della risposta. Sembra autorevole perché è in linea con le loro convinzioni esistenti o semplicemente perché non hanno modo di verificarla.

>>>  Gopher di DeepMind ha superato GPT-3

Questo problema diventa ancora più insidioso se consideriamo la tendenza dell’IA a dare ragione. Questi sistemi sono progettati per essere utili e accomodanti, spesso convalidando le ipotesi degli utenti anche quando queste sono errate. Senza esperti che lanciano segnali di allarme, rischiamo di andare alla deriva verso un futuro in cui le informazioni false diventano sempre più difficili da distinguere dalla verità. In questo mondo, l’IA non solo riflette i nostri pregiudizi, ma li rafforza attivamente.

Mentre l’IA continua a permeare ogni settore, dall’assistenza sanitaria all’istruzione, dai sistemi legali alle applicazioni di consumo quotidiano, il calo di fiducia della comunità scientifica dovrebbe farci riflettere. Si tratta di professionisti formati per valutare le prove, identificare i difetti e richiedere rigore. Quando si allontanano collettivamente dall’entusiasmo, non stanno solo proteggendo il proprio lavoro, ma stanno lanciando un allarme per tutti coloro che alla fine dipenderanno da questi sistemi.

La sfida che ci attende non è solo tecnica. Si tratta di costruire sistemi di IA che privilegino l’accuratezza rispetto alla fiducia, la trasparenza rispetto alla convenienza e la veridicità rispetto al coinvolgimento degli utenti. Finché l’industria non affronterà questioni fondamentali come le allucinazioni e gli incentivi perversi che le perpetuano, avremo bisogno dello scetticismo degli scienziati come contrappeso all’adozione acritica.

Per ora, i dati suggeriscono una semplice regola: prima di accettare le promesse dell’IA per buone, consultate qualcuno che l’utilizza effettivamente a livello professionale. Il loro scetticismo misurato non è pessimismo, ma saggezza acquisita attraverso l’esperienza. E in un’epoca in cui l’IA influenza sempre più ciò che riteniamo vero, questo tipo di prospettiva concreta non è solo preziosa, ma potrebbe essere essenziale per preservare la nostra comprensione della realtà stessa.

Preoccupazioni per le Allucinazioni in Aumento
2024
51%
Scienziati preoccupati per le allucinazioni dell’IA
2025
64%
Scienziati preoccupati per le allucinazioni dell’IA
Adozione dell’IA vs Fiducia
Utilizzo dell’IA tra i Ricercatori
45% → 62%
Aumento del 17%
Preoccupazioni per Sicurezza e Privacy
+11%
Rispetto all’anno precedente
Crollo della Fiducia nella Superiorità dell’IA
2024
50%+
Credevano che l’IA superasse gli umani nella maggior parte dei casi
2025
<33%
Credono che l’IA superi gli umani nella maggior parte dei casi

Il Paradosso della Conoscenza

La ricerca mostra una relazione inversa tra comprensione dell’IA e fiducia. Chi sa di più su come funziona l’IA tende a fidarsi meno, mentre i sostenitori più entusiasti spesso hanno la minore conoscenza tecnica.

Il Problema delle Allucinazioni

I sistemi di IA presentano con sicurezza informazioni false come se fossero fatti, causando problemi in procedimenti legali, decisioni mediche e pianificazione di viaggi. I test mostrano che queste falsificazioni persistono anche mentre i modelli diventano più potenti.

La Conclusione

Man mano che gli scienziati acquisiscono maggiore esperienza con gli strumenti di IA, il loro scetticismo cresce. La cautela risulta preziosa rispetto all’entusiasmo diffuso per l’IA.

Related articles

Recent articles