Perché affidarsi ciecamente agli esperti può essere pericoloso quanto l’ignoranza e come pensare in modo critico nell’era digitale
Bertrand Russell, filosofo, matematico, scrittore e critico sociale britannico, uno degli intellettuali più influenti del XX secolo, affermò che “gli sciocchi e i fanatici sono sempre così sicuri di sé, mentre le persone più sagge sono piene di dubbi”. Questa intuizione appare particolarmente attuale oggi, mentre ci muoviamo in un panorama digitale dominato da opinioni sicure, algoritmi che premiano la polarizzazione e un rapporto sempre più teso tra competenza e fiducia. Tuttavia, l’osservazione di Russell, per quanto convincente, racconta solo una parte della storia e accettarla acriticamente potrebbe renderci ciechi di fronte a pericoli altrettanto significativi quanto l’eccessiva sicurezza contro cui mette in guardia.
Il fascino della certezza nell’algoritmo
La certezza è psicologicamente seducente. In un mondo ambiguo, le risposte definitive offrono conforto e chiarezza. Questo è il motivo per cui le piattaforme dei social media amplificano le voci più autorevoli, non perché siano accurate, ma perché la convinzione genera coinvolgimento. Un thread sfumato che esplora molteplici prospettive ottiene meno like rispetto a un’affermazione audace e dichiarativa. L’algoritmo non premia il dubbio, ma la sicurezza.
Online, questa dinamica si intensifica. Esperti politici, influencer nel campo della salute e sedicenti esperti parlano con incrollabile sicurezza di argomenti complessi, mentre i veri specialisti, consapevoli delle complessità del loro campo, comunicano con maggiore cautela e raggiungono un pubblico più ristretto. Le voci più forti non sono necessariamente le più informate, sono semplicemente le più sicure, e la certezza è ciò che cattura l’attenzione in un ambiente saturo di informazioni.
Il dubbio come coraggio intellettuale, ma non come rinuncia
Il modello di Russell suggerisce che il dubbio è segno di saggezza, mentre la certezza è segno di stoltezza. C’è del vero in questo: mettere in discussione le nostre supposizioni, rimanere aperti a nuove informazioni e riconoscere i limiti della nostra comprensione sono segni distintivi di un pensiero sofisticato. L’effetto Dunning-Kruger lo conferma empiricamente: chi ha conoscenze limitate spesso sopravvaluta la propria competenza, mentre gli esperti, consapevoli di ciò che non sanno, tendono alla cautela.
Ma è qui che la questione si complica: il dubbio non è sempre sinonimo di saggezza, e non tutta la certezza è sinonimo di follia.
Prendiamo ad esempio una persona che istintivamente diffida di una raccomandazione medica perché qualcosa le sembra sbagliato. Non avendo una formazione specifica, secondo la logica di Russell la sua certezza potrebbe essere segno di ignoranza. Ma cosa succede se il suo scetticismo deriva dall’esperienza vissuta, dal sapere di essere stata ingannata in passato, dal riconoscere incentivi contrastanti o dalla semplice intuizione fisica che qualcosa è dannoso? A volte la certezza della persona “ignorante” è in realtà scetticismo protettivo, un legittimo meccanismo di difesa contro la manipolazione da parte di chi ha più conoscenza e potere.
Il problema nascosto: quando la competenza diventa autorità
Il vero pericolo nella formulazione di Russell – e negli articoli che celebrano acriticamente il dubbio degli esperti mentre respingono la certezza dei non esperti – è che essa stabilisce una gerarchia epistemica: gli esperti al vertice (affidabili, umili, sfumati) e i profani alla base (presuntuosi, sciocchi, pericolosi).
Questa gerarchia sembra ragionevole finché non ricordiamo che:
- Gli esperti hanno conflitti di interesse. Ricercatori farmaceutici finanziati dalle aziende farmaceutiche, scienziati del clima impiegati dalle compagnie petrolifere, economisti che forniscono consulenza alle banche: la competenza non garantisce la neutralità.
- L’autorità istituzionale può proteggere i cattivi soggetti. Le credenziali diventano un’armatura contro il controllo. “Fidati di me, sono un medico” può essere un appello genuino alla conoscenza pertinente o una tattica di manipolazione.
- La competenza può essere usata come arma. Nel corso della storia, gli “esperti” hanno giustificato la schiavitù, l’eugenetica, esperimenti medici dannosi e politiche economiche di sfruttamento. La loro sicurezza non era saggezza, era potere mascherato da linguaggio tecnico.
- Il “consenso” può essere fabbricato. Le voci degli esperti dissenzienti vengono emarginate, i finanziamenti vanno a favore di determinate conclusioni e ciò che appare come un accordo scientifico può in realtà essere una presa di potere istituzionale.
Internet amplifica entrambi i lati di questo problema
Le piattaforme online creano le condizioni perfette sia per un’ignoranza eccessivamente sicura di sé che per una competenza corrotta:
Da un lato, assistiamo alla proliferazione di teorie diffuse da persone assolutamente certe di affermazioni che non hanno verificato. La cassa di risonanza rafforza queste certezze, i sistemi di raccomandazione algoritmica creano bolle di filtro e la natura virale di falsità semplici e sicure di sé travolge verità complesse e caute.
D’altra parte, assistiamo a esperti accreditati che sfruttano la loro autorità per mettere a tacere domande legittime, conflitti di interesse nascosti dietro credenziali professionali e gatekeeping istituzionale che protegge interessi potenti. Quando alle persone viene detto di “fidarsi degli esperti” senza fornire loro gli strumenti per valutare quali esperti, o perché, o in quali condizioni, viene loro chiesto di praticare la sottomissione intellettuale, non l’umiltà intellettuale.
Il paradosso della delega della comprensione
Ecco il problema più profondo del paradigma “gli esperti sanno, i non esperti dovrebbero dubitare di sé stessi”: chiede alle persone di rinunciare alla loro capacità di giudizio indipendente.
Se a me, in quanto non esperto, viene detto che la mia certezza su qualsiasi cosa è automaticamente sospetta, che la mia convinzione che qualcosa sia sbagliato dovrebbe sempre sottostare al parere degli esperti, allora ho abdicato non solo a decisioni specifiche, ma alla mia capacità fondamentale di comprendere e orientarmi nel mondo. Divento dipendente, infantilizzato, incapace di fidarmi delle mie percezioni o del mio ragionamento.
Questo crea una società in cui:
- Le persone smettono di cercare di comprendere questioni complesse perché “non potrei mai sapere abbastanza”
- Il pensiero critico si atrofizza perché “gli esperti ci diranno tutto”
- I cittadini diventano sudditi, in attesa di ricevere istruzioni piuttosto che impegnarsi attivamente
- La fiducia diventa binaria: o fede completa o rifiuto totale
Verso un’epistemologia più onesta
Qual è quindi l’alternativa? Non un rifiuto delle competenze, ma un rapporto più maturo con la conoscenza e l’autorità:
- Riconoscere che l’incertezza esiste a tutti i livelli. Gli esperti dovrebbero dubitare di se stessi E riconoscere i propri punti ciechi, pregiudizi e conflitti. I non esperti dovrebbero mettersi in discussione E fidarsi del proprio legittimo scetticismo quando qualcosa sembra sbagliato.
- Distinguere tra conoscenza tecnica e autorità morale. Un epidemiologo può dirvi come si trasmette una malattia, ma non può dirvi come valutare valori contrastanti come la sicurezza, la libertà, la stabilità economica e le relazioni sociali. L’esperienza in un campo non conferisce saggezza su tutto.
- Esigere trasparenza sugli interessi e sui limiti. La vera umiltà intellettuale da parte degli esperti significa rivelare le fonti di finanziamento, riconoscere l’incertezza, presentare in modo equo le opinioni dissenzienti e riconoscere dove i valori e la politica si intrecciano con le questioni tecniche.
- Coltivare uno scetticismo informato, non cinismo. Ciò significa imparare abbastanza per porre domande pertinenti, cercare prospettive multiple, comprendere la metodologia e gli incentivi e mantenere una distanza critica da tutte le affermazioni autorevoli, comprese le proprie.
- Preservare il diritto di comprendere. Argomenti complessi possono essere resi comprensibili senza essere eccessivamente semplificati. Quando gli esperti dicono “è troppo complicato per te da capire”, chiedi se stanno proteggendo la vera complessità o la loro autorità.
La vera saggezza: impegno critico
Russell aveva ragione nel dire che l’arrogante certezza è pericolosa. Ma la soluzione non è sostituirla con una deferenza sottomessa all’autorità. La soluzione è l’impegno critico, un atteggiamento che combina:
- Umiltà epistemica (riconoscere ciò che non sappiamo)
- Curiosità persistente (cercare comunque di capire)
- Sano scetticismo (mettere in discussione tutte le rivendicazioni di autorità)
- Impegno provvisorio (mantenere le proprie convinzioni pur rimanendo aperti alla revisione)
- Epistemologia democratica (insistere sul fatto che la comprensione è un diritto, non un privilegio)
Nell’era digitale, in cui i flussi di informazioni sono controllati da algoritmi, le competenze possono essere acquistate e la certezza è utilizzata come arma in molteplici direzioni, abbiamo bisogno di qualcosa di più del binario di Russell. Abbiamo bisogno di cittadini che non si fidino ciecamente né rifiutino in modo riflessivo, che sappiano distinguere le competenze legittime dall’autorità accreditata, che mantengano la loro capacità di giudizio indipendente mentre imparano sinceramente dagli altri.
L’obiettivo non è quello di avere tutte le risposte. È quello di preservare la nostra capacità di porre le domande giuste e di rifiutare chiunque ci dica che non dovremmo farlo.

