Il vero costo dietro far sì che siano le macchine a pensare al posto nostro
Ci siamo ritrovati – forse volontariamente – in un mondo in cui le macchine parlano con sorprendente sicurezza. I sistemi di IA odierni forniscono risposte che sembrano raffinate, coerenti e stranamente soddisfacenti.
I modelli linguistici di grandi dimensioni sono abili interpreti. Articolano le idee con ritmo e precisione, lasciando poco spazio al dubbio prima che la risposta successiva sia già sullo schermo. Eppure, sotto quella superficie liscia, si nasconde qualcosa di fondamentalmente diverso dalla comprensione. Questi sistemi non sanno veramente: calcolano.
La verità, semplice e profonda al tempo stesso, è che i modelli linguistici di grandi dimensioni (LLM) dispongono le parole in base alla probabilità statistica. Non c’è memoria, né convinzione, né esperienza autentica del mondo che viene descritto. Questo fenomeno è stato definito “anti-intelligenza” – non come critica, ma come etichetta che descrive onestamente ciò che è: un’inversione della cognizione umana piuttosto che una sua versione ridotta. L’IA non è una mente inferiore. È un tipo di processo strutturalmente diverso e antitetico. Eppure, nonostante quel nucleo vuoto, produce qualcosa che sembra straordinariamente simile alla conoscenza.
Ma l’anti-intelligenza non opera da sola. Ha un compagno — uno che parla meno dei meccanismi interni e più dell’illusione che proiettano. Questo concetto di accompagnamento è il paraknowing. E potrebbe essere silenziosamente contagioso.
L’anti-intelligenza trova il suo partner
Il prefisso para indica qualcosa di adiacente ma distinto: pensate a parallelo, paradosso, paranormale. Come spiegato qui, il paraknowing segue la stessa logica: è un sapere simulato, che imita la forma della comprensione autentica senza alcun obbligo di verità. Offre coerenza linguistica al posto della profondità e fluidità al posto dell’intuizione. Abbastanza vicino da sembrare familiare. Abbastanza vicino da essere convincente. È proprio qui che l’anti-intelligenza si confonde con il paraknowing.
Agli albori di queste tecnologie, il divario era evidente. Allucinazioni e assurdità si diffondevano viralmente sui social media, facili da individuare e facili da ignorare. Ma col tempo, si insinua qualcosa di più sottile. La coerente pulizia linguistica generata dall’IA comincia a sembrare un segnale di affidabilità. La domanda se una data risposta sia fondata su qualcosa di reale — piuttosto che su un modello statistico — viene posta sempre meno. E la pura comodità di risposte senza attrito smussa gradualmente l’istinto critico.
La silenziosa deriva verso la superficie
Ciò che rende questo cambiamento così insidioso è quanto sembri insignificante. Si digita un prompt, arriva una risposta raffinata e la vita va avanti: nessuna lotta, nessun attrito, nessuna pausa. E lentamente, in modo quasi impercettibile, il rapporto con la conoscenza inizia a deformarsi.
La parte inquietante è che non sembra sbagliato.
Il “paraknowing” non è pericoloso in modo evidente o malizioso. I modelli di linguaggio di grandi dimensioni (LLM) sono, sotto ogni punto di vista, strumenti straordinari: capaci di ampliare il pensiero umano, estenderne la portata e far emergere connessioni che altrimenti non sarebbero mai venute alla luce. Sono potenti strumenti cognitivi. Ma semplicemente non credono a nulla.
E così, quando la loro modalità di conoscenza diventa la norma, una nuova epistemologia prende silenziosamente piede: una in cui ciò che funziona sostituisce ciò che è. La performance della conoscenza, rivestita di eloquenza e velocità, sostituisce il lavoro più duro e lento di costruire una comprensione autentica.
Non solo perdita, ma trasformazione
Sarebbe troppo facile interpretare tutto questo come un semplice declino. Il paraknowing non è solo una comodità che ci risparmia uno sforzo insignificante: può anche fungere da ponte verso un panorama cognitivo più ricco. Elaborando vaste combinazioni di fatti, schemi e connessioni che sopraffarebbero persino la mente umana più acuta, crea spazio per qualcosa di più prezioso: la sintesi, la creatività e quel tipo di indagine approfondita che le macchine non possono replicare.
Va notato che la cognizione umana non è mai stata perfettamente precisa. I sensi e la memoria operano in una modalità sufficientemente buona: la vista tralascia i dettagli, la memoria ricostruisce piuttosto che registrare, e il ragionamento si basa su euristiche plasmate dalla sopravvivenza piuttosto che sulla verità assoluta. L’approssimazione non è una caratteristica esclusiva delle macchine.
Ma rimane una differenza cruciale. L’approssimazione umana è ancorata all’esperienza vissuta. L’approssimazione della macchina — il paraknowing — non ha tale fondamento. Prevede senza sperimentare. È coerente all’interno della matematica della statistica, ma priva di peso nel senso che solo la vera comprensione ha peso.
Detto questo, la portata computazionale dell’IA può comunque rivelare relazioni inaspettate in ambiti enormi, indicare nuove direzioni di ricerca ed espandere i confini dell’immaginazione. Il paraknowing, in questa ottica, non è semplicemente una modalità di fallimento: è un partner nella trasformazione, che potenzia il pensiero umano quando viene impiegato con saggezza.
La posta in gioco culturale
Se questa nuova modalità di conoscenza dovesse attecchire troppo profondamente, le conseguenze si estenderebbero ben oltre le abitudini individuali. Potrebbero rimodellare il modo in cui intere culture valutano la conoscenza stessa.
L’istruzione potrebbe allontanarsi dalla coltivazione di una comprensione autentica per orientarsi verso l’insegnamento della navigazione: come trovare, suggerire e presentare, piuttosto che come pensare. I media potrebbero arrivare a privilegiare l’immediatezza e la fluidità rispetto al lavoro lento e difficile della sostanza. La fiducia potrebbe spostarsi dall’esperienza verso la presentazione: quanto suona bene qualcosa, quanto sembra convincente, quanto appare coerente.
Il paraknowing è potente. Ma gli manca l’attrito che rende significativa la conoscenza umana: la pazienza di convivere con l’incertezza, la profonda connessione tra memoria e significato, e la responsabilità che deriva dal sostenere veramente una convinzione piuttosto che limitarsi a presentarla.
Una silenziosa resa dei conti
L’umanità non sta per essere sostituita dall’IA. Ma ne sta subendo una trasformazione.
La vera frontiera non è se le macchine possano conoscere, ma se alle persone importi ancora farlo. Perché se si trascorre troppo tempo nel mondo del paraknowing, la sensazione di una comprensione autentica potrebbe gradualmente andare perduta. E quella perdita non arriverà con un crollo drammatico. Si presenterà come un ronzio: silenzioso, confortevole, mimetizzato nel bagliore degli schermi e nella soddisfazione delle risposte immediate.
Eppure, anche all’interno della straordinaria complessità matematica dei grandi modelli linguistici – alcuni dei quali operano su 12.288 dimensioni, spazi così vasti da sfidare l’intuizione umana – permane una strana piattezza. Una complessità che è, in qualche modo, anche un vuoto. Uno spazio vasto in cui vagare, alla ricerca di un centro che potrebbe non esserci affatto.
La domanda a cui vale la pena aggrapparsi non è come smettere di usare questi strumenti, ma come rimanere il tipo di pensatore che conosce la differenza tra una risposta e la sua comprensione.

