Come la dipendenza dall’IA sta rimodellando l’acquisizione della conoscenza
Namanyay Goel, uno sviluppatore esperto, non è molto impressionato dalla dipendenza della nuova generazione di smanettoni dai nuovi modelli di intelligenza artificiale.
“Ogni sviluppatore junior con cui parlo ha Copilot, Claude o GPT in esecuzione 24 ore su 24, 7 giorni su 7. Stanno inviando codice più velocemente che mai”, afferma Goel in un recente post sul blog, intitolato – in modo appropriato – ‘I nuovi sviluppatori junior non riescono a codificare veramente’.
“Certo, il codice funziona, ma se si chiede perché funziona in quel modo invece che in un altro? Silenzio”, ha commentato. “Chiedete dei casi limite? Sguardo vuoto”.
“La conoscenza fondamentale che una volta veniva acquisita lottando contro i problemi è semplicemente… scomparsa”, ha aggiunto.
Senza dubbio un tempo gli insegnanti di algebra che si lamentavano delle calcolatrici, e oggi nessuno metterebbe in dubbio il loro posto. Ma la lamentela di Goel non è necessariamente contro l’intelligenza artificiale, quanto piuttosto sul fatto che essa fornisce una stampella troppo allettante.
Come per ogni vocazione, per padroneggiarla bisogna prima lottare con essa e avere il coraggio di porre domande ai vecchi maestri. Nel periodo di massimo splendore di Goel, il posto giusto per farlo era StackOverflow. Il forum è ancora popolare, ma nell’era post-ChatGPT sempre più coder si rivolgono a grandi modelli linguistici per ottenere risposte.
“I giovani sviluppatori di questi tempi hanno vita facile. Vanno su chat.com e copiano e incollano tutti gli errori che vedono”, ha spiegato Goel.
Ma se l’intelligenza artificiale si limita a dare la risposta giusta, non costringe i nuovi arrivati a sintetizzare diverse possibilità e a riflettere sul problema.
“Con StackOverflow, dovevi leggere più discussioni di esperti per avere un quadro completo”, ha commentato Goel. “Era più lento, ma si capiva non solo cosa funzionava, ma anche perché funzionava”.
È una logica solida. E alcune ricerche possono avvalorare questa tesi. Un recente studio condotto da ricercatori di Microsoft e Carnegie Mellon ha suggerito che più le persone utilizzano l’IA – e più ripongono fiducia nelle sue risposte – più le loro capacità di pensiero critico si atrofizzano, come un muscolo che non viene utilizzato molto.
Lo studio presenta alcuni limiti, come il fatto che si basi su dati autodichiarati dai partecipanti in merito allo sforzo percepito come indicatore del pensiero critico, ma l’idea di scaricare le capacità cognitive non è poi così campata in aria.
Inoltre, c’è il fatto che la capacità di programmazione di molti di questi modelli di intelligenza artificiale può essere a volte piuttosto dubbia, in quanto sono tutti inclini ad avere allucinazioni. E se da un lato possono velocizzare il flusso di lavoro, dall’altro, come dimostrano alcune prove, la tecnologia finisce per inserire molti più errori nel codice.
Non è che possiamo rimettere il genio nella lampada. Goel sostiene che “il futuro non dipende da dove usiamo l’intelligenza artificiale, ma da come la usiamo”. Ma in questo momento “stiamo scambiando la comprensione profonda per soluzioni rapide”, ha affermato. “Pagheremo per questo più tardi”.
Oltre la programmazione: il crescente divario di conoscenze
Le implicazioni della dipendenza dall’IA si estendono ben oltre la programmazione. Gli educatori di diverse discipline stanno lanciando allarmi simili in merito a una generazione di studenti che si affida sempre più all’intelligenza artificiale per il proprio lavoro accademico.
La dottoressa Elena Martinez, docente di educazione medica all’Università di Stanford, ha notato tendenze preoccupanti tra i suoi studenti. “Quando chiedo agli studenti di spiegare la fisiopatologia che sta alla base di una diagnosi che hanno correttamente identificato, molti faticano ad articolare i meccanismi sottostanti”, ha spiegato. “Hanno chiesto la risposta a un’intelligenza artificiale, ma non hanno costruito l’impalcatura mentale che collega i sintomi ai sistemi”.
Il problema è particolarmente sentito nei campi in cui la comprensione profonda può essere letteralmente una questione di vita o di morte. “La medicina non è solo riconoscimento di modelli”, ha aggiunto Martinez. “Si tratta di capire perché questi schemi esistono e che cosa potrebbe interromperli. Questo richiede conoscenze fondamentali che non possono essere esternalizzate”.
Nella formazione giuridica, dove l’analisi dei casi e l’interpretazione dei precedenti costituiscono la spina dorsale della professione, i professori notano lacune simili. “Vediamo memorie tecnicamente valide ma prive di profondità analitica”, ha dichiarato Richard Paulson, professore di diritto costituzionale alla Columbia Law School. “La comprensione sfumata di come i principi giuridici si sono evoluti nel tempo è sempre più rara tra gli studenti che si affidano molto agli strumenti di sintesi dell’IA”.
Il costo sociale
Le implicazioni per la società in generale potrebbero essere profonde. Se un numero sempre maggiore di professionisti in tutti i settori si affida all’assistenza dell’IA senza sviluppare competenze approfondite, rischiamo di creare quelli che alcuni esperti chiamano “esperti vuoti”, ovvero persone con credenziali ma con una capacità limitata di innovare al di là di ciò che suggeriscono i loro strumenti di IA.
“L’innovazione avviene tipicamente all’intersezione tra una profonda conoscenza del dominio e il pensiero creativo”, ha affermato la dottoressa Sarah Wong, che studia l’innovazione tecnologica al MIT. “Quando esternalizziamo la comprensione, limitiamo la nostra capacità di fare salti concettuali che l’IA, addestrata sulla base delle conoscenze esistenti, semplicemente non può fare”.
C’è anche la questione della resilienza. I sistemi si guastano, le tecnologie diventano obsolete ed emergono nuove sfide che richiedono un pensiero flessibile piuttosto che la rigida applicazione di soluzioni note. Una forza lavoro che dipende dall’assistenza dell’IA potrebbe faticare ad adattarsi quando questi strumenti raggiungono i loro limiti.
“Stiamo potenzialmente creando una dipendenza dalla conoscenza che rispecchia altre forme di dipendenza tecnologica”, avverte il sociologo Marcus Rivera. “Proprio come molte persone oggi hanno difficoltà a navigare senza il GPS, potremmo presto vedere professionisti che hanno difficoltà a risolvere i problemi fondamentali senza l’assistenza dell’IA”.
Trovare l’equilibrio
Non tutti vedono la situazione in modo così negativo. Alcuni educatori e leader del settore sostengono che gli strumenti di IA, se correttamente integrati negli ambienti di apprendimento, possano effettivamente migliorare la comprensione piuttosto che sostituirla.
“La chiave è usare l’IA come strumento di insegnamento piuttosto che come macchina per le risposte”, afferma Jamie Kim, specialista in tecnologie dell’istruzione. “Quando si insegna agli studenti a interrogare le risposte dell’IA, a chiedersi ‘perché’ e ‘come’, anziché limitarsi ad accettare i risultati, l’IA può diventare un potente compagno di apprendimento”.
Anche le aziende stanno iniziando a riconoscere il problema che si potrebbe presentare. Alcune aziende tecnologiche stanno sviluppando versioni “in modalità di apprendimento” dei loro assistenti AI che spiegano deliberatamente i passaggi del ragionamento piuttosto che fornire semplicemente risposte.
“Dobbiamo progettare questi strumenti pensando all’acquisizione di conoscenze, non solo alla produttività”, afferma Alex Chen, che dirige un’ attività educativa sull’IA presso un’importante azienda tecnologica. “Ciò significa che a volte l’utente deve intenzionalmente lavorare da solo su alcune parti del problema”.
Goel non suggerisce di abbandonare completamente gli strumenti di IA. Piuttosto, sostiene un approccio più consapevole al loro utilizzo, in particolare durante le fasi di apprendimento formativo.
“Dico ai giovani sviluppatori di risolvere prima i problemi manualmente”, afferma. “Poi, una volta compresi i concetti fondamentali, si può usare l’intelligenza artificiale per accelerare il lavoro. Ma prima costruite le basi, perché è su quelle che farete affidamento quando l’IA vi darà qualcosa di sbagliato, e lo farà”.
Poiché l’IA continua a permeare ogni aspetto della vita professionale, trovare questo equilibrio tra l’utilizzo dell’assistenza tecnologica e il mantenimento di una comprensione profonda potrebbe diventare una delle sfide educative più importanti del nostro tempo. Le risposte che svilupperemo daranno forma non solo alle carriere individuali, ma anche alla base di conoscenza collettiva della società per le generazioni a venire.
In questo futuro potenziale, potremmo assistere all’emergere di due classi cognitive distinte: coloro che conservano la disciplina per sviluppare conoscenze approfondite insieme agli strumenti di intelligenza artificiale e coloro che delegano sempre più il loro pensiero ai sistemi artificiali. Quest’ultimo gruppo potrebbe trovarsi in una posizione particolare: professionalmente funzionale ma intellettualmente vuoto, capace di operare all’interno di sistemi che non comprende veramente.
La vita quotidiana potrebbe diventare più efficiente, ma intellettualmente meno profonda. I problemi complessi potrebbero essere “risolti” senza essere compresi. Diagnosi mediche fornite senza comprendere la biologia sottostante. Argomenti giuridici costruiti senza comprendere i fondamenti giurisprudenziali. Edifici progettati senza una conoscenza intuitiva dei principi strutturali.
Questa esternalizzazione della comprensione potrebbe creare una pericolosa fragilità nei nostri ecosistemi di conoscenze. Quando i sistemi di intelligenza artificiale raggiungeranno i loro limiti – come inevitabilmente accadrà con i nuovi problemi – coloro che hanno delegato la loro comprensione potrebbero ritrovarsi intellettualmente bloccati, incapaci di ragionare oltre i confini dei loro assistenti digitali.
L’aspetto forse più preoccupante è il potenziale impatto sull’innovazione stessa. Le vere scoperte spesso nascono da un’immersione profonda in un argomento, dalla competizione cognitiva con le contraddizioni e i limiti della nostra attuale comprensione. Se deleghiamo questo lavoro cognitivo all’IA, potremmo ritrovarci intrappolati in un ciclo di miglioramenti incrementali piuttosto che di intuizioni trasformative.
La visione ottimistica suggerisce che gli esseri umani potrebbero evolvere nuove specialità cognitive, diventando esperti nell’inquadrare le domande, nel sintetizzare la conoscenza generata dall’IA, nell’identificare i limiti del pensiero automatico. Forse svilupperemo nuove forme di intelligenza che integreranno piuttosto che competere con le capacità dell’IA.
Ma questo futuro non è predeterminato. Il modo in cui progettiamo i nostri sistemi educativi, il modo in cui strutturiamo i nostri luoghi di lavoro e il modo in cui scegliamo di interagire con gli strumenti dell’IA determineranno la creazione di una società di pensatori avanzati o di operatori dipendenti.
La domanda più cruciale potrebbe non essere se l’IA è in grado di capire per noi, ma se insisteremo nel voler capire per noi stessi. La risposta determinerà non solo il nostro futuro tecnologico, ma la natura stessa della conoscenza umana nell’era dell’intelligenza artificiale.