Due autori spiegano come l’I.A. potrebbe imparare a farlo

Una delle aree più impegnative dell’I.A. è sicuramente l’elaborazione del linguaggio naturale che sta ormai migliorando la capacità di un’intelligenza artificiale di usare il linguaggio per comunicare, scrivere, elaborare dati non strutturati, analizzarli e tradurre testi.

Tuttavia, la sfida fondamentale della comprensione del linguaggio deve ancora essere risolta.

2 sistemi basati sulla conoscenza

Il linguaggio è pieno di ambiguità. Gli esseri umani risolvono tali ambiguità usando il contesto, che determiniamo utilizzando indizi provenienti dal tono di chi parla, le parole e le frasi usate precedentemente, l’impostazione generale della conversazione e la comprensione di base del mondo. Inoltre, facciamo domande quando le nostre intuizioni e la nostra conoscenza non ci soddisfano. Il processo di determinazione del contesto è semplice per gli esseri umani. Tuttavia, definire lo stesso processo in modo computazionale è più difficile di quanto sembri.

Ci infatti sono generalmente 2 approcci per affrontare questo problema.

Uno è il sistema basato sulla conoscenza (knowledge-based system) che definisce il ruolo di ogni parola in una frase ed estrae da lì il contesto e il significato. Ci sono una serie di caratteristiche relative al linguaggio, al contesto e al mondo che sono utilizzate dai sistemi basati sulla conoscenza. Questi dati possono provenire da varie fonti e vengono calcolati con vari metodi.

L’analisi del linguaggio è resa più affidabile e comprensibile utilizzando tali sistemi. Tuttavia, poiché l’ingegnerizzazione delle caratteristiche, la creazione di strutture lessicali e ontologie, e lo sviluppo di sistemi software che riunivano tutte queste componenti richiedevano troppo sforzo umano per continuare ad essere usate. Lo sforzo fatto manualmente dall’ingegneria in tal senso venne visto come un ostacolo dai ricercatori, che cercarono modi alternativi per affrontare l’elaborazione del linguaggio.

I modelli di apprendimento automatico, invece, sono sistemi che fanno affidamento sulla conoscenza (knowledge-lean system) che usano relazioni statistiche per risolvere il problema del contesto. Questo secondo approccio elabora massicci corpora di testo durante l’addestramento e mette a punto i parametri a seconda di come le parole appaiono vicine le une alle altre. Quindi le relazioni statistiche tra le sequenze di parole, non il significato dietro le parole, determinano il contesto in questi modelli. Naturalmente, più grande è il set di dati e più diversificati sono i campioni, migliore è la capacità di questi parametri numerici di catturare la varietà di modi in cui le parole possono apparire l’una accanto all’altra.

Il problema dell’elaborazione del significato

I modelli di apprendimento profondo (deep learning model) possono ora generare sequenze di testo lunghe quanto un articolo, rispondere alle domande di un test scientifico, scrivere il codice sorgente di un software e rispondere alle richieste più basilari di assistenza ai clienti. La maggior parte di questi ambiti è progredita grazie al miglioramento delle architetture di apprendimento profondo e, più significativamente, a reti neurali sempre più grandi nel corso degli anni.

Tuttavia, mentre le reti neurali sempre più approfondite possono migliorare in alcuni compiti in modo incrementale, non risolvono il problema più ampio che riguarda l’elaborazione del significato del linguaggio naturale.

Alcuni esperti credono che continuando a scalare le reti neurali, i problemi che l’apprendimento automatico incontrerà potrebbero alla fine essere risolti. Tuttavia, McShane e Nirenburg (autori di Linguistics for an AI Age [Linguistica nell’era della IA]) sostengono che debbano essere affrontate questioni più basilari.

L’apprendimento automatico, secondo McShane, uno scienziato cognitivo e linguista computazionale, deve superare numerosi ostacoli, il primo dei quali è la mancanza di significato.

“L’approccio di apprendimento statistico/macchina (S-ML) non cerca di elaborare il significato”, ha spiegato McShane. “Invece, si procede come se le parole fossero un sostituto sufficiente per i loro significati, cosa che non sono. Infatti, le parole di una frase sono solo la punta dell’iceberg per quanto riguarda il significato completo e contestuale delle frasi. Confondere le parole con i significati è un approccio all’I.A. tanto rischioso quanto navigare in direzione di un iceberg”.

Gli algoritmi di apprendimento automatico, per la maggior parte, evitano di avere a che fare con il significato delle parole semplificando o espandendo il dataset di allenamento. Tuttavia, anche se una grande rete neurale riuscisse a mantenere la coerenza per un lungo periodo di tempo, non riuscirebbe comunque a capire il significato delle parole che genera. Questo è il caso di GPT-3.

Poiché i loro parametri non riescono a catturare la complessità illimitata della vita quotidiana, tutti i modelli linguistici basati sull’ apprendimento profondo iniziano a mostrare i propri limiti non appena si sottopone loro una serie di richieste secondarie anche se correlate. Aggiungere più dati al problema non è quindi una soluzione alla sfida dell’integrazione della conoscenza esplicita nei modelli linguistici.

Agenti intelligenti dotati di linguaggio (LEIA [ Language endowed intelligent agents])

McShane e Nirenburg forniscono una strategia per affrontare l’ostacolo della conoscenza nell’ elaborazione del linguaggio naturale, senza ricorrere a metodi basati sul puro apprendimento automatico che richiedono enormi quantità di dati.

Il concetto di agenti intelligenti dotati di linguaggio (LEIA) è al centro del libro Linguistics for the Age of AI, e ha 3 caratteristiche fondamentali:

  1. I LEIA sono in grado di comprendere il significato relativo al contesto e di muoversi tra parole e frasi ambigue.
  2. I LEIA possono spiegare le loro idee, attività e decisioni alle loro controparti umane.
  3. I LEIA, come gli esseri umani, possono imparare durante la loro vita mentre interagiscono con gli esseri umani, con altri agenti e l’ambiente. L’apprendimento costante elimina il requisito dello sforzo umano continuo per sviluppare le conoscenze di base degli agenti intelligenti.

I LEIA passano attraverso 6 fasi di elaborazione del linguaggio naturale: dalla determinazione del ruolo delle parole nelle frasi attraverso l’analisi semantica fino al ragionamento situazionale. Il LEIA può utilizzare queste fasi per risolvere i conflitti tra più interpretazioni di parole e frasi, così come integrare la frase nel contesto più ampio dell’ambiente in cui l’agente sta funzionando.

I LEIA assegnano livelli di fiducia alle loro interpretazioni degli enunciati linguistici e capiscono dove finiscono le loro capacità e le loro conoscenze. In tali circostanze, risolvono l’ambiguità interagendo con le loro controparti umane (o agenti intelligenti nel loro ambiente e altre risorse disponibili). Come risultato di questi contatti, sono in grado di acquisire nuove cose e ampliare le loro conoscenze.

I LEIA trasformano le frasi in rappresentazioni di significato testuale (TMR [text-meaning representations]), che sono una definizione comprensibile e utilizzabile di ogni parola in una frase. I LEIA valutano quali input linguistici devono essere seguiti in base al contesto e agli obiettivi.

I LEIA si orientano verso sistemi basati sulla conoscenza, ma incorporano anche modelli di apprendimento automatico nel processo, in particolare nelle prime fasi dell’elaborazione del linguaggio durante il parsing delle frasi.

Per la comprensione del linguaggio naturale serve una replica di un cervello umano?

L’integrazione di basi di conoscenza, moduli di ragionamento e input sensoriali è una delle caratteristiche principali di LEIA. Attualmente, campi come la computer vision e l’elaborazione del linguaggio naturale hanno pochissime similitudini.

Gli esseri umani però usano la loro vasta esperienza sensoriale per riempire le lacune dei loro enunciati linguistici nel mondo reale. Gli esseri umani continuano a costruire modelli mentali l’uno dell’altro, che usano per fare supposizioni e per omettere caratteristiche del linguaggio. Qualsiasi agente intelligente che comunichi con noi nella nostra lingua dovrebbe avere però capacità simili.

Nel frattempo, i LEIA non hanno bisogno di replicare il cervello umano per ottenere un comportamento simile a quello dell’uomo.

In Linguistics for the Age of AI, secondo McShane e Nirenburg, imitare il cervello non aiuterà l’I.A. a raggiungere la sua missione di essere spiegabile. “[Gli agenti] che operano in squadre umano-agenti hanno bisogno di comprendere gli input al grado richiesto per determinare quali obiettivi, piani e azioni dovrebbero perseguire come risultato della Comprensione del Linguaggio Naturale”, secondo quanto scrivono gli autori.

In conclusione, la capacità di comprensione dell’intelligenza artificiale migliorerà sempre di più nel corso degli anni e la sua capacità di simulare la comprensione ci apparirà come qualcosa di reale e sempre più simile alle capacità di comprensione umana. Tuttavia, sarà sempre una simulazione che potrebbe però anche ingannare gli esseri umani da ciò che è la vera umanità.

Fonte venturebeat.com