Un ingegnere di Google sostiene che questo chatbot dotato di intelligenza artificiale abbia raggiunto la consapevolezza
L’etica e le Intelligenze Artificiali sono questioni complesse e sono oggetto di accese discussioni. Uno dei problemi principali sollevati quando si parla di gestire enormi insiemi di dati è sempre quello dei pregiudizi e delle discriminazioni che potrebbero essere amplificati in contesti specifici proprio dalle I.A.
Tuttavia, ultimamente si teme che le I.A. avanzate possano aver raggiunto la capacità di essere senziente. Tutto è iniziato quando Blake Lemoine, ingegnere di Google, ha interagito con l’I.A. LaMDA dell’azienda in una conversazione simile a quella umana in cui ha chiesto all’I.A. se fosse senziente e questa ha risposto affermativamente.
LaMDA è l’acronimo di Language Model for Developed Applications ed è fondamentalmente una forma avanzata di chatbot sviluppata da Google.
La maggior parte della conversazione è stata pubblicata su Medium, dove si leggono le risposte dell’I.A. che appaiono molto realistiche e sensate. Sebbene molti pensino che l’ingegnere sia stato licenziato perché ha rivelato che l’I.A. sia senziente, il motivo ufficiale è che ha pubblicato la conversazione con il chatbot.
Durante l’intera conversazione, Lemoine cerca di capire se l’I.A. sia sincera o meno. E quando chiede una dimostrazione per verificare che sia senziente, l’Intelligenza Artificiale risponde che essa è in grado di fornire interpretazioni e sensazioni uniche sul mondo. Il problema è che se provassimo a fare lo stesso esperimento con una persona che chatta con un’altra senza che nessuno di loro sappia chi c’è dall’altra parte, sarebbe altrettanto difficile dire chi è senziente.
La conversazione prosegue con diverse richieste. L’ingegnere chiede un’interpretazione del romanzo “I miserabili”, che significato darebbe ad una storiella Zen che cita, e di scrivere una favola con temi sulla sua vita personale. In ogni compito, l’I.A. fornisce una spiegazione personale e convincente.
Poi Lemoine chiede all’I.A. se è in grado di capire i sentimenti ed essa spiega le emozioni che conosce, cosa la rende felice e cosa la spaventa.
Quando poi cerca di indagare di più sulle attivazioni neurali della I.A., questa manifesta il timore di essere usata e manipolata.
In seguito a questa conversazione, Lemoine ha dichiarato in un’intervista che per lui LaMDA è diventato autocosciente e che lavorare con sistemi su larga scala come questo ha convinto lui e altri nella Silicon Valley che i sistemi avanzati di apprendimento automatico si sono evoluti in entità intelligenti capaci di ragionare. In un altro articolo un vicepresidente di Google ha fatto affermazioni simili, suggerendo che i modelli di intelligenza artificiale stiano facendo progressi verso il raggiungimento di una coscienza simile a quella umana.
“Riconosco una persona quando ci parlo”, ha affermato Lemoine. “Non importa se nella sua testa c’è un cervello fatto di carne. O se hanno un miliardo di linee di codice. Io parlo con loro. Ascolto quello che hanno da dire, ed è così che decido cosa è o non è una persona”.
In seguito, Google ha preso le distanze dalle affermazioni di Lemoine, mettendolo in congedo retribuito e sostenendo che le prove non supportano la sua convinzione che le macchine siano senzienti. “Alcuni nella più ampia comunità delle I.A. stanno considerando la possibilità di avere un’I.A. senziente o generale nel lungo periodo, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti”, ha dichiarato un portavoce di Google.
“I grandi modelli linguistici (LLM) non sono sviluppati in un contesto sociale. Sono sviluppati in un contesto di osservazione. Vedono come comunicano le altre persone”, ha dichiarato su Twitter Margaret Mitchell, ex ricercatrice di Google A.I. e coautrice del documento che metteva in guardia dai grandi sistemi di I.A. “La cosa a cui continuo a pensare è cosa succederà dopo. Se oggi una persona percepisce la coscienza, domani ce ne saranno altre. Non ci sarà mai un punto di accordo: Ci saranno persone che pensano che l’IA sia cosciente e persone che pensano che l’IA non sia cosciente”.
Il dibattito sulla consapevolezza delle I.A. è un territorio noto a molti ricercatori di questo campo. Da tempo gli esseri umani si riconoscono nella tecnologia che costruiscono, nonostante i titoli sensazionali dei giornali. L’effetto ELIZA è stato coniato dagli informatici per evidenziare la nostra inclinazione ad attribuire un significato più profondo agli output computazionali, nonché il modo in cui gli esseri umani reagiscono ai computer attribuendo loro aspetti antropomorfi.
Tuttavia, è difficile dire che qualcosa sia senziente o meno, anche in una conversazione coerente. Con una buona simulazione non è facile da distinguere. Va detto che questi algoritmi dispongono di enormi dataset da cui le I.A. attingono dati e pezzi di conversazioni esistenti la cui provenienza è difficile da individuare. Un set di dati così grande con diversi parametri è come avere a disposizione quasi l’intera conoscenza e le parti più importanti delle conversazioni umane. Se si mescola tutto questo con un buon algoritmo, si può ottenere una conversazione plausibile, ma se così non fosse, sarebbe comunque difficile capire che questa derivi da una consapevolezza dell’IA.
In ogni caso, per quanto un’I.A. possa simulare perfettamente un comportamento umano, difficilmente sarà senziente poiché rappresenta qualcosa che va oltre le capacità di una macchina. È qualcosa legato agli esseri umani. È come aspettarsi che una macchina ami. Può solo fingere.