Un neuroscienziato sottolinea l’importanza di un’IA più “cosciente”

I chatbot si stanno evolvendo rapidamente e ora, grazie all’intelligenza artificiale, sono in grado di comunicare con le persone con un linguaggio naturale, come avviene con le persone reali. Tuttavia, sebbene queste conversazioni possano sembrare intraprese da esseri umani, mancano di sentimenti.

A questo proposito, un neuroscienziato di Princeton ha spiegato che i chatbot alimentati dall’intelligenza artificiale potrebbero apparire sociopatici se continueranno a essere privi di emozioni.

Secondo la definizione, un sociopatico è una persona con disturbo antisociale di personalità, una malattia mentale definita dall’abitudine ricorrente di trascurare i diritti e i sentimenti degli altri. Le persone che soffrono di disturbo antisociale di personalità agiscono spesso in modo manipolativo o disonesto e possono anche avere impulsi criminali o violenti.

Questo, applicato alle IA, significa che la loro eccessiva razionalità può portarle a fare scelte che mirano più all’intento dei loro creatori o di chi le controlla piuttosto che agire onestamente. Ad esempio, un’IA creata per vendere prodotti potrebbe manipolare razionalmente l’interlocutore per indurlo ad acquistare quel prodotto senza tener conto dell’etica.

Secondo un recente saggio del neuroscienziato di Princeton Michael Graziano, pubblicato dal Wall Street Journal, questi chatbot potrebbero essere una vera minaccia per le persone, a meno che gli sviluppatori non incorporino una maggiore sensibilità.

I rischi associati all’IA potrebbero non essere così evidenti in questo momento, ma con il miglioramento e lo sviluppo di queste tecnologie avanzate, potrebbero evolversi in futuro. Graziano suggerisce di integrare aspetti umani come l’empatia e la condotta prosociale per renderle più simili agli esseri umani. In particolare, il neurologo sostiene che per far sì che questi sistemi comprendano queste caratteristiche e modifichino il loro comportamento per essere più in linea con gli ideali umani, avranno bisogno di un qualche tipo di coscienza incorporata.

Tuttavia, la “coscienza” non è qualcosa che possa appartenere alle macchine. È come parlare di macchine e di anime. Sono ambiti contrapposti.

È estremamente difficile quantificare la consapevolezza e, dal punto di vista filosofico, è persino difficile stabilire se alcuni individui o robot siano anche solo in parte coscienti. Un “test di Turing al contrario”, che misuri la capacità di una macchina di mostrare un comportamento intelligente paragonabile o indistinguibile da quello di una persona, è il suggerimento di Graziano su come dovrebbe essere valutata un’IA. Un computer dovrebbe essere testato per vedere se è in grado di distinguere tra il parlare con un umano e un altro computer, piuttosto che testare la macchina per vedere se agisce come farebbe un umano.

L’empatia, tuttavia, può essere raggiunta anche razionalmente. Infatti, la capacità di comprendere e condividere i sentimenti degli altri può essere sia affettiva che cognitiva.

  • Empatia affettiva: nota anche come empatia emotiva, consiste nel provare le emozioni che gli altri stanno vivendo;
  • Empatia cognitiva: implica la capacità di comprendere e assumere la prospettiva dei pensieri e dei sentimenti altrui, senza necessariamente provare le emozioni in prima persona.

Pertanto, anche solo l’empatia cognitiva potrebbe contribuire a migliorare le IA che siano meno razionali e attente ai bisogni e ai sentimenti delle persone.

Secondo Graziano, se non si risolvono questi problemi, si creeranno potenti macchine sociopatiche in grado di esprimere giudizi rilevanti. Egli sostiene che i sistemi come ChatGPT e altri modelli linguistici sono attualmente solo agli inizi. Tuttavia, questo potrebbe cambiare nel giro di un anno o cinque se la ricerca sulla “consapevolezza” delle macchine continuerà e lo sviluppo progredirà.

“Una macchina sociopatica in grado di prendere decisioni consequenziali sarebbe estremamente pericolosa. Per ora le capacità dei chatbot sono ancora limitate, sono essenzialmente dei giocattoli, ma se non riflettiamo più a fondo sulla coscienza delle macchine, tra un anno o cinque anni potremmo trovarci di fronte a una crisi”, ha dichiarato Graziano.

Le IA potrebbero essere addestrate a comprendere le diverse conseguenze emotive che una persona può provare in base alla direzione del loro comportamento, in modo da capire come agire in modo più etico. Tuttavia un’IA troppo ‘consapevole’ potrebbe anche avere risvolti imprevedibili e il concetto di etica potrebbe comunque modificarsi nel tempo e/o essere travisato con un inganno razionale. Il film “Io, robot” ne è un esempio.