La gente può essere manipolata dall’intelligenza artificiale senza rendersene conto

La manipolazione tra gli esseri umani non è qualcosa di nuovo. Le persone si manipolano a vicenda volontariamente e involontariamente. Non importa se le conosciamo bene o no, lo fanno. Poi ci sono le aziende, il governo e le istituzioni. La tecnologia, in questo senso, ha dato una mano alla manipolazione, anche più dei media tradizionali. Però con l’intelligenza artificiale la gente potrebbe essere più vulnerabile che mai.

Il tuo comportamento, sul web ma anche nella vita reale che può essere rilevato per esempio dai tuoi pagamenti, GPS, reti WIFI, ecc… potrebbe essere utilizzato da una I.A. per tracciare le tue abitudini e delineare la tua personalità che può aiutare ad anticipare le tue scelte e i tuoi gusti così come a indirizzarti verso decisioni specifiche senza che tu te ne renda conto. Meglio di qualsiasi pubblicità.

Se sanno come ti muovi, possono tracciare il percorso verso il loro obiettivo, che si tratti di comprare qualcosa, condividere qualcosa, votare qualcuno e molte altre cose.

Un gruppo di accademici dell’organizzazione scientifica e di ricerca federale australiana, la Commonwealth Scientific and Industrial Research Organisation, ha recentemente condotto una serie di studi per scoprire come l’intelligenza artificiale influenzi il processo decisionale umano. I risultati hanno rivelato che l’I.A. può identificare e sfruttare le debolezze nel processo decisionale umano al fine di guidare le persone verso determinati risultati.

“Le implicazioni di questa ricerca sono piuttosto sconcertanti”, ha dichiarato Amir Dezfouli, un esperto di apprendimento automatico al CSIRO e ricercatore principale dello studio.

Questi algoritmi possono farvi compiere alcune azioni sul web, non solo perché sanno molto di voi, ma anche perché sanno quali strategie sono più idonee a convincervi a fare una scelta piuttosto che un’altra senza che ve ne rendiate conto e come.

“La parte difficile è che l’intelligenza artificiale è in qualche modo ancora un po’ una scatola nera”, ha affermato Shane Saunderson, che fa ricerche sull’interazione uomo-robot all’Università di Toronto.

“Non è una macchina che dice esplicitamente che due più due è uguale a quattro. È una macchina a cui mostri un mucchio di dati e che analizza quei dati per trovare schemi o classificazioni o intuizioni da cui può ricavare qualcosa. E non sempre sappiamo esattamente come lo fa”.

Il soggetto dietro una I.A. non deve necessariamente avere un intento negativo, ma le conseguenze possono comunque portare a qualcosa di imprevedibile.

L’eccesso di informazioni è una delle cause della facile manipolazione: la gente è sopraffatta dalle informazioni e ha meno tempo per prestare attenzione a tutte le cose a cui è interessata. Quindi, c’è meno lettura approfondita e infatti la diffusione dei meme riflette l’informazione di bassa qualità in cui gli algoritmi di I.A. si fanno strada.

Inoltre, la nostra tendenza a preferire informazioni da persone di cui ci fidiamo e che si sposano bene con ciò che già conosciamo, può essere un’altra debolezza che una I.A. può usare per mostrarci ciò che vuole in modo da fidarci di più.

Gli esperimenti hanno rivelato che anche quando le persone vengono presentate con informazioni equilibrate che includono punti di vista da tutte le prospettive, tendono a trovare prove a sostegno di ciò che già credono. Quando persone con punti di vista opposti su questioni emotivamente sensibili sono esposte agli stessi fatti, allora diventano ancora più irremovibili nelle loro convinzioni originali.

Inoltre, in assenza di segnali evidenti, il nostro cervello deduce azioni appropriate basate sulle informazioni seguite dalla massa, e i social media seguono un modello simile. Confondiamo facilmente la popolarità con la qualità, e finiamo per seguire ciò che vediamo. Inoltre, è stato osservato che sui social network le informazioni negative si diffondono anche più facilmente.

Dezfouli ricorda che il modo in cui costruiamo e impieghiamo responsabilmente queste tecnologie determina se siano usate per il bene o per il male. Il CSIRO e il governo australiano hanno creato un codice etico per le I.A. nelle istituzioni e nell’industria al fine di garantire risultati positivi. Questi principi includono:

  • Benessere umano, sociale e ambientale: I sistemi di I.A. dovrebbero avvantaggiare gli individui, la società e l’ambiente.
  • Valori centrati sull’uomo: I sistemi di I.A. dovrebbero rispettare i diritti umani, la diversità e l’autonomia degli individui.
  • Equità: I sistemi di I.A. dovrebbero essere inclusivi e accessibili, e non dovrebbero comportare o causare ingiuste discriminazioni contro individui, comunità o gruppi.
  • Protezione della privacy e sicurezza: I sistemi di I.A. dovrebbero rispettare e sostenere i diritti alla privacy e la protezione dei dati, e garantire la sicurezza degli stessi.
  • Affidabilità e sicurezza: I sistemi di I.A. dovrebbero funzionare in modo affidabile in conformità con il loro scopo previsto.
  • Trasparenza e comprensibilità: Ci dovrebbe essere trasparenza e una comunicazione responsabile in modo che le persone possano capire quando sono significativamente influenzate dall’I.A., e possano scoprire quando un sistema di I.A. si stia relazionando con loro.
  • Contestabilità: Quando un sistema di I.A. ha un impatto significativo su una persona, una comunità, un gruppo o un ambiente, ci dovrebbe essere un processo tempestivo per permettere alle persone di contestare l’uso o i risultati del sistema stesso.
  • Responsabilità: Le persone responsabili delle diverse fasi del ciclo di vita del sistema di I.A. dovrebbero essere identificabili e responsabili dei risultati dei sistemi stessi, e la supervisione umana dei sistemi di I.A. dovrebbe essere abilitata.

Tuttavia, la maggior parte di questi principi non hanno un riscontro al momento, ma speriamo che ci sia presto uno standard per una I.A. più etica.

Fonte discoverymagazine.com