Gli esseri umani influenzano i dati e a loro volta l’intelligenza artificiale

Un bias è una distorsione del pensiero a favore o contro un’idea, una persona, un gruppo, un avvenimento o una cosa, di solito in un modo pregiudizievole o ingiusto. Tali comportamenti possono essere innati o appresi.

È impossibile che una persona sia sempre imparziale, quindi tutti i dati prodotti dagli umani inevitabilmente influiscono sui set di dati utilizzati dalle I.A.

L’evoluzione dell’I.A. in tanti campi potrebbe essere utile, ma anche pericolosa se non consideriamo che le sue decisioni sono influenzate da bias perché possono portare a un risultato che pensiamo sia vero quando magari è stato precedentemente condizionato ed è tutt’altro che obiettivo.

Gli esseri umani sono affetti da bias cognitivi, un errore sistematico nel pensiero che si verifica quando le persone elaborano e interpretano le informazioni nel mondo che li circonda e influenza le decisioni e i giudizi che prendono. 

Alcuni di questi bias sono legati alla memoria. Quindi il modo in cui si ricorda un evento può essere distorto per molte ragioni.

Altri bias cognitivi potrebbero essere legati a problemi di attenzione. Poiché l’attenzione è una risorsa limitata, le persone tendono ad essere selettive.

La memoria e l’attenzione sono quindi una sorta di filtro che può alterare il modo in cui percepiamo la realtà.

Ecco alcuni esempi di bias cognitivi:

  1. Bias di conferma: la tendenza ad ascoltare maggiormente le informazioni che confermano le nostre credenze esistenti. Attraverso questo bias, le persone tendono a favorire le informazioni che rafforzano le cose che già pensano o credono.
  2. Pregiudizio del senno di poi: un bias cognitivo comune che comporta la tendenza a vedere gli eventi, anche quelli casuali, come più prevedibili di quanto non siano.
  3. Bias di ancoraggio: la tendenza a essere eccessivamente influenzati dalla prima informazione che sentiamo.
  4. Effetto disinformazione: la tendenza dei ricordi a essere pesantemente influenzati da cose accadute dopo l’evento stesso.
  5. Pregiudizio attore-osservatore: la tendenza ad attribuire le nostre azioni a influenze esterne e le azioni degli altri a quelle interne.
  6. Effetto falso consenso: la tendenza delle persone a sovrastimare quanto le altre persone siano d’accordo con le proprie credenze, comportamenti, atteggiamenti e valori.
  7. Effetto aureola: la tendenza a influenzare l’impressione iniziale di una persona su ciò che pensiamo di lei in generale.
  8. Pregiudizio autosuggestionante: la tendenza delle persone a darsi il merito per i successi, ma a dare la colpa dei fallimenti a cause esterne.
  9. Euristica della disponibilità: la tendenza a stimare la probabilità che qualcosa accada in base a quanti esempi ci vengono subito in mente.
  10. Pregiudizio dell’ottimismo: la tendenza a sovrastimare la probabilità che ci accadano cose buone e a sottostimare la probabilità che eventi negativi abbiano un impatto sulla nostra vita.
AI bias
Foto: British Medical Journal

Il termine bias è anche usato quando si parla di reti neurali assieme al termine peso. 

I pesi controllano il segnale (o la forza della connessione) tra due neuroni artificiali, mentre il bias è un parametro aggiuntivo nella rete neurale che viene utilizzato per regolare l’uscita insieme alla somma pesata degli ingressi al neurone. Quindi il bias è una costante che aiuta la rete neurale ad adattarsi meglio ai dati forniti.

L’I.A. può presentare però dei bias cognitivi, e una mancanza di dati sufficienti: quando le informazioni non sono abbastanza a garantire che una tale area di interesse sia completamente coperta.

Ecco alcuni esempi noti di bias di I.A. che hanno causato alcuni problemi:

Lo strumento di reclutamento di Amazon

Amazon ha iniziato un progetto di I.A. nel 2014 con l’obiettivo di automatizzare i processi di assunzione. La loro iniziativa era interamente incentrata sulla revisione dei curriculum e sulla valutazione dei candidati utilizzando algoritmi alimentati dall’I.A., permettendo ai reclutatori di spendere meno tempo nello smistamento dei curriculum. Nel 2015, tuttavia, Amazon aveva scoperto che il loro nuovo algoritmo di reclutamento basato sull’i.A. non classificava equamente i candidati ed era prevenuto nei confronti delle donne.

Sanità

Un algoritmo di previsione del rischio sanitario che riguardava più di 200 milioni di americani ha mostrato pregiudizi razziali poiché si è basato su un scarso criterio per stabilire le effettive esigenze dei pazienti.

L’algoritmo è stato creato per prevedere quali pazienti avrebbero avuto bisogno di maggiore assistenza medica, tuttavia si è scoperto in seguito che il sistema stava dando risultati errati che favorivano i pazienti bianchi rispetto ai pazienti neri.

Annunci su Facebook

Nel 2019, Facebook ha iniziato a permettere agli inserzionisti di indirizzare gli annunci in base a sesso, razza e religione. Ad esempio, le donne sono state favorite negli annunci di lavoro per le posizioni di infermiere e segretarie, mentre bidelli e tassisti sono stati ampiamente pubblicizzati agli uomini, in particolare quelli provenienti da minoranze.

L’intelligenza artificiale può essere resa imparziale?

È possibile costruire un sistema I.A. che prenda decisioni imparziali basate sui dati se si riesce a ripulire il proprio set di dati di addestramento dai preconcetti consci e inconsci su razza, genere e altre idee ideologiche.

Nel mondo reale, però, non ci aspettiamo che l’I.A. sia sempre perfettamente obiettiva. L’intelligenza artificiale può essere buona come i dati, e i dati sono creati dalle persone. Esistono diversi pregiudizi fra gli esseri umani, e la scoperta di nuovi pregiudizi ne aumenta sempre di più il numero complessivo. Dopo tutto, gli esseri umani creano dati distorti, che vengono poi controllati da esseri umani e algoritmi creati dall’uomo per scoprire e rimuovere le distorsioni. Possiamo però ridurre i pregiudizi dell’I.A. conducendo test sui dati e sugli algoritmi, oltre a implementare altre procedure.

Secondo McKinsey ci sono alcune pratiche che si possono utilizzare per minimizzare i bias dell’intelligenza artificiale:

  1. Essere consapevoli dei contesti in cui l’intelligenza artificiale può aiutare a correggere i pregiudizi e dove può aggravarli;
  2. Stabilire processi e pratiche per mitigare i pregiudizi;
  3. Impegnarsi in discussioni sui potenziali pregiudizi nelle decisioni umane;
  4. Esplorare come gli esseri umani e le macchine possano lavorare meglio insieme;
  5. Investire di più nella ricerca dei bias;
  6. Investire di più nella diversificazione del campo dell’intelligenza artificiale stessa.
how to tackle bias
Foto McKinsey & Company

Secondo il Dr. Shay Hershkovitz di SparkBeyond, una società di risoluzione dei problemi basata sull’I.A. però, per ridurre l’impatto del bias dell’I.A. suggerisce:

  • Di costruire sistemi di I.A. che forniscano previsioni/decisioni comprensibili;
  • Combinare queste soluzioni con procedure umane che diano un controllo adeguato;
  • Assicurare che le soluzioni dell’I.A. siano adeguatamente valutate e aggiornate su base regolare.

Quando tutte le suddette idee saranno passate in rassegna, diventa chiaro che gli esseri umani dovranno giocare un ruolo chiave nel ridurre i bias dell’intelligenza artificiale. Hershkovitz offre quanto segue come mezzo per raggiungere questo obiettivo:

  • Le aziende e le organizzazioni devono essere completamente trasparenti e responsabili dei sistemi di intelligenza artificiale che creano;
  • Le decisioni prese dai sistemi di I.A. devono poter essere monitorate dagli esseri umani;
  • L’istituzione di standard per la comprensione delle decisioni prese dai sistemi di I.A. dovrebbe essere una priorità assoluta;
  • Le aziende e le organizzazioni dovrebbero educare e insegnare ai loro sviluppatori come trattare l’etica nello sviluppo degli algoritmi. Le Raccomandazioni del Consiglio sull’intelligenza artificiale dell’OCSE del 2019 (PDF), che copre le questioni etiche dell’intelligenza artificiale, è un buon punto di partenza.

L’intelligenza artificiale gestirà così tanti campi che è importante fornire algoritmi che non discriminino sulla base di qualche dataset impreciso poiché se ciò venisse trascurato potrebbe portare a risultati non equi di cui non sempre si è consapevoli dato che daremmo per scontato che l’I.A. abbia sempre ragione. E questo sarebbe un grosso errore. La critica è sempre necessaria per evitare la sottomissione.

Fonte techrepublic.com