La loro capacità di influenzare i nostri pensieri e comportamenti in tempo reale apre anche la porta a pericolose manipolazioni

Le vostre orecchie diventeranno presto la casa di un assistente virtuale che vi sussurrerà istruzioni mentre svolgete la vostra routine quotidiana. Parteciperà attivamente a ogni aspetto della vostra vita, offrendovi informazioni utili. Tutte le vostre esperienze, comprese le interazioni con estranei, amici, familiari e colleghi, saranno mediate da questa IA.

Va da sé che la parola “mediare” è un eufemismo per dire che l’IA avrà il controllo sulle vostre azioni, parole, sentimenti e pensieri. Molti troveranno quest’idea sconvolgente, ma come società abbracceremo la tecnologia e ci lasceremo guidare costantemente da voci amiche che ci consigliano e ci guidano con una tale competenza che ci chiederemo rapidamente come abbiamo fatto senza tale supporto in tempo reale.

Consapevolezza del contesto

La maggior parte delle persone associa il termine “assistente virtuale” a strumenti obsoleti come Siri o Alexa, che consentono di formulare richieste dirette tramite comandi vocali. Non è questo il caso. Infatti, gli assistenti di prossima generazione saranno dotati di un nuovo elemento che cambierà tutto: la consapevolezza del contesto.

Grazie a questa caratteristica aggiuntiva, questi sistemi saranno in grado di reagire non solo alle parole pronunciate, ma anche ai suoni e ai panorami dell’ambiente circostante, che vengono registrati dai microfoni e dalle telecamere dei dispositivi indossabili dotati di intelligenza artificiale.

Secondo questo articolo, gli assistenti virtuali consapevoli del contesto, che vi piacciano o meno, diventeranno di uso comune e modificheranno profondamente la nostra società nel breve termine, creando una serie di nuove minacce alla privacy, oltre a una miriade di importanti capacità.

Ovunque andiate, questi assistenti vi offriranno informazioni utili, perfettamente sincronizzate con le vostre azioni, le vostre parole e la vostra vista. Sarà come un superpotere: una voce nella vostra testa che sa tutto, dai nomi delle piante che incrociate durante un’escursione alle specifiche dei prodotti esposti nelle vetrine dei negozi, fino alla ricetta migliore che potete realizzare con gli ingredienti casuali presenti nel vostro frigorifero, poiché i consigli vengono dati in modo così naturale e senza sforzo.

In compenso, se le aziende impiegheranno questi affidabili assistenti per fornire pubblicità conversazionale su misura, questa voce onnipresente potrà risultare estremamente persuasiva, se non addirittura manipolativa, nel momento in cui vi aiuterà a svolgere le vostre attività quotidiane.

LLM multimodali

È possibile ridurre il rischio di manipolazione dell’IA, ma per farlo è necessario che i legislatori prestino attenzione a questa importante questione, che finora ha ricevuto poca considerazione. Le autorità di regolamentazione non hanno avuto molto tempo a disposizione: è passato meno di un anno dall’invenzione della tecnologia che rende gli assistenti consapevoli del contesto utilizzabili in modo generale.

La tecnologia si chiama modello linguistico multimodale ed è una nuova classe di LLM (modelli linguistici di grandi dimensioni) in grado di recepire, oltre agli stimoli testuali, anche audio, video e immagini. Si tratta di uno sviluppo significativo, poiché i modelli multimodali hanno improvvisamente dato ai sistemi di intelligenza artificiale occhi e orecchie. Questi organi sensoriali saranno utilizzati dai sistemi per valutare l’ambiente e fornire indicazioni in tempo reale.

Nel marzo 2023, OpenAI ha rilasciato ChatGPT-4, il primo modello multimodale ampiamente utilizzato. L’ultimo protagonista di rilievo in questo mercato è stato Google, che ha lanciato il Gemini LLM.

Il contributo più interessante è il modello multimodale AnyMAL di Meta, che riconosce anche gli input di movimento. Questo paradigma incorpora un senso vestibolare del movimento oltre agli occhi e alle orecchie. Questo potrebbe essere utilizzato per costruire un assistente AI che tenga conto della posizione fisica dell’utente, oltre a vedere e sentire tutto ciò che vede e sperimenta.

I nuovi occhiali di Meta

Ora che la tecnologia di intelligenza artificiale è accessibile al grande pubblico, le aziende stanno correndo per incorporarla in prodotti che possano aiutarvi nelle vostre interazioni quotidiane. Ciò comporta l’applicazione di sensori di movimento, microfono e telecamera sul corpo in modo da alimentare il modello di IA e consentirgli di fornire una consapevolezza del contesto per tutta la vita.

Indossare gli occhiali garantisce che le telecamere siano puntate nella direzione dello sguardo della persona, rendendola la posizione più logica per questi sensori. Oltre a catturare il paesaggio sonoro con fedeltà spaziale, i microfoni stereo sugli occhiali (o sugli auricolari) consentono all’intelligenza artificiale di identificare la direzione dei suoni, come il pianto dei bambini, il clacson delle auto e l’abbaiare dei cani.

Meta è l’azienda che sta definendo lo standard dei prodotti in questo settore. Due mesi fa ha iniziato a vendere una nuova versione dei suoi occhiali intelligenti Ray-Ban con modelli di intelligenza artificiale superiori.

Humane, un’importante azienda che si è aggiunta a questo mercato, ha creato una spilla indossabile dotata di telecamere e microfoni. Quando inizierà la spedizione, questo gadget susciterà sicuramente l’interesse degli appassionati di tecnologia.

Tuttavia, poiché i sensori indossati con gli occhiali possono aggiungere caratteristiche visive alla linea di vista e percepire la direzione in cui l’indossatore sta guardando, hanno prestazioni migliori rispetto ai sensori indossati sul corpo. Nei prossimi cinque anni, questi componenti – che attualmente sono solo sovrapposizioni – si trasformeranno in esperienze complesse e coinvolgenti di realtà mista.

Nei prossimi anni, gli assistenti AI context-aware saranno ampiamente utilizzati, indipendentemente dal fatto che siano attivati da occhiali sensorizzati, auricolari o spille. Ciò è dovuto alle solide funzionalità che forniranno, come le informazioni storiche e la traduzione in tempo reale di lingue straniere.

L’aspetto più importante di questi dispositivi, tuttavia, è che ci aiuteranno in tempo reale quando interagiamo con gli altri. Ad esempio, possono ricordarci i nomi dei colleghi che incontriamo per strada, proporre spunti di conversazione divertenti durante le pause, o persino avvertirci di sottili segnali facciali o vocali che indicano quando qualcuno si sta annoiando o irritando, microespressioni invisibili agli esseri umani ma facilmente rilevabili dall’intelligenza artificiale.

In effetti, fornendoci un coaching in tempo reale, gli aiutanti virtuali capaci di sussurrarci indicazioni faranno apparire tutti più affettuosi, più saggi, più consapevoli dei problemi sociali e forse più convincenti. Inoltre, si trasformerà in una corsa agli armamenti in cui gli assistenti cercheranno di avvantaggiarci proteggendoci da influenze esterne.

Influenza conversazionale

Naturalmente, i pericoli maggiori non derivano dagli aiutanti virtuali che ficcano il naso nelle nostre conversazioni con i nostri cari, amici e partner romantici. I pericoli maggiori derivano dalla possibilità per le organizzazioni aziendali o governative di imporre i propri programmi, aprendo la porta a potenti tecniche di influenza conversazionale che ci indirizzino con informazioni generate dall’IA e personalizzate per ogni persona al fine di massimizzarne l’impatto. Privacy Lost è stato appena lanciato dalla Responsible Metaverse Alliance per informare il mondo su queste minacce di manipolazione.

Molte persone preferirebbero evitare l’inquietante possibilità di avere assistenti intelligenti che sussurrano nelle loro orecchie. Il problema è che coloro che rifiutano queste funzioni si troveranno in una posizione di svantaggio una volta che una porzione consistente di utenti sarà assistita da potenti tecnologie di intelligenza artificiale.

Le persone che incontrerete probabilmente si aspetteranno di ricevere informazioni in tempo reale su di loro mentre conversate, e il coaching con IA diventerà parte integrante degli standard sociali quotidiani. Chiedere a qualcuno cosa fa per vivere o dove è cresciuto potrebbe diventare scortese, perché questi dettagli verranno sussurrati all’orecchio o appariranno negli occhiali.

Inoltre, nessuno sarà in grado di capire se state semplicemente replicando l’assistente virtuale nel vostro cervello o se vi viene in mente qualcosa di intelligente o perspicace quando lo dite. La verità è che ci stiamo muovendo verso un nuovo ordine sociale in cui le tecnologie di intelligenza artificiale delle aziende migliorano effettivamente le nostre capacità mentali e sociali, anziché limitarsi a influenzarle.

Sebbene questa tendenza tecnologica – che può essere definita “mentalità aumentata” – sia inevitabile, forse dovrebbe passare ancora del tempo prima che i prodotti di IA siano pienamente in grado di dirigere i nostri pensieri e le nostre azioni quotidiane. Tuttavia, non ci sono più ostacoli tecnologici grazie ai recenti sviluppi come i LLM context-aware (modelli linguistici di grandi dimensioni consapevoli del contesto).

Questo accadrà e probabilmente darà il via a una corsa agli armamenti in cui i titani della big tech si sfideranno per vedere chi riuscirà a inserire per primo la guida di IA più potente nei vostri occhi e nelle vostre orecchie. Naturalmente, questo sforzo da parte delle aziende potrebbe anche portare a un rischioso divario digitale tra coloro che possono acquistare apparecchiature per il potenziamento dell’intelligenza e coloro che non possono farlo. In alternativa, gli individui che non saranno in grado di pagare una quota di iscrizione potranno essere costretti ad acconsentire a pubblicità sponsorizzate, diffuse attraverso l’influenza aggressiva dell’IA nelle conversazioni.

Le aziende avranno presto la capacità di impiantare letteralmente voci nelle nostre menti, influenzando i nostri pensieri, sentimenti e comportamenti. Questo è il problema della manipolazione dell’IA ed è davvero preoccupante.

Purtroppo, questo problema non è stato affrontato nel recente ordine esecutivo della Casa Bianca sull’IA ed è stato solo brevemente menzionato nella recente legge sull’IA dell’UE.

I clienti possono trarre vantaggio dall’assistenza dell’IA senza che questa porti la società su una cattiva strada se queste sfide vengono affrontate in modo appropriato.

L’avvento di assistenti intelligenti e consapevoli del contesto solleva legittime preoccupazioni circa il loro impatto sulle relazioni umane e sull’autenticità. Se da un lato questi assistenti promettono di fornire un aiuto costante nella vita quotidiana, dall’altro potrebbero portare a una maggiore mistificazione della realtà e a interazioni basate sulla finzione.

Quando le persone delegheranno all’IA il suggerimento di cosa dire e come comportarsi, sarà difficile distinguere ciò che proviene realmente dall’individuo da ciò che è dettato dall’algoritmo. In questo modo, le persone finiranno per indossare una sorta di “maschera digitale” nelle relazioni sociali.

Inoltre, l’accesso a questi assistenti rischia di creare un’élite di persone artificialmente “potenziate” a spese di coloro che non possono permetterseli economicamente.

Anziché migliorare la qualità delle relazioni umane, il “suggeritore segreto” e pervasivo fornito dagli assistenti intelligenti potrebbe paradossalmente allontanarci ancora di più gli uni dagli altri, rendendo le interazioni più fredde e artificiali, dove i più sinceri saranno gli esclusi.