Il vostro clone sintetico potrebbe ingannare qualcuno

Da un esperimento è emerso che i volti generati dall’intelligenza artificiale sono indistinguibili da quelli reali e sembrano più affidabili della loro controparte umana.

Questo porta a esiti preoccupanti e spaventosi in cui una falsa entità potrebbe facilmente manipolare le persone in svariati campi e avere più successo di un manipolatore umano grazie al potere dell’I.A.

Un volto artificiale potrebbe essere impiegato per la pubblicità, per esempio: è più economico ed è facile generare un attore direttamente dal vostro PC. In più, poiché l’I.A. sarà molto più abile a manipolare e a essere affidabile, il suo obiettivo verrà sicuramente raggiunto.

Tuttavia, ci sono scenari peggiori. Dato che internet si sta dirigendo verso il metaverso, il mondo sarà interamente digitale, e ci imbatteremo in diversi avatar digitali dietro i quali ci saranno altre persone: amici o sconosciuti, ma spesso potrebbero essere delle entità artificiali che cercano di coinvolgerci per promuovere qualcosa. Passare più tempo nei mondi virtuali significa quindi che è più probabile imbattersi in avatar falsi che in quelli dell’internet normale.

Quando le nostre informazioni personali come il comportamento, gli interessi, ecc… sono a disposizione di un’I.A. con un volto affidabile e amichevole che agisce con un target specifico, la probabilità di inganno è maggiore se queste entità agiscono in modo fuorviante. Ecco perché abbiamo bisogno di una soluzione per identificare questi agenti che sono anche in grado di rilevare le nostre emozioni in tempo reale, riconoscendo le nostre espressioni facciali e inflessioni vocali per regolare la loro tecnica di conversazione al fine di massimizzare il loro potere persuasivo.

>>>  Il lato oscuro di Replika

Ma che dire quando quei volti artificiali appaiono come volti familiari?

In un post sul blog di Microsoft, il vicepresidente esecutivo Charlie Bell ha dichiarato che nel metaverso, le frodi e gli attacchi di phishing potrebbero provenire da un volto familiare, come un avatar che impersona un collega, lasciandoci costantemente incerti se le persone con cui stiamo parlando sono quelle che conosciamo o dei falsi.

Creare un “gemello digitale” è il processo di ricreare accuratamente l’aspetto e la voce di una persona nel metaverso. Jensen Haung, il CEO di NVIDIA, ha fatto un discorso chiave impiegando un gemello digitale cartoonesco. Secondo lui, la fedeltà migliorerà significativamente negli anni futuri, così come la capacità dei motori di intelligenza artificiale di controllare il vostro avatar autonomamente in modo da poter essere in molti posti contemporaneamente. Saremo in grado di eseguire molti compiti allo stesso tempo delegando i nostri gemelli digitali a operazioni più noiose e ripetitive e se qualcuno si imbattesse in uno dei nostri gemelli potrebbe non essere in grado di riconoscere che è falso.

I nostri gemelli, d’altra parte, potrebbero diventare “gemelli malvagi” se venissero impiegati per imitare il nostro aspetto, la nostra voce e i nostri modi di fare per scopi fraudolenti.

I malintenzionati, secondo Bell, potrebbero attirarvi in una finta banca virtuale, completa di un falso cassiere che richiede le vostre informazioni personali. Oppure, se siete una vittima di spionaggio aziendale, potreste essere invitati a una finta riunione in una sala conferenze che assomiglia esattamente alla sala conferenze virtuale a cui siete abituati. Senza nemmeno rendervene conto, consegnerete informazioni personali a sconosciuti.

>>>  Il generatore di volti della NVIDIA

Tuttavia, è possibile che gli impostori non abbiano bisogno di impiegare misure simili. Dopo tutto, vedere un volto familiare che assomiglia, suona e si comporta come qualcuno che conosci è un’arma efficace di per sé. Questo significa che le piattaforme del metaverso dovrebbero richiedere meccanismi di autenticazione altrettanto robusti per garantire che ci stiamo confrontando con una persona reale (o con il suo gemello autorizzato) piuttosto che con un gemello malvagio creato per ingannarci.

Poiché le tecnologie di realtà virtuale e di realtà aumentata sono destinate a ingannare i sensi, queste piattaforme confonderanno abilmente le linee tra il reale e l’artificiale. Quando i malintenzionati si servono di tali poteri, diventano rapidamente pericolosi. Questo è il motivo per cui è nell’interesse di tutti, sia dei consumatori che delle imprese, lottare per una maggiore sicurezza. Potremmo per esempio impiegare un’altra I.A. per smascherare i falsi agenti, o usare la blockchain per identificare la loro identità originale.

L’alternativa è un metaverso pieno di frodi diffuse, da cui potrebbe non riprendersi mai.

Fonte venturebeat.com