La nuova tecnologia di Deepfake può modificare ciò che dici

Un problema serio per video e l’informazione

La nuova tecnologia deepfake permette di modificare la trascrizione testuale di ciò che viene detto in un video e poter così cambiare le parole dette dal soggetto. In questo modo, la bocca rispecchierà le movenze delle parole aggiunte o modificate.

Gli scienziati dell’Università di Stanford, dell’istituto Max Planck per l’informatica, la Princeton University, e Adobe Research hanno mostrato come può essere semplice modificare ciò che una persona dice in un video e crearne un falso.

Il processo avviene combinando diverse tecniche:

  • Una scansione del soggetto per isolare i fonemi pronunciati;
  • Un abbinamento di tali fonemi con i visemi (le espressioni facciali e i suoi suoni);
  • La creazione di un modello 3D della parte bassa del volto.
La tecnologia Deepfake

Quando qualcuno modifica il testo trascritto dal video, il software combina i fonemi del soggetto, i suoi visemi e il modello 3D per creare un nuovo filmato che combaci con l’originale con le nuove parole.

Tuttavia, questa tecnologia ha delle limitazioni. Al momento funziona solo con video in cui sono presenti volti che parlano e richiede circa 40 minuti di dati in ingresso. L’algoritmo non riesce inoltre a modificare il tono e l’umore della voce. In più, ogni occlusione della bocca mentre il soggetto sta parlando può rovinare il processo.

I pericoli di questa tecnologia sono molto seri perché essa renderà semplice falsificare le dichiarazioni di una persona o diffamare un individuo facendogli dire cose che non ha mai detto. E i rimedi a tutto ciò non sono incoraggianti: i ricercatori infatti suggeriscono di presentare i video modificati con l’I.A. come tali o di usare un watermark, ma questi rimedi sono molto deboli e facilmente aggirabili poiché i video falsi sono spesso usati per diffondere fake news e spesso vengono considerati reali; ancora più semplice sarebbe la rimozione del watermark. Inoltre, anche quando le fake news possono essere facilmente smentite, esse non smettono di diffondersi perché la maggior parte della gente vuole credere alle bugie che corrispondano ai loro preconcetti. Forse solo un’altra I.A. potrebbe contrastare il pericolo di questo fenomeno, riconoscendo i video falsi.

Tuttavia, non tutto il male viene per nuocere, quindi questa tecnologia potrebbe avere dei vantaggi, ad esempio nel mondo del cinema dove vi è necessità di correggere alcune battute pronunciate male, senza il bisogno di doverle registrare nuovamente, o per creare un doppiaggio più accurato in diverse lingue. Comunque i pro sembrano essere meno dei contro.

La tecnologia Deepfake potrebbe diventare un nuovo pericolo per la nostra reputazione, ma allo stesso tempo il fatto di conoscerne la sua esistenza potrebbe rendere le persone più incredule e maggiormente critiche.

Una dimostrazione di come funziona la tecnologia Deepfake

Fonte The Verge

Dan Brokenhouse

Recent Posts

8 robot umanoidi che cambieranno la forza lavoro

Otto robot umanoidi all'avanguardia destinati a trasformare le industrie e a ridefinire il futuro del…

14 ore ago

Atlas di Boston Dynamics cambia forma

Boston Dynamics ritira il suo iconico robot Atlas e presenta un nuovo robot umanoide avanzato,…

1 settimana ago

La crescente tendenza dei partner virtuali generati dall’IA

Un dirigente del settore tecnologico rivela la tendenza crescente delle cosiddette "fidanzate" generate dall'IA.

2 settimane ago

TikTok ti legge nel pensiero?

Come l'algoritmo di TikTok modella le esperienze degli utenti e sull'importanza della supervisione umana nello…

3 settimane ago

Avatar ‘fantasma’ con l’IA

Gli esperti avvertono che i "fantasmi" artificiali potrebbero disturbare il processo di elaborazione del lutto,…

4 settimane ago

Come gli LLM recuperano alcune conoscenze memorizzate

Come gli LLM utilizzano le funzioni lineari per recuperare le conoscenze fattuali, fornendo informazioni sul…

1 mese ago
Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.