Dai deepfake all’arte fasulla

Abbiamo visto I.A. in grado di generare praticamente qualsiasi cosa, da deepfake, voci clonate e recentemente arte. Dall-E e Midjourney sono i più famosi generatori d’arte che si stanno diffondendo su Internet e che stupiscono sempre di più con la loro capacità di creare opere di molti stili diversi partendo da un testo.

Tuttavia, questi sistemi non sono gratuiti. Dall-E è aperto alla sperimentazione solo per un numero ristretto di utenti, mentre Midjourney richiede un piano di abbonamento. Ciononostante, a questo elenco possiamo aggiungere un altro generatore d’arte: Stable Diffusion. Questo nuovo strumento è stato creato da una startup che mira a democratizzare questo nuovo modo di generare immagini, per questo motivo offre la sua applicazione gratuitamente con un’app per desktop, a differenza degli altri due.

Molti utenti stanno esplorando le potenzialità di questi strumenti di I.A., ma mentre alcuni cercano di combinare la loro arte con questi nuovi mezzi, altri sperimentano come questa I.A. possa generare immagini porno.

I risultati sono più imperfetti rispetto alla creazione di opere d’arte, basti pensare a soggetti con più arti o non perfettamente nitidi. Ma sappiamo che questa tecnologia è in continuo miglioramento, come abbiamo già visto in altri campi.

L’idea di utilizzare sistemi di generazione di immagini per creare porno sembra essere nata su forum di discussione come 4chan e Reddit, dopo che un utente ha diffuso il sistema open-source di Stable Diffusion.

Il trend delle immagini porno generate dall’intelligenza artificiale sembra essere iniziato con il lancio di Porn Pen, un sito web in cui gli utenti possono cambiare l’aspetto di varie modelle nude generate dall’intelligenza artificiale utilizzando alcuni tag.

Una persona che sostiene di essere l’inventore di Porn Pen ha presentato l’applicazione sul forum Hacker News di Y Combinator, come un esperimento che fa uso di modelli di testo-immagine all’avanguardia.

“Ho esplicitamente rimosso la possibilità di specificare il testo personalizzato per evitare che venissero generate immagini dannose”, ha spiegato. “I nuovi tag saranno aggiunti una volta che l’algoritmo di creazione dei messaggi sarà stato ulteriormente perfezionato”.

>>>  Le Reti Artificiali imparano ad annusare

Tuttavia, Porn Pen solleva una serie di questioni etiche, come i bias dei sistemi di generazione delle immagini e le fonti di dati che li hanno generati. Al di là delle ricadute tecnologiche, ci si chiede se le nuove tecnologie per la produzione di porno su misura possano danneggiare coloro che si guadagnano una professione producendo contenuti sessuali.

Come riportato qui, Ashley, lavoratrice del sesso e organizzatrice di incontri tra pari che si occupa di moderazione dei contenuti, ritiene che le attuali creazioni di Porn Pen non rappresentino una minaccia per le lavoratrici del sesso.

“Ci sono infiniti media là fuori”, ha affermato Ashley, la quale non ha voluto che il suo cognome fosse pubblicato per paura di subire molestie per il suo lavoro. “Ma le persone si differenziano non solo producendo i media migliori, ma anche essendo una persona accessibile e interessante. Ci vorrà molto tempo prima che l’intelligenza artificiale possa sostituirla”.

Sui siti porno monetizzabili come OnlyFans e ManyVids, i creatori di contenuti per adulti sono tenuti a dimostrare la propria identità ed età, in modo che la società sappia che si tratta di adulti consenzienti. Naturalmente, poiché i modelli porno generati dall’I.A. sono artificiali, non sono in grado di farlo.

Ashley teme che se i siti porno si concentreranno maggiormente sul porno fatto con l’I.A., ciò potrebbe comportare una regolamentazione più severa per le lavoratrici del sesso, che attualmente in America sono soggette a una maggiore regolamentazione a causa di leggi come SESTA/FOSTA. Per studiare le conseguenze di questa legislazione, che rende più impegnativo il lavoro di sex worker online, il Congresso ha introdotto nel 2019 il Safe Sex Workers Study Act.

Questo studio ha rivelato che, dopo aver perso la stabilità economica offerta dall’accesso alle piattaforme internet, le organizzazioni comunitarie hanno documentato un aumento del fenomeno dei senzatetto tra le lavoratrici del sesso.

“Il SESTA è stato venduto come una lotta al traffico sessuale di minori, ma ha creato una nuova legge penale sulla prostituzione che non ha nulla a che fare con l’età”, ha spiegato Ashley.

>>>  La Cina vuole una tecnologia alla Minority Report

Inoltre, attualmente esistono poche norme che regolano il porno deepfake nel mondo. Solo la Virginia e la California hanno leggi che limitano gli usi specifici dei media pornografici fabbricati in maniera falsa e con deepfake negli Stati Uniti.

Mentre i primi test effettuati da Redditors e utenti di 4chan suggeriscono che Stable Diffusion, uno dei sistemi che probabilmente alimenta Porn Pen, è particolarmente abile nel produrre deepfake sessuali di celebrità, sebbene abbia poche immagini di nudo esplicito nel suo dataset, va notato che Porn Pen, forse non a caso, offre un’opzione “celebrità”. Inoltre, poiché il codice è open source, nulla impedisce allo sviluppatore di Porn Pen di testare il sistema su altre immagini di nudo.

“Non è sicuramente bello generare [porno] di una persona esistente”, ha commentato Ashley. “Può essere usato per molestare le persone”.

Tuttavia, il deepfake pornografico è spesso prodotto come forma di molestia e intimidazione. Quasi sempre, queste immagini sono realizzate senza il permesso del soggetto e con cattive intenzioni. Sensity AI, una società di ricerca, ha scoperto nel 2019 che il porno non consensuale era incluso nel 96% dei filmati deepfake online.

Secondo Mike Cook, membro del collettivo Knives and Paintbrushes, è possibile che il set di dati contenga persone che non hanno dato il loro consenso all’utilizzo delle loro immagini per il training, come ad esempio i lavoratori del sesso.

“Molte [delle persone ritratte nei nudi nei dati di addestramento] potrebbero ricavare il loro reddito dalla produzione di pornografia o di contenuti ad essa collegati”, ha precisato Cook. “Proprio come i bravi artisti, i musicisti o i giornalisti, le opere che queste persone hanno prodotto vengono utilizzate per creare sistemi che compromettono anche la loro capacità di guadagnarsi da vivere in futuro”.

In teoria, un attore porno può intraprendere un’azione legale contro il creatore di un’immagine deepfake utilizzando le tutele del copyright, le norme sulla diffamazione e persino le leggi sui diritti umani. Tuttavia, come sottolinea MIT Technology Review, la raccolta di prove a sostegno della richiesta legale può essere un onere impegnativo.

>>>  Midjourney, il generatore di immagini rivale di DALL-E

Un’inchiesta di Wired ha scoperto che i filmati deepfake non consensuali stavano raccogliendo milioni di visualizzazioni su siti porno famosi come Pornhub quando, qualche anno fa, strumenti di I.A. più semplici hanno reso popolare il porno deepfake. Su siti simili a Porn Pen, altre opere deepfake hanno trovato spazio. Secondo i dati di Sensity, i quattro principali siti web di porno deepfake hanno visto più di 134 milioni di visualizzazioni nel 2018.

“La sintesi di immagini tramite intelligenza artificiale è ora una tecnologia diffusa e accessibile, e non credo che nessuno sia davvero preparato alle implicazioni di questa ubiquità”, ha proseguito Cook. “A mio parere, negli ultimi anni ci siamo spinti molto, molto in là verso l’ignoto, senza considerare l’impatto di questa tecnologia”.

Per illustrare il punto di vista di Cook, uno dei siti web più noti per il porno generato dall’intelligenza artificiale si è espanso nell’ultima parte dello scorso anno grazie ai referral, agli accordi con i partner e a un’API. Questo ha permesso al sito, che ospita centinaia di deepfake non consensuali, di continuare a operare nonostante le restrizioni sul suo sistema di pagamento. I ricercatori hanno anche trovato un bot Telegram nel 2020 che ha prodotto foto deepfake degradanti di oltre 100.000 donne, tra cui giovani ragazze.

“Penso che nel prossimo decennio vedremo molte più persone testare i limiti della tecnologia e della società”, ha dichiarato Cook. “Dobbiamo assumerci una certa responsabilità e lavorare per educare le persone sulle conseguenze di ciò che fanno”.

Il problema dei generatori di immagini con I.A. è lo stesso dei deepfake. Quando la nostra identità viene utilizzata per altri scopi ed è facile far credere che stiamo facendo qualcosa che non abbiamo mai fatto, la nostra persona è a rischio. Le nostre foto e i nostri video sono facilmente accessibili agli algoritmi e ai malintenzionati, poiché siamo sui social network e ci scambiamo foto con i nostri smartphone. Tuttavia, poiché i malintenzionati sono più difficili da contrastare, dovremmo almeno regolamentare il modo in cui gli algoritmi possono accedere ai dati e utilizzarli.