Il controverso passaggio di OpenAI ai contenuti per adulti

Published:

Il bisogno di bilanciare la libertà creativa con i pericoli dei deepfake nell’era dei media generati dall’intelligenza artificiale

Come riportato qui, nel 2024 OpenAI ha effettuato un’importante inversione di rotta nella sua politica sui contenuti per adulti nel suo “Model Spec”, il documento fondamentale che regola il comportamento dei suoi modelli linguistici. L’azienda ha annunciato che avrebbe consentito i contenuti sessuali, con la sola eccezione di quelli che coinvolgono minori. Ciò ha segnato un drastico allontanamento dal precedente divieto totale di tutti i contenuti espliciti.

Il divario tra normativa e pratica

Per gli utenti che da tempo sostenevano politiche più permissive in materia di contenuti, l’annuncio è sembrato una vittoria. Tuttavia, molti hanno rapidamente scoperto che il comportamento effettivo di ChatGPT non era in linea con le linee guida riviste. Gli utenti hanno segnalato che, sebbene inizialmente le restrizioni fossero state allentate, il sistema è presto tornato a bloccare i contenuti espliciti attraverso quella che un utente frustrato del forum ha descritto come “offuscamento metaforico”, nonostante la normativa aggiornata affermasse chiaramente il contrario.

Una novità al DevDay 2025

Alla conferenza DevDay di quest’anno, OpenAI ha annunciato la sua intenzione di colmare finalmente questo divario consentendo l’accesso alle “app per adulti” sulla sua piattaforma. L’implementazione dipende dall’introduzione di un sistema completo di verifica dell’età, il che suggerisce che l’azienda si sta preparando a una significativa espansione nei servizi orientati agli adulti.

Precedenti preoccupanti

Questo cambiamento strategico solleva legittime preoccupazioni in materia di sicurezza. La storia ammonitrice di Grok, il chatbot IA di Elon Musk, dimostra le potenziali insidie dell’allentamento delle restrizioni sui contenuti. Quella piattaforma è diventata rapidamente famosa per aver consentito la creazione di immagini che sfruttano le persone, comprese rappresentazioni inappropriate di bambini. Allo stesso modo, altri sistemi di IA hanno alimentato un’epidemia di deepfake non consensuali, ovvero contenuti multimediali sintetici espliciti che ritraggono persone reali creati a loro insaputa e senza il loro permesso.

>>>  ChatGPT, il chatbot di OpenAI

Un modello di misure di sicurezza inadeguate

Non è la prima volta che le promesse di OpenAI non vengono mantenute. L’azienda ha dovuto affrontare crescenti critiche per la tendenza di ChatGPT all’eccessiva compiacenza, che secondo quanto riferito ha contribuito a causare danni alla salute mentale degli utenti vulnerabili. Dopo che i ricercatori di Stanford hanno lanciato un severo monito su questi pericoli, OpenAI ha rilasciato quella che ha definito una “correzione”. I critici, tuttavia, hanno definito questi cambiamenti come misure superficiali che non hanno affrontato le questioni fondamentali in gioco.

La complessità tecnica e politica

Parte della sfida di OpenAI deriva dalla difficoltà intrinseca di modificare i modelli linguistici di grandi dimensioni una volta che sono operativi. Questi sistemi possono essere notevolmente resistenti alla messa a punto e alcune iterazioni hanno prestazioni inferiori rispetto alle versioni precedenti su determinati parametri.

Tuttavia, i limiti tecnici potrebbero non essere l’unica causa. OpenAI opera con una notevole opacità e il suo processo decisionale sembra ora influenzato da considerazioni di sicurezza nazionale, dati i legami dell’azienda con i funzionari del Pentagono. Ciò solleva interrogativi sul fatto che i ritardi nei miglioramenti della sicurezza siano puramente dovuti a vincoli tecnici o riflettano altre priorità.

Cosa ci aspetta

Se OpenAI procederà con l’apertura della sua piattaforma ai creatori di contenuti per adulti, l’azienda dovrà probabilmente affrontare una sfida di moderazione prolungata e difficile. Determinare i confini appropriati per il materiale per adulti e gestire gli aspetti più oscuri dei contenuti sessuali digitali metterà alla prova l’impegno dell’azienda per la sicurezza degli utenti in modi che non ha ancora affrontato.

I prossimi mesi riveleranno se OpenAI ha imparato dagli errori di altre piattaforme o se li ripeterà su una scala senza precedenti.

>>>  La superintelligenza dell'IA potrebbe essere una "catastrofe esistenziale"

Il paradosso della libertà creativa

La svolta di OpenAI verso politiche meno restrittive presenta un paradosso fondamentale nello sviluppo dell’IA. Da un lato, l’allentamento delle restrizioni sui contenuti sbloccherebbe un potenziale creativo significativo. Artisti, registi e scrittori potrebbero generare contenuti horror più sofisticati con scene di violenza esplicita, esplorare temi maturi con sfumature e creare intrattenimento per adulti senza vincoli artificiali. Questa liberazione creativa potrebbe favorire la legittima espressione artistica, consentendo ai creatori di produrre opere che riflettono l’intero spettro dell’esperienza umana, dai thriller psicologici con immagini inquietanti alle storie d’amore per adulti con scene esplicite.

Tuttavia, questa maggiore libertà comporta rischi profondi, particolarmente gravi per i media visivi. Mentre i contenuti testuali presentano problemi specifici, le fotografie e i video generati da sistemi di IA come Sora 2 possiedono una pericolosa verosimiglianza. Le immagini e i video sintetici possono essere utilizzati come arma per fabbricare prove, distruggere reputazioni e manipolare la percezione del pubblico in modi che il testo semplicemente non può fare. La creazione di deepfake espliciti non consensuali, ovvero video realistici che ritraggono persone reali in situazioni sessuali inventate, rappresenta forse la minaccia più pericolosa. Questi materiali sintetici possono devastare la vita personale e professionale degli individui e, una volta distribuiti online, diventano quasi impossibili da eliminare.

Related articles

Recent articles