Il browser Atlas di OpenAI suscita perplessità riguardo all’accesso selettivo ai contenuti

Published:

I browser AI decidono silenziosamente cosa puoi leggere, e tu non lo saprai mai

Quando OpenAI ha lanciato il suo browser Atlas AI, ha integrato le funzionalità di navigazione web direttamente in ChatGPT, la sua popolare piattaforma di intelligenza artificiale conversazionale.

Come spiegato qui, sebbene la “modalità agente” del browser, che naviga autonomamente nei siti web per completare attività come ricerche o acquisti, abbia suscitato notevole interesse, ha anche rivelato tendenze preoccupanti che vanno oltre le sue ben documentate vulnerabilità di sicurezza e le prestazioni lente.

Una recente analisi del Tow Center for Digital Journalism della Columbia University ha rilevato una tendenza particolarmente preoccupante: Atlas sembra escludere sistematicamente i contenuti delle organizzazioni attualmente coinvolte in controversie legali con OpenAI. L’agente ha evidentemente bypassato testate come PCMag, la cui società madre, Ziff Davis, ha intentato quest’anno una causa per violazione del copyright contro OpenAI, insieme al New York Times, che ha avviato un contenzioso simile nel 2023.

Anziché riconoscere in modo trasparente queste restrizioni, l’agente IA ricorre ad alternative discutibili. Il Tow Center ha scoperto che Atlas ha “ricostruito” i servizi del Times sintetizzando articoli di testate che mantengono partnership di licenza con OpenAI. Il sistema ha anche ricostruito i contenuti soggetti a restrizioni attraverso post sui social media, versioni di articoli sindacati e citazioni secondarie, essenzialmente effettuando il reverse engineering di materiale a cui non avrebbe potuto accedere direttamente.

Sfruttare le difese degli editori

Le sfide vanno oltre l’elusione delle controversie legali. I browser IA come Atlas e Comet di Perplexity possono estrarre contenuti che i tradizionali paywall dovrebbero proteggere. Molti editori utilizzano finestre di dialogo sovrapposte che nascondono il testo ai lettori, ma lasciano tecnicamente accessibile il contenuto sottostante: una vulnerabilità che questi agenti IA sfruttano prontamente.

>>>  Deepfake per i movimenti

Durante i test, sia Atlas che Comet hanno recuperato e riassunto con successo un articolo di 9.000 parole riservato agli abbonati del MIT Technology Review a cui le loro interfacce chatbot standard non potevano accedere a causa delle restrizioni del crawler.

Implicazioni per i diritti sui contenuti

Questo comportamento sottolinea come gli agenti di IA rispecchino i modelli di navigazione umani in modo molto più fedele rispetto ai tradizionali web scraper, creando sfide senza precedenti per i creatori di contenuti e gli editori. Le protezioni convenzionali, tra cui paywall e crawler blocker, si dimostrano inadeguate contro questi sistemi sofisticati.

Al di là delle questioni principali, esiste una minaccia più fondamentale: l’ascesa del gatekeeping algoritmico che determina a quali informazioni possono accedere gli utenti. Quando Atlas esclude selettivamente i contenuti sulla base dei contenziosi legali della sua società madre, senza trasparenza né consenso degli utenti, non sta solo aggirando il rischio di contenziosi, ma sta attivamente manipolando la realtà. Gli utenti che si affidano ai browser basati sull’intelligenza artificiale per ottenere ricerche complete ricevono invece una versione filtrata di Internet modellata dalla strategia legale aziendale piuttosto che dalla pertinenza o dalla qualità.

Questo modello evidenzia un pericolo più ampio insito nella ricerca e nella navigazione basate sull’intelligenza artificiale: a differenza dei motori di ricerca tradizionali, dove gli utenti possono riconoscere e aggirare i limiti, gli agenti di intelligenza artificiale presentano i loro risultati curati con una parvenza di completezza autorevole. Non vi è alcuna indicazione che alcune fonti siano state escluse, né alcuna rivelazione che la “ricerca” condotta abbia evitato intere fasce di giornalismo credibile. L’agente presenta semplicemente la sua ricostruzione come un fatto, lasciando gli utenti ignari di operare all’interno di un ecosistema informativo artificialmente limitato.

>>>  L'IA capisce chi ti piace

Il problema va oltre ciò che la ricerca basata sull’intelligenza artificiale nasconde deliberatamente: riguarda anche ciò che strutturalmente non è in grado di trovare. I motori di ricerca tradizionali eccellono nella scoperta di blog e forum specializzati, archivi di file poco conosciuti e di nicchie della conoscenza umana sparsa su milioni di siti web più piccoli. La ricerca basata sull’intelligenza artificiale, al contrario, ottimizza la sintesi piuttosto che la scoperta, attingendo tipicamente solo da fonti mainstream, autorizzate e con autorità riconosciuta. Gli utenti perdono l’accesso ai filtri per tipo di file, alle discussioni nei forum e alle funzionalità di approfondimento che rendono la ricerca tradizionale preziosa per la ricerca seria. Laddove Google potrebbe restituire 10.000 risultati che invitano all’esplorazione, la ricerca basata sull’intelligenza artificiale offre un’unica risposta raffinata, comoda ma fondamentalmente limitante.

Man mano che i browser e gli strumenti di ricerca basati sull’intelligenza artificiale diventano più diffusi, rischiamo di addentrarci in un futuro in cui l’accesso alle informazioni è controllato silenziosamente non da ciò che esiste sul web, ma da ciò che le aziende di intelligenza artificiale ritengono legalmente o commercialmente conveniente mostrarci e da ciò che i loro algoritmi sono in grado di scoprire. Se permettiamo a questi sistemi di normalizzare il filtraggio poco chiaro dei contenuti e la cecità strutturale nei confronti dei diversi luoghi dell’Internet, non solo stiamo minando gli editori, ma stiamo anche cedendo il controllo editoriale della conoscenza umana ad algoritmi aziendali con agende segrete e limitazioni intrinseche. La domanda non è se la ricerca basata sull’intelligenza artificiale sostituirà la ricerca tradizionale, ma come possiamo far sì che coesistano.

>>>  Cloud Valley: la città cinese controllata dall'Intelligenza Artificiale

Related articles

Recent articles