Il primo impegno per regolamentare l’IA

Il voto del Parlamento europeo per l’approvazione della bozza di linee guida per l’AI Act è arrivato nello stesso giorno in cui i legislatori dell’UE hanno presentato una nuova azione antitrust contro Google, rendendo la settimana significativa per la politica tecnologica europea.

Come spiegato qui, il voto per la legge sull’IA ha avuto un successo schiacciante ed è stato accolto come uno dei più significativi passi avanti nella politica sull’IA di sempre. Secondo Roberta Metsola, presidente del Parlamento europeo, si tratta di una “legislazione che senza dubbio definirà lo standard globale per gli anni a venire”.

Tuttavia, il sistema europeo è un po’ contorto. Prima che le linee guida proposte diventino legge, i membri del Parlamento europeo dovranno negoziare i dettagli con il Consiglio dell’Unione europea e la Commissione europea. Un compromesso tra tre versioni abbastanza diverse delle tre istituzioni darà vita alla legislazione finale.

Il risultato del voto è stato l’accettazione della posizione del Parlamento europeo nell’imminenza dei negoziati finali. La legge sull’intelligenza artificiale, che ricalca la legge sui servizi digitali dell’UE, che stabilisce le linee guida legali per le piattaforme Internet, adotta un “approccio basato sul rischio” imponendo limitazioni in base alla pericolosità che i legislatori ritengono possa avere un’applicazione basata sull’intelligenza artificiale. Inoltre, le aziende dovranno fornire le proprie analisi dei rischi legati all’utilizzo dell’IA.

Se i legislatori giudicheranno il rischio “inaccettabile”, alcune applicazioni di IA saranno completamente vietate, mentre le tecnologie “ad alto rischio” saranno soggette a nuove restrizioni d’uso e a requisiti di trasparenza.

La legge prevede 4 livelli di rischio:

  • Rischi minimi che possono includere applicazioni come i videogiochi e i sistemi di spam, per i quali non è richiesto alcun intervento.
  • Rischi limitati che includono deepfakes e chatbot per i quali è richiesta trasparenza. ChatGPT è stato incluso in questa categoria.
  • Rischi elevati che includono programmi utilizzati nei trasporti, nell’istruzione, nella salute, nella sicurezza, nelle forze dell’ordine, ecc… per i quali è richiesta una rigorosa valutazione del rischio; l’utilizzo di set di dati di alta qualità per ridurre al minimo i rischi e le distorsioni; la conservazione dei registri delle attività per la tracciabilità; la fornitura di una documentazione completa per gli adempimenti normativi; la garanzia di informazioni chiare per gli utenti e di misure di supervisione umana.
  • Rischi inaccettabili: ad esempio utilizzare le informazioni per profilare le persone.

Inoltre, potrebbero essere implementate altre regole:

  • Costringere le aziende a condividere i dati protetti da copyright per il training, per consentire agli artisti e ad altri di chiedere un risarcimento.
  • Assicurarsi che i modelli non creino contenuti illegali.

In ogni caso, di seguito sono riportate alcune delle principali implicazioni:

  1. Divieto dell’intelligenza artificiale in grado di riconoscere le emozioni. Il testo proposto dal Parlamento europeo vieta l’uso dell’intelligenza artificiale (IA) che mira a identificare le emozioni delle persone nelle forze dell’ordine, nell’istruzione e sul posto di lavoro. I produttori di software per il riconoscimento delle emozioni affermano che l’IA è in grado di capire quando uno studente fatica a comprendere un concetto o quando un automobilista si sta appisolando. Sebbene l’uso dell’IA per il riconoscimento e l’analisi del volto sia stato messo sotto accusa per la sua imprecisione e parzialità, è ancora consentito nella bozza di testo delle altre due organizzazioni, il che indica una potenziale battaglia politica.
  2. La sorveglianza predittiva e la biometria in tempo reale sono vietate nelle aree pubbliche. Poiché le varie organizzazioni dell’UE dovranno decidere se e come implementare il divieto nella legge, questa sarà una battaglia legislativa significativa. Secondo le organizzazioni di vigilanza, le tecnologie biometriche in tempo reale non dovrebbero essere vietate perché sono essenziali per la vigilanza attuale. In effetti, diverse nazioni, come la Francia, intendono utilizzare il riconoscimento facciale con maggiore frequenza.
  3. Vietare il social scoring. La pratica di utilizzare le informazioni sulla condotta sociale delle persone per creare generalizzazioni e profili, conosciuta come “social scoring” dalle entità governative, sarebbe vietata. Tuttavia, i pronostici per il social scoring, spesso legato a regimi autoritari come quello cinese, non sono così semplici come potrebbe sembrare a prima vista. È consuetudine utilizzare i dati sul comportamento sociale per valutare i richiedenti di mutui e polizze assicurative, oltre che per le assunzioni e la pubblicità.
  4. Nuove limitazioni per l’IA generale. La prima bozza suggerisce linee guida per la regolamentazione dell’IA generativa e vieta l’uso di qualsiasi contenuto protetto da copyright nel set di addestramento di modelli linguistici massivi come il GPT-4 di OpenAI. I legislatori europei hanno già sollevato dubbi su OpenAI per questioni legate al copyright e alla protezione dei dati. La proposta di legge prevede anche l’identificazione dei contenuti generati dall’IA. Tuttavia, dato che si prevede che l’industria tecnologica eserciterà pressioni lobbistiche sulla Commissione europea e sui singoli Paesi, il Parlamento europeo dovrà ora convincerli dei meriti del suo approccio.
  5. Nuove linee guida per i sistemi di raccomandazione sui social media. A differenza delle altre proposte di legge, l’attuale bozza classifica i sistemi di raccomandazione come “ad alto rischio“. Se verrà approvata, i sistemi di raccomandazione sulle piattaforme di social media saranno esaminati molto più da vicino in termini di funzionamento e le aziende tecnologiche potrebbero essere ritenute maggiormente responsabili degli effetti dei contenuti generati dagli utenti.

Margrethe Vestager, vicepresidente esecutivo della Commissione UE, ha identificato i rischi associati all’IA come pervasivi. Ha sottolineato le preoccupazioni per la sorveglianza diffusa, la vulnerabilità alla manipolazione sociale da parte di soggetti senza scrupoli e il futuro della credibilità delle informazioni.

L’IA potrebbe davvero rappresentare un rischio per l’umanità e una regolamentazione era doverosa. Sebbene alcune regole possano salvaguardare la popolazione in futuro, alcune aziende, d’altro canto, ritengono che norme severe potrebbero impedire il pieno sviluppo delle loro applicazioni così come alcune istituzioni ritengono che la pervasività delle IA nelle vita delle persone potrebbe aiutare la sicurezza attraverso un maggiore controllo.