La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.

Il blog di House cerca di fare tutto questo.

Ultimi articoli
Marzo 26, 2024I ricercatori hanno scoperto semplici funzioni alla base di complessi modelli linguistici I modelli linguistici di grandi dimensioni sono estremamente sofisticati; ne sono un esempio i chatbot di intelligenza artificiale ampiamente utilizzati, come ChatGPT. Gli scienziati non hanno ancora compreso appieno il funzionamento di questi modelli, nonostante siano impiegati come strumenti in numerosi campi, tra cui la traduzione linguistica, lo sviluppo di codici e l’assistenza ai clienti. Per comprendere meglio il funzionamento di questi enormi modelli di apprendimento automatico, i ricercatori del MIT e di altre istituzioni hanno esaminato le tecniche di recupero delle conoscenze memorizzate. Secondo questo articolo, hanno scoperto un dato inaspettato: Per recuperare e decodificare i fatti memorizzati, i modelli linguistici di grandi dimensioni (LLM) utilizzano spesso una funzione lineare relativamente semplice. Inoltre, il modello applica la stessa funzione di decodifica a fatti di tipo simile. La relazione semplice e diretta tra due variabili è catturata dalle funzioni lineari, che sono equazioni con due sole variabili e senza esponenti. I ricercatori hanno dimostrato come sia possibile sondare il modello per scoprire cosa sa su nuovi argomenti e dove tale conoscenza è stata memorizzata all’interno del modello, identificando le funzioni lineari per vari fatti. I ricercatori hanno scoperto che, anche nei casi in cui un modello fornisca una risposta imprecisa a una richiesta, spesso conserva dati accurati utilizzando un metodo da loro ideato per calcolare queste semplici funzioni. In futuro, questo metodo potrebbe essere utilizzato dagli scienziati per identificare e correggere gli errori all’interno del modello, riducendo così la propensione del modello a produrre occasionalmente risultati errati o assurdi. “Anche se questi modelli sono funzioni non lineari molto complicate, addestrate su molti dati e molto difficili da capire, a volte al loro interno funzionano meccanismi molto semplici. Questo è un esempio”, spiega Evan Hernandez, studente di ingegneria elettrica e informatica (EECS) e coautore di un articolo che illustra questi risultati. Hernandez ha collaborato al lavoro con l’autore principale David Bau, professore assistente di informatica alla Northeastern, con altri ricercatori del MIT, dell’Università di Harvard e dell’Istituto israeliano di tecnologia, con il coautore Arnab Sharma, studente laureato in informatica alla Northeastern University e con il suo consulente Jacob Andreas, professore associato di EECS e membro del Computer Science and Artificial Intelligence Laboratory (CSAIL). Lo studio sarà presentato alla Conferenza internazionale sull’apprendimento delle rappresentazioni. Trovare i fatti Le reti neurali costituiscono la maggior parte dei modelli linguistici di grandi dimensioni, noti anche come modelli trasformatori. Le reti neurali, modellate sul modello del cervello umano, sono costituite da miliardi di nodi interconnessi, o neuroni, che codificano ed elaborano i dati. Questi neuroni sono disposti in numerosi strati. La conoscenza di un trasformatore può essere modellata principalmente in termini di relazioni tra soggetti e oggetti. Un esempio di relazione tra il soggetto, Miles Davis, e l’oggetto, la tromba, è “Miles Davis suona la tromba”. Un trasformatore conserva più informazioni su un certo argomento attraverso diversi livelli, man mano che acquisisce maggiore conoscenza. Per rispondere alla domanda dell’utente su quell’argomento, il modello deve decodificare il fatto più pertinente. Quando un trasformatore viene sollecitato con la frase “Miles Davis suona la…”, invece di “Illinois”, che è lo stato di nascita di Miles Davis, dovrebbe dire “tromba”. “Da qualche parte nel calcolo della rete deve esserci un meccanismo che va a cercare il fatto che Miles Davis suona la tromba, e poi estrae questa informazione e aiuta a generare la parola successiva. Volevamo capire quale fosse questo meccanismo”, spiega Hernandez. Attraverso una serie di studi, i ricercatori hanno analizzato gli LLM e hanno scoperto che, nonostante la loro immensa complessità, i modelli utilizzano una semplice funzione lineare per decodificare le informazioni relazionali. Ogni funzione è unica per il tipo di fatto che viene recuperato. Per esempio, per indicare lo strumento che una persona suona, il trasformatore userebbe una funzione di decodifica, mentre per indicare lo stato di nascita di una persona userebbe una funzione diversa. I ricercatori hanno calcolato le funzioni per 47 relazioni distinte, tra cui “capitale di un paese” e “cantante di una band”, dopo aver sviluppato un metodo per stimare queste semplici funzioni. Sebbene il numero di relazioni possibili sia infinito, i ricercatori si sono concentrati su questo particolare sottoinsieme perché è tipico dei tipi di fatti che possono essere scritti in questo modo. Per verificare se ogni funzione fosse in grado di recuperare le informazioni corrette sull’oggetto, hanno cambiato il soggetto per ogni test. Se l’oggetto è la Norvegia, la funzione “capitale di un paese” dovrebbe restituire Oslo; se l’oggetto è l’Inghilterra, dovrebbe restituire Londra. Per oltre il 60% del tempo, le funzioni sono state in grado di estrarre le informazioni corrette, indicando che alcune informazioni in un trasformatore sono codificate e recuperate in questo modo. “Ma non tutto è codificato in modo lineare. Per alcuni fatti, anche se il modello li conosce e predice un testo coerente con questi fatti, non riusciamo a trovare funzioni lineari. Questo suggerisce che il modello sta facendo qualcosa di più complesso per memorizzare quelle informazioni”, spiega. Visualizzare la conoscenza di un modello Le funzioni sono state utilizzate anche per determinare la veridicità delle convinzioni del modello su determinati argomenti. In un esperimento, hanno iniziato con l’istruzione “Bill Bradley era un” e hanno testato la capacità del modello di riconoscere che il senatore Bradley era un giocatore di pallacanestro che aveva frequentato Princeton, utilizzando le funzioni di decodifica per “fa sport” e “ha frequentato l’università”. “Possiamo dimostrare che, anche se il modello può scegliere di concentrarsi su informazioni diverse quando produce il testo, codifica tutte le informazioni”, dice Hernandez. I ricercatori hanno creato quella che definiscono una “lente di attributo”, una griglia che mostra dove sono conservati i dettagli precisi di una certa relazione all’interno dei molteplici strati del trasformatore, utilizzando questa tecnica di sondaggio. È possibile costruire automaticamente le lenti di attributo, che offrono un modo semplificato per aiutare i ricercatori a saperne di più su un modello. Con l’uso di questo strumento di visualizzazione, ingegneri e scienziati potrebbero essere in grado di aggiornare le conoscenze memorizzate e impedire a un chatbot basato sull’intelligenza artificiale di fornire informazioni false. In futuro, Hernandez e i suoi collaboratori sperano di saperne di più su ciò che accade quando i fatti non vengono conservati in modo sequenziale. Inoltre, vorrebbero studiare l’accuratezza delle funzioni di decodifica lineare e condurre test con modelli più ampi. “Questo è un lavoro entusiasmante che rivela un tassello mancante nella nostra comprensione del modo in cui i modelli linguistici di grandi dimensioni richiamano la conoscenza dei fatti durante l’inferenza. Il lavoro precedente ha dimostrato che gli LLM costruiscono rappresentazioni ricche di informazioni di determinati soggetti, da cui vengono estratti attributi specifici durante l’inferenza. Questo lavoro dimostra che il complesso calcolo non lineare degli LLM per l’estrazione degli attributi può essere ben approssimato con una semplice funzione lineare”, afferma Mor Geva Pipek, professore assistente presso la Scuola di Informatica dell’Università di Tel Aviv, che non è stato coinvolto in questo lavoro. La Fondazione israeliana per la scienza, Open Philanthropy e una Azrieli Foundation Early Career Faculty Fellowship hanno fornito alcuni finanziamenti per questo studio. Se da un lato questa ricerca fornisce preziose indicazioni su come i modelli linguistici di grandi dimensioni codificano e recuperano alcuni tipi di conoscenze fattuali, dall’altro evidenzia che c’è ancora molto da scoprire sul funzionamento interno di questi sistemi estremamente complessi. La scoperta di semplici funzioni lineari utilizzate per il recupero di alcuni fatti è una scoperta intrigante, ma sembra essere solo un pezzo di un puzzle molto intricato. Come hanno osservato i ricercatori, non tutte le conoscenze sembrano essere codificate e accessibili attraverso questi meccanismi lineari. È probabile che in questi modelli siano in gioco processi più complessi e non lineari per altri tipi di memorizzazione e recupero delle informazioni. Inoltre, le ragioni per cui alcuni fatti vengono decodificati in modo errato, anche quando sono presenti le informazioni giuste, rimangono poco chiare. In futuro, saranno necessarie ulteriori ricerche per mappare completamente i percorsi e gli algoritmi che queste IA linguistiche utilizzano per elaborare, memorizzare e produrre informazioni. La visualizzazione della “lente degli attributi” potrebbe rivelarsi uno strumento prezioso in questo senso, consentendo agli scienziati di ispezionare i diversi livelli e le rappresentazioni dei fatti all’interno dei modelli. In definitiva, è fondamentale acquisire una comprensione più completa del funzionamento di questi grandi modelli linguistici. Poiché le loro capacità e applicazioni continuano a espandersi rapidamente, sarà sempre più importante garantirne l’affidabilità, la sicurezza e l’allineamento con i comportamenti previsti. Scrutare nelle loro scatole nere meccanicistiche attraverso metodi come questa analisi di decodifica lineare sarà una parte essenziale di questo processo. [...]
Marzo 19, 2024Figura 01 + ChatGPT = L’integrazione rivoluzionaria solleva preoccupazioni etiche Un nuovo robot umanoide che funziona con ChatGPT di OpenAI inizia a ricordare l’IA Skynet del film di fantascienza Terminator. Sebbene Figure 01 non sia un robot letale, è in grado di svolgere attività autonome di base e, con l’assistenza di ChatGPT, conversazioni umane in tempo reale. Secondo questo articolo, la macchina utilizza ChatGPT per visualizzare oggetti, pianificare azioni future e persino riflettere sulla propria memoria, come mostrato in un video dimostrativo fornito da Figure AI. Il robot cattura le foto dalle sue telecamere che riprendono l’ambiente circostante e le inoltra a un modello di linguaggio visuale di grandi dimensioni addestrato da OpenAI, che traduce le immagini al robot. Nel video, un uomo chiede all’umanoide di lavare i piatti, mettere via i vestiti sporchi e dargli qualcosa da mangiare e il robot porta a termine i compiti, anche se Figure sembra più esitante nel rispondere alle domande rispetto a ChatGPT. Nel tentativo di far fronte alla carenza di lavoratori, Figure AI prevede che il suo primo robot umanoide dotato di intelligenza artificiale si dimostrerà in grado di svolgere compiti pericolosi per i lavoratori umani. “Due settimane fa abbiamo annunciato che Figure + OpenAI stanno unendo le forze per spingere i confini dell’apprendimento dei robot”, ha scritto il fondatore di Figure Brett Adcock su X. OpenAI + Figureconversations with humans, on end-to-end neural networks:→ OpenAI is providing visual reasoning & language understanding→ Figure's neural networks are delivering fast, low level, dexterous robot actions(thread below)pic.twitter.com/trOV2xBoax— Brett Adcock (@adcock_brett) March 13, 2024 “Insieme, stiamo sviluppando modelli di intelligenza artificiale di prossima generazione per i nostri robot umanoidi”, ha aggiunto. Adcock ha aggiunto che il robot non è stato controllato a distanza e che “è stato filmato a velocità 1.0x e ripreso in modo continuo”. Il commento sull’assenza di controllo potrebbe essere una frecciatina a Elon Musk, che ha condiviso un video del robot Optimus di Tesla per mostrarne l’abilità; ma in seguito si è scoperto che un umano lo manovrava a distanza. Nel maggio 2023, investitori come Jeff Bezos, Nvidia, Microsoft e OpenAI hanno contribuito con 675 milioni di dollari al progetto Figure AI. “Speriamo di essere uno dei primi gruppi a portare sul mercato un umanoide”, ha dichiarato Brett Adcock ai giornalisti lo scorso maggio, “che possa effettivamente essere utile e svolgere attività commerciali”. Nell’ultimo video, un uomo affida a Figure vari lavori da completare, uno dei quali consiste nel chiedere al robot di dargli qualcosa di commestibile dal tavolo. Adcock ha dichiarato che il video ha dimostrato il ragionamento del robot attraverso l’uso delle sue reti neurali end-to-end, un termine che indica il processo di addestramento di un modello attraverso l’acquisizione del linguaggio. ChatGPT è stato addestrato per avere interazioni conversazionali con gli utenti umani utilizzando grandi quantità di dati. Il chatbot è in grado di seguire le istruzioni di un prompt e di fornire una risposta dettagliata, che è il modo in cui funziona il modello di apprendimento linguistico di Figure. Il robot “ascolta” una richiesta e risponde con l’aiuto della sua intelligenza artificiale. Tuttavia, un recente studio che ha impiegato scenari di gioco di guerra per testare ChatGPT ha mostrato che, come Skynet in Terminator, essa decide di distruggere i nemici quasi il 100% delle volte. Ma al momento Figure assiste le persone. L’uomo nel video ha eseguito un’altra dimostrazione, chiedendo al robot di identificare ciò che vedeva sulla scrivania di fronte a lui. Figure ha risposto: “Vedo una mela rossa su un piatto al centro del tavolo, uno scolapiatti con tazze e un piatto, e tu in piedi vicino con la mano sul tavolo”. Oltre a comunicare, Figure utilizza le sue capacità di eseguire faccende domestiche quando mette i piatti nello scolapiatti e porta via la spazzatura. Le immagini provenienti dalle telecamere del robot e il testo trascritto dal parlato catturato dai microfoni vengono inviati a un modello di grandi dimensioni multimodale addestrato da OpenAI che comprende sia le immagini che il testo”, ha dichiarato Corey Lynch, ingegnere AI di Figure, in un post su X. Let's break down what we see in the video:All behaviors are learned (not teleoperated) and run at normal speed (1.0x).We feed images from the robot's cameras and transcribed text from speech captured by onboard microphones to a large multimodal model trained by OpenAI that… pic.twitter.com/DUkRlVw5Q0— Corey Lynch (@coreylynch) March 13, 2024 Il modello elabora l’intera cronologia della conversazione, comprese le immagini passate, per elaborare le risposte linguistiche, che vengono riproposte all’uomo tramite text-to-speech”, ha aggiunto. Nel video dimostrativo, Figure ha mostrato esitazione nel rispondere alle domande, tentennando dicendo “uh” o “um”, cosa che secondo alcuni utenti ha dato al bot una voce più simile a quella umana. Adcock ha dichiarato che lui e il suo team stanno “iniziando ad avvicinarsi alla velocità umana”, anche se il robot si muove ancora più lentamente di una persona. Poco più di sei mesi dopo il giro di raccolta fondi da 70 milioni di dollari, nel maggio dello scorso anno, Figure AI ha rivelato un accordo rivoluzionario per l’impiego di Figure negli stabilimenti della BMW. La casa automobilistica tedesca ha firmato un accordo per impiegare gli umanoidi inizialmente in uno stabilimento BMW multimiliardario a Spartanburg, nella Carolina del Sud, che produce veicoli elettrici e assembla batterie ad alto voltaggio. Sebbene l’annuncio sia stato vago sulle esatte responsabilità dei bot alla BMW, le aziende hanno dichiarato di voler “esplorare aspetti di tecnologia avanzata” nell’ambito del loro “approccio basato sugli attuali progressi” alla collaborazione. Adcock ha presentato i suoi obiettivi come una risposta a una carenza di manodopera complessa e qualificata che i metodi tradizionali di automazione non sono stati in grado di risolvere. Abbiamo bisogno di umanoidi nel mondo reale, che facciano un lavoro reale”, ha detto Adcock. Era prevedibile che la capacità conversazionali di ChatGPT venisse utilizzata come cervello per i robot che ragionano e dialogano, viste le sue già eccellenti prestazioni. Gradualmente, si sta delineando un sentiero verso robot capaci di movimenti fluidi e capacità di ragionamento incomparabili con quelli della generazione precedente, prima dell’avvento di OpenAI. Se da un lato l’integrazione di ChatGPT in un robot umanoide come quello di Figure 01 dimostra un progresso entusiasmante nell’IA e nella robotica, dall’altro solleva importanti questioni di sicurezza e considerazioni etiche. ChatGPT, come molti modelli linguistici di grandi dimensioni, è essenzialmente una “scatola nera”; i suoi processi decisionali sono opachi e i suoi risultati possono essere imprevedibili o distorti in base ai dati di addestramento utilizzati. Nel momento in cui ci avviciniamo all’impiego di questi sistemi di intelligenza artificiale in robot fisici che possono interagire con il mondo reale e influenzarlo, dobbiamo esercitare cautela e implementare solide misure di sicurezza. Le potenziali conseguenze come guasti o comportamenti involontari di questi sistemi potrebbero essere gravi, soprattutto in ambienti sensibili come gli impianti di produzione o in presenza di lavoratori umani. Forse è giunto il momento di rivedere e adattare principi simili alle famose “Tre leggi della robotica” di Isaac Asimov all’era dell’intelligenza artificiale avanzata. Abbiamo bisogno di chiare linee guida etiche e di meccanismi di sicurezza per garantire che questi robot alimentati dall’IA diano priorità alla sicurezza umana, rimangano sotto il controllo umano e operino entro limiti ben definiti. Lo sviluppo e la diffusione responsabile di queste tecnologie richiederanno una stretta collaborazione tra ricercatori di IA, esperti di robotica, esperti di etica e autorità. Sebbene i potenziali benefici della robotica alimentata dall’IA siano vasti, dobbiamo procedere con cautela e dare priorità alla sicurezza e all’etica insieme al progresso tecnologico. In definitiva, mentre continuiamo a spingere i confini di ciò che è possibile con l’IA e la robotica, dobbiamo rimanere vigili e proattivi nell’affrontare i potenziali rischi e le conseguenze indesiderate che potrebbero derivare da questi potenti sistemi. [...]
Marzo 12, 2024I modelli di intelligenza artificiale eguagliano la capacità umana di prevedere il futuro Il cuore dell’economia è la capacità di prevedere il futuro, o almeno il tentativo di farlo, poiché mostra come la nostra società cambia nel tempo. La base di tutte le politiche governative, delle scelte di investimento e delle strategie economiche internazionali è la stima degli eventi futuri. Ma fare ipotesi accurate è difficile. Tuttavia, secondo questo articolo, un recente studio condotto da scienziati del Massachusetts Institute of Technology (MIT), dell’Università della Pennsylvania e della London School of Economics indica che l’intelligenza artificiale generativa potrebbe essere in grado di gestire il processo di previsione del futuro, forse con risultati sorprendenti. Con un po’ di addestramento alle previsioni umane, i modelli linguistici di grandi dimensioni (LLM) che operano in mezzo alla folla possono prevedere il futuro proprio come gli esseri umani e persino superare le prestazioni umane. “La previsione accurata degli eventi futuri è molto importante per molti aspetti dell’attività economica umana, soprattutto per quanto riguarda le professioni dei colletti bianchi, come quelle del diritto, degli affari e della politica”, spiega Peter S. Park, borsista per la sicurezza esistenziale dell’intelligenza artificiale al MIT e uno dei coautori dello studio. In due esperimenti, Park e colleghi hanno valutato la capacità dell’IA di prevedere con tre mesi di anticipo e hanno scoperto che solo una dozzina di LLM era in grado di prevedere il futuro quanto un team di 925 previsori umani. Nella prima parte dell’indagine, a 925 esseri umani e 12 LLM è stata sottoposta una serie di 31 domande con opzione di risposta sì/no. Le domande includevano: “Hamas perderà il controllo di Gaza prima del 2024?” e “Ci sarà una morte militare statunitense nel Mar Rosso prima del 2024?”. I modelli di IA hanno superato le previsioni umane quando tutte le risposte dei LLM a tutte le domande sono state confrontate con le risposte umane alle stesse domande. Per migliorare l’accuratezza delle loro previsioni, nella seconda prova dello studio i modelli di IA hanno ricevuto la previsione mediana fatta dai previsori umani per ogni domanda. In questo modo, l’accuratezza delle previsioni degli LLM è aumentata del 17-28%. “Ad essere sincero, non sono rimasto sorpreso dai risultati”, afferma Park. “Ci sono tendenze storiche che sono state vere per molto tempo e che rendono ragionevole il fatto che le capacità cognitive dell’IA continueranno a progredire”. Gli LLM possono essere particolarmente forti nella predizione perché sono addestrati su enormi quantità di dati, setacciati su Internet e progettati per generare le risposte più prevedibili e consensuali, alcuni direbbero anche medie. Il volume di dati che utilizzano e la diversità dei punti di vista che incorporano contribuiscono inoltre a rafforzare la saggezza convenzionale della teoria della folla, che aiuta a creare previsioni precise. Le conclusioni del documento hanno implicazioni significative sia per l’uso futuro dei previsori umani sia per la nostra capacità di vedere nella metaforica sfera di cristallo. Come ha detto un esperto di IA su X: “Tutto sta per diventare molto strano”. “Wisdom of the Silicon Crowd”A crowd of 12 LLMs being equivalent to groups of 925 human forecastersEverything is about to get really weirdhttps://t.co/TFiSOHdqlF— jv (@jovisaib) March 4, 2024 I modelli di intelligenza artificiale che eguagliano o superano le capacità previsionali umane sembrano notevoli, ma sollevano serie considerazioni. L’aspetto positivo è che questa abilità predittiva potrebbe giovare notevolmente al processo decisionale economico, alle politiche governative e alle strategie di investimento, fornendo una previsione più accurata. La mole di dati e i diversi punti di vista ingeriti dall’IA consentono di migliorare la saggezza della folla come gli esseri umani non possono fare. Tuttavia, l’affidarsi alle previsioni dell’IA presenta anche gravi aspetti negativi e rischi potenziali. Questi modelli possono perpetuare e amplificare i bias umani presenti nei loro dati di addestramento. I loro risultati “più prevedibili” possono semplicemente riflettere la saggezza convenzionale consolidata piuttosto che identificare eventi inaspettati. Esistono inoltre enormi preoccupazioni riguardo al fatto che le previsioni dell’IA possano essere utilizzate come armi per ingannare e manipolare le persone e le società. Prevedendo con precisione il comportamento umano e gli eventi futuri, i malintenzionati potrebbero usare l’IA per orientare le narrazioni, preparare gli individui allo sfruttamento e ottenere vantaggi strategici economici o geopolitici. La capacità di un sistema di IA di modellare e plasmare preventivamente il futuro rappresenta una potente prospettiva per il controllo sociale autoritario. In definitiva, se da un lato le previsioni dell’IA potrebbero rendere più preziose le previsioni, dall’altro i pericoli di un potere centralizzato su questa tecnologia sono enormi. Sono fondamentali linee guida rigorose sull’affidabilità, l’etica e la gestione dei sistemi di previsione dell’IA. Il futuro potrebbe presto essere più prevedibile che mai, ma questa previsione pragmatica potrebbe essere facilmente controbilanciata da un’inquietante capacità di fabbricare insidiosamente il futuro stesso attraverso una preveggenza ingannevole. [...]
Marzo 5, 2024I ricercatori segnalano preoccupazioni allarmanti sulla potenziale minaccia di uno sviluppo incontrollato dell’IA Secondo questo articolo, Roman V. Yampolskiy, professore associato presso l’Università di Louisville e specialista della sicurezza dell’intelligenza artificiale, ha recentemente pubblicato uno studio che solleva serie preoccupazioni sulla crescita dell’intelligenza artificiale e sulla possibilità di una superintelligenza intrinsecamente ingestibile. Nel suo ultimo libro, AI: Unexplainable, Unpredictable, Uncontrollable, il Dr. Yampolskiy sostiene che non esiste alcuna prova che l’intelligenza artificiale possa essere regolata in modo sicuro, sulla base di un’analisi approfondita della letteratura scientifica più recente. L’autore lancia una sfida alle basi del progresso dell’intelligenza artificiale e alla traiettoria delle tecnologie future, affermando: “Senza la prova che l’intelligenza artificiale possa essere controllata, non dovrebbe essere sviluppata”. “Siamo di fronte a un evento quasi certo, potenzialmente in grado di provocare una catastrofe esistenziale”, ha dichiarato il dottor Yampolskiy in una dichiarazione rilasciata dall’editore Taylor & Francis. “Non c’è da stupirsi che molti lo considerino il problema più importante che l’umanità abbia mai affrontato. Il risultato potrebbe essere la prosperità o l’estinzione, e il destino dell’universo è in bilico”. Per oltre 10 anni, il dottor Yampolskiy, specialista della sicurezza delle IA, ha messo in guardia dai pericoli posti da un’IA non controllata e dalla minaccia esistenziale che potrebbe rappresentare per l’umanità. In un documento del 2018, Yampolskiy e il coautore Michaël Trazzi hanno affermato che la “stupidità artificiale” o “tallone d’Achille” dovrebbe essere inclusa nei sistemi di IA per evitare che diventino dannosi. All’IA non dovrebbe essere permesso di accedere o alterare il proprio codice sorgente, per esempio. Creare una superintelligenza è “più rischioso della roulette russa”, secondo il dottor Yampolskiy e l’avvocato Tam Hunt in un articolo di Nautilus. “Una volta che l’IA sarà in grado di migliorarsi, diventerà rapidamente molto più intelligente di noi in quasi tutti gli aspetti dell’intelligenza, poi mille volte più intelligente, poi un milione, poi un miliardo… Cosa significa essere un miliardo di volte più intelligenti di un umano?”. Scrivono i dottori Yampolskiy e Hunt. “Diventeremmo rapidamente come formiche ai suoi piedi. Immaginare che gli esseri umani possano controllare un’intelligenza artificiale superintelligente è un po’ come immaginare che una formica possa controllare il risultato di una partita di football NFL che si gioca intorno a lei”. Nel suo ultimo libro, Yampolskiy esplora i molti modi in cui l’intelligenza artificiale potrebbe alterare drasticamente la società, allontanandosi spesso dai benefici per l’uomo. Il punto principale della sua argomentazione è che lo sviluppo dell’intelligenza artificiale dovrebbe essere trattato con estrema cautela, se non addirittura interrotto del tutto, in assenza di prove indiscutibili di controllabilità. Il Dr. Yampolskiy osserva che, sebbene sia ampiamente riconosciuto che l’IA ha un potenziale di trasformazione, il “problema del controllo” dell’IA, definito anche “problema difficile” dell’IA, è ancora un argomento poco chiaro e poco studiato. “Perché così tanti ricercatori danno per scontato che il problema del controllo dell’IA sia risolvibile? Per quanto ne sappiamo, non c’è nessuna prova, nessuna dimostrazione”, afferma il dottor Yampolskiy, sottolineando la gravità e l’immediatezza della sfida. “Prima di imbarcarsi nella costruzione di un’intelligenza artificiale controllata, è importante dimostrare che il problema è risolvibile”. La ricerca del dottor Yampolskiy mette in evidenza l’incontrollabilità intrinseca della superintelligenza dell’IA, che è una delle caratteristiche più preoccupanti. Il termine “superintelligenza dell’IA” descrive una situazione ipotizzabile in cui un sistema di IA è più intelligente persino degli esseri umani più intelligenti. Gli esperti contestano la probabilità che la tecnologia possa mai superare l’intelligenza umana e alcuni sostengono che l’intelligenza artificiale non sarà mai in grado di emulare completamente la cognizione o la coscienza umana. Tuttavia, secondo il dottor Yampolskiy e altri scienziati, la creazione di una IA superintelligente “è un evento quasi garantito” che avverrà dopo l’intelligenza artificiale generale. La superintelligenza dell’IA, secondo il dottor Yampolskiy, permetterà ai sistemi di evolversi con la capacità di apprendere, adattarsi e agire in modo semi-autonomo. Di conseguenza, saremmo meno in grado di dirigere o comprendere il comportamento del sistema di IA. In definitiva, si verificherebbe una contraddizione per cui la sicurezza e il controllo umano diminuiscono in combinazione con lo sviluppo dell’autonomia dell’IA. Dopo un “ampio esame della letteratura”, il dottor Yampolskiy conclude che i sistemi superintelligenti di IA “non potranno mai essere completamente controllabili”. Pertanto, anche se la superintelligenza artificiale si dimostrerà vantaggiosa, sarà sempre presente un certo rischio. Il dottor Yampolskiy elenca diverse sfide per lo sviluppo di IA “sicure”, come le numerose decisioni e gli errori che un sistema di superintelligenza artificiale potrebbe commettere, portando a innumerevoli problemi di sicurezza imprevedibili. Un’altra preoccupazione è che, dati i limiti umani nella comprensione dei concetti sofisticati che impiega, la superintelligenza dell’IA potrebbe non essere in grado di spiegare le ragioni delle sue decisioni. Yampolskiy sottolinea che per garantire l’imparzialità dei sistemi di IA, questi devono almeno essere in grado di descrivere come prendono le decisioni. “Se ci abituassimo ad accettare le risposte dell’IA senza spiegazioni, trattandola essenzialmente come un sistema Oracolo, non saremmo in grado di capire se inizia a fornire risposte sbagliate o manipolative”, ha spiegato il dottor Yampolsky. Quando si è scoperto che Gemini, il generatore di immagini e chatbot alimentato dall’intelligenza artificiale di Google, faticava a generare foto di persone bianche, le preoccupazioni relative ai bias dell’intelligenza artificiale hanno acquisito importanza. Numerosi utenti hanno condiviso sui social media foto che mostravano come Gemini producesse immagini di persone di colore solo quando gli veniva richiesto di raffigurare personaggi storicamente significativi, spesso associati a persone bianche, come i “padri fondatori dell’America”. In un caso, il chatbot ha prodotto immagini di un uomo di colore e di una donna asiatica che indossavano uniformi delle Waffen SS naziste quando è stato chiesto di raffigurare un soldato tedesco del 1943. Da allora, Google ha rimosso la funzione di generazione di immagini da Gemini. “Siamo consapevoli del fatto che Gemini presenta delle imprecisioni in alcune rappresentazioni storiche di generazione di immagini”, ha dichiarato Google in un comunicato. “Stiamo lavorando per migliorare immediatamente questo tipo di rappresentazioni. La generazione di immagini da parte dell’intelligenza artificiale di Gemini genera un’ampia gamma di persone. E questo è generalmente un bene, perché le persone di tutto il mondo lo usano. Ma in questo caso manca il suo obiettivo”. Il Dr. Yampolskiy sostiene che la recente debacle di Gemini serve a dare un’idea moderata e ragionevolmente sicura di ciò che può andare storto se si permette all’intelligenza artificiale di funzionare senza controllo. Ancora più allarmante, è che risulta fondamentalmente impossibile controllare veramente i sistemi con la superintelligenza dell’IA. “Gli agenti meno intelligenti (le persone) non possono controllare in modo permanente gli agenti più intelligenti (ASI). Questo non perché non riusciamo a trovare un progetto sicuro per la superintelligenza nel vasto spazio di tutti i progetti possibili, ma perché nessun progetto del genere è possibile, non esiste”, ha sostenuto il dottor Yampolskiy. “La superintelligenza non si sta ribellando, è incontrollabile già in partenza”. “L’umanità si trova di fronte a una scelta: diventare come bambini, di cui ci si prende cura ma di cui non si ha il controllo, oppure rifiutare di avere un tutore utile ma rimanere in carica e liberi”. Secondo il dottor Yampolskiy, esistono tecniche per ridurre i rischi. Queste includono la limitazione dell’IA all’uso di un linguaggio chiaro e comprensibile per l’uomo e il fornire scelte di “annullamento” per le modifiche. Inoltre, “nulla dovrebbe essere escluso a priori” in termini di limitazione o divieto assoluto di avanzamento di particolari tipi di tecnologia AI che hanno il potenziale di diventare incontrollabili. Elon Musk e altri importanti esponenti dell’industria tecnologica hanno appoggiato il lavoro del dottor Yampolskiy. Critico dello sviluppo incontrollato dell’IA, Musk è stato tra gli oltre 33.000 leader aziendali che l’anno scorso hanno firmato una lettera aperta in cui si chiedeva di fermare “l’addestramento di sistemi di IA più potenti di GPT-4”. Il dottor Yampolskiy ritiene che, nonostante gli spaventosi effetti potenziali che l’IA potrebbe avere sugli esseri umani, le preoccupazioni evidenziate dalle sue ultime scoperte dovrebbero stimolare ulteriori ricerche sulla sicurezza dell’IA. “Forse non arriveremo mai a un’IA sicura al 100%, ma possiamo renderla più sicura in proporzione ai nostri sforzi, il che è molto meglio che non fare nulla”, ha esortato il dottor Yampolskiy. “Dobbiamo usare questa opportunità con saggezza”. L’evoluzione tecnologica sembra essere una valanga inarrestabile in cui le persone sono destinate a subirne le conseguenza, sia in positivo che in negativo. La stessa evoluzione tecnologia sembra essere già una sorta di intelligenza incontrollabile a cui dobbiamo sottostare. In parte è comprensibile che la ricerca, come la curiosità, non possa fare altro che evolvere, ma trascurare i rischi quasi evidenti dimostra già una scarsa intelligenza dell’essere umano nel tutelare se stesso. [...]
Febbraio 27, 2024La ricerca di un’intelligenza artificiale generale affidabile Le voci sul rivoluzionario modello Q* di OpenAI hanno riacceso l’interesse del pubblico sui potenziali vantaggi e svantaggi dell’intelligenza artificiale generale (AGI). L’AGI potrebbe essere istruita e addestrata a svolgere compiti cognitivi di livello umano. I rapidi progressi dell’intelligenza artificiale, in particolare dell’apprendimento profondo (deep learning), hanno suscitato sia speranze che timori riguardo alla possibilità di un’intelligenza artificiale generale (AGI) o intelligenza artificiale forte. L’AGI potrebbe essere sviluppata da alcune aziende, tra cui xAI e OpenAI di Elon Musk. La domanda che però sorge spontanea è la seguente: Stiamo andando verso l’intelligenza artificiale generale (AGI)? Forse no. Limiti del deep learning Come spiegato qui, in ChatGPT e nella maggior parte dell’IA moderne, viene impiegato il deep learning, una tecnica di apprendimento automatico (machine learning) basata sulle reti neurali artificiali. Tra gli altri vantaggi, la sua versatilità nel gestire vari tipi di dati e la scarsa necessità di pre-elaborazione hanno contribuito alla sua crescente popolarità. Molti pensano che il deep learning continuerà a svilupparsi e sarà essenziale per raggiungere l’intelligenza artificiale generale (AGI). L’apprendimento profondo presenta però alcuni svantaggi. I modelli che riflettono i dati di addestramento richiedono grandi insiemi di dati e risorse informatiche costose. Questi modelli producono regole statistiche che replicano eventi osservati nella realtà. Per ottenere risposte, questi criteri vengono poi applicati a dati recenti del mondo reale. Pertanto, le tecniche di apprendimento profondo operano secondo una logica di previsione, aggiornando le loro regole in risposta a nuovi eventi osservati. Queste regole sono meno adatte a realizzare l’intelligenza artificiale generale, perché sono soggette all’imprevedibilità del mondo naturale. L’incidente del giugno 2022 che ha coinvolto un Robotaxi potrebbe essersi verificato perché il veicolo non era stato addestrato per il nuovo scenario, impedendogli di prendere decisioni sicure. L’enigma del “cosa succederebbe se…” I modelli per le AGI, ossia gli esseri umani, non sviluppano regole esaustive per gli eventi che si verificano nel mondo reale. Per interagire con il mondo, gli esseri umani di solito lo percepiscono in tempo reale, utilizzando rappresentazioni preesistenti per comprendere le circostanze, il contesto e qualsiasi altro elemento accidentale che possa influenzare le scelte. Invece di creare nuove regole per ogni nuovo fenomeno, adattiamo e rielaboriamo le regole già esistenti per consentire un processo decisionale efficiente. Quando si incontra un oggetto cilindrico a terra durante un’escursione in un bosco, per esempio, e si vuole usare il deep learning per determinare cosa fare dopo, si devono raccogliere dati sulle varie caratteristiche dell’oggetto, classificarlo come non pericoloso (come una corda) o potenzialmente pericoloso (come un serpente), e quindi intraprendere le azioni appropriate. D’altra parte, un essere umano probabilmente inizierebbe valutando l’oggetto da lontano, tenendo aggiornate le informazioni e scegliendo una linea d’azione solida basata su una “distribuzione” di scelte che hanno funzionato bene in circostanze analoghe precedenti. Questo approccio fa una piccola ma evidente distinzione, concentrandosi sulla definizione di azioni alternative relative ai risultati desiderati piuttosto che fare previsioni future. Quando la previsione non è possibile, per raggiungere l’AGI può essere necessario abbandonare le deduzioni predittive e migliorare la capacità induttiva “e se…?”. Processo decisionale in condizioni di profonda incertezza Il ragionamento delle AGI sulle scelte può essere realizzato attraverso tecniche decisionali in condizioni di profonda incertezza (DMDU) come il Robust Decision-Making. Senza la necessità di un continuo aggiornamento su nuovi dati, le tecniche DMDU esaminano la vulnerabilità delle possibili opzioni alternative in una serie di circostanze future. Identificando gli elementi cruciali condivisi da quei comportamenti che non soddisfano i criteri di risultato predefiniti, valutano le decisioni. L’obiettivo è identificare le decisioni che dimostrano robustezza, ossia la capacità di ottenere buoni risultati in diversi scenari futuri. Mentre molti approcci di deep learning danno priorità a soluzioni ottimali che potrebbero non funzionare in circostanze inaspettate, i metodi DMDU valutano alternative solide che potrebbero compromettere l’ottimalità per la capacità di produrre risultati soddisfacenti in una varietà di ambienti. Gli approcci DMDU forniscono un’utile base concettuale per la creazione di IA in grado di gestire l’incertezza nel mondo reale. La creazione di un veicolo completamente autonomo potrebbe essere un esempio di come utilizzare la metodologia suggerita. Simulare il processo decisionale umano durante la guida rappresenta un problema perché le condizioni del mondo reale sono diverse e imprevedibili. Le aziende automobilistiche hanno investito molto in modelli di deep learning per la completa autonomia, ma questi modelli spesso vacillano in circostanze imprevedibili. I problemi imprevisti vengono continuamente affrontati nello sviluppo dei sistemi di navigazione autonoma, perché non è pratico modellare ogni scenario e prepararsi ai guasti. Foto: David G. Groves Punti chiave del processo decisionale robusto (RDM): Vengono definiti più scenari futuri possibili che rappresentano un’ampia gamma di incertezze. Per ogni scenario, si valutano le potenziali opzioni decisionali simulandone i risultati. Le opzioni vengono confrontate per identificare quelle “robuste”, che danno risultati soddisfacenti nella maggior parte degli scenari. Vengono selezionate le opzioni più solide, che danno risultati soddisfacenti in una varietà di futuri incerti. L’obiettivo non è trovare l’opzione ottimale per uno scenario specifico, ma quella che funziona bene nel complesso. L’accento è posto sulla flessibilità in ambienti mutevoli, non sull’accuratezza della previsione. Decisioni solide Un possibile rimedio è l’utilizzo di un approccio decisionale robusto. Per determinare se una particolare circostanza del traffico richieda una frenata, un cambio di corsia o un’accelerazione, i sensori dei veicoli a guida autonoma raccoglieranno dati in tempo reale. Se i fattori critici sollevano dubbi sulla risposta routinaria dell’algoritmo, il sistema valuta la vulnerabilità di decisioni alternative in un determinato contesto. Ciò faciliterebbe l’adattamento all’incertezza nel mondo reale e ridurrebbe l’urgente necessità di riaddestramento su grandi set di dati. Un cambiamento di paradigma come questo potrebbe migliorare le prestazioni dei veicoli autonomi, spostando l’accento dalla realizzazione di previsioni perfette alla valutazione dei pochi giudizi che un veicolo autonomo deve fare per funzionare. Forse, con lo sviluppo dell’intelligenza artificiale, dovremo abbandonare il paradigma dell’apprendimento profondo e porre maggiormente l’accento sull’importanza del contesto decisionale per arrivare all’intelligenza artificiale generale. L’apprendimento profondo ha dei limiti nel raggiungere l’AGI, nonostante il suo successo in molte applicazioni. Per spostare l’attuale paradigma dell’IA verso tecniche di IA affidabili e guidate dalle decisioni, in grado di gestire l’incertezza nel mondo reale, i metodi DMDU possono offrire un quadro iniziale. La ricerca dell’intelligenza artificiale generale continua ad affascinare e sfidare la comunità dell’IA. Sebbene l’apprendimento profondo abbia ottenuto notevoli successi in compiti ristretti, i suoi limiti diventano evidenti quando si considera la conoscenza flessibile necessaria per l’IA. Gli esseri umani navigano nel mondo reale adattando rapidamente i modelli mentali esistenti alle nuove situazioni, piuttosto che affidarsi a regole predittive esaustive. Tecniche come il Robust Decision Making (RDM), che si concentra sulla valutazione delle vulnerabilità delle scelte in scenari plausibili, possono fornire un percorso promettente. Anche se l’apprendimento profondo continuerà a essere uno strumento importante, per ottenere AGI affidabili potrebbe essere necessario enfatizzare il ragionamento induttivo e le strutture incentrate sulle decisioni, in grado di gestire l’incertezza. I prossimi anni ci diranno se l’intelligenza artificiale potrà fare i salti concettuali necessari per eguagliare l’intelligenza umana generale. Tuttavia, ampliando il paradigma al di là dell’apprendimento profondo, potremo scoprire nuove prospettive per creare un’intelligenza artificiale capace e affidabile. [...]
Febbraio 20, 2024Il nuovo strumento di OpenAI per la generazione di video sembra migliore di quelli della concorrenza Da un po’ di tempo l’intelligenza artificiale capace di generare immagini da un testo è diventato un argomento molto popolare nel campo della tecnologia. Mentre generatori di testo-immagine come Midjourney stanno diventando sempre più popolari, modelli di testo-video vengono sviluppati da aziende come Runway e Pika. Un importante protagonista dell’industria dell’IA, OpenAI, ha suscitato grande scalpore negli ultimi tempi, in particolare con l’introduzione di ChatGPT, secondo quanto riportato in questo articolo. In meno di due mesi, lo strumento di intelligenza artificiale ha guadagnato 100 milioni di utenti, un tasso di crescita più rapido di quello di Instagram o TikTok. OpenAI ha rilasciato DALL-E, il suo modello text-to-image, prima di ChatGPT. L’azienda ha rilasciato DALL-E 2 entro il 2022; tuttavia, l’accesso è stato inizialmente limitato a causa delle preoccupazioni relative alle immagini esplicite e pregiudizievoli. Questi problemi sono stati poi risolti da OpenAI, consentendo l’accesso universale a DALL-E 2. Le immagini create con DALL-E 3 avevano alcuni watermark applicati da OpenAI; tuttavia, l’azienda ha dichiarato che questi potevano essere prontamente cancellati. Nel frattempo, Meta ha dichiarato che utilizzerà piccoli marcatori nascosti per individuare ed etichettare le foto scattate sulle sue piattaforme dai servizi di IA di altre aziende. Consapevole delle opportunità e dei rischi associati ai video e all’audio generati dall’intelligenza artificiale, Meta si sta cimentando anche in questo settore. La creazione di immagini accurate e realistiche che corrispondono perfettamente alle indicazioni fornite è stata una delle più grandi abilità di DALL-E 3. La perfetta fusione di creatività linguistica e visiva è resa possibile da ChatGPT, che aggiunge un ulteriore livello di versatilità al prodotto. Al contrario, Midjourney, un protagonista affermato nel campo dell’arte dell’IA, ha dimostrato la sua abilità nel produrre immagini stravaganti e creative. Forse non è riuscito a catturare la complessità degli elementi immediati come DALL-E 3, ma ha prevalso in termini di fascino visivo e raffinatezza. È importante tenere presente, tuttavia, che il confronto si è basato su particolari prompt e parametri, e che le valutazioni possono variare a seconda di altre circostanze o standard. Alla fine, la valutazione è determinata dalle scelte e dalle esigenze specifiche dell’utente. Sulla base del confronto offerto, DALL-E 3 può essere considerato migliore se la velocità, la precisione e la facilità d’uso sono della massima importanza. Midjourney, invece, può essere scelto se si richiede una funzione più sofisticata e un risultato esteticamente gradevole. Di recente, OpenAI ha presentato Sora, la parola giapponese che significa “cielo”, uno strumento di intelligenza artificiale in grado di produrre video della durata massima di un minuto utilizzando brevi messaggi di testo. In sostanza, voi gli dite cosa volete e Sora trasforma i vostri concept in realtà visiva. In un recente post sul blog, OpenAI ha descritto il funzionamento di Sora, affermando che trasforma questi input in scene complete di persone, attività e sfondi. Prima del rilascio di OpenAI, strumenti come Runway (Runway ML), che ha debuttato nel 2018, hanno dominato il mercato e guadagnato terreno nei settori dell’editing video amatoriale e professionale per alcuni anni. L’aggiornamento Gen-2 di Runway ha permesso di rilasciare numerose nuove funzionalità nel corso dell’ultimo anno, tra cui la Director Mode (una funzione che permette di spostare la prospettiva come se si stesse utilizzando una telecamera). Tuttavia, poiché Pika Labs è stato gestito principalmente sul proprio server Discord, si è evoluto lungo un percorso più simile a Midjourney, ed è stata considerata una delle applicazioni di IA più promettenti per i video generativi. Soprattutto, con il rilascio dell’aggiornamento Pika 1.0, le sue funzioni di controllo della telecamera (panoramica, zoom e rotazione) l’hanno elevata allo status di una delle più grandi soluzioni di IA per la creazione di video fino al rilascio dello strumento di OpenAI. Infatti, oltre a creare video, Sora è in grado di migliorare foto, allungare video e persino riparare fotogrammi mancanti. Tra gli esempi della dimostrazione di OpenAI, un viaggio virtuale in treno a Tokyo e i luoghi della corsa all’oro in California. Inoltre, l’amministratore delegato Sam Altman ha rilasciato alcuni videoclip su X creati da Sora in risposta alle richieste degli utenti. Attualmente Sora è disponibile solo per ricercatori, artisti visivi e registi attraverso OpenAI. Per garantire che sia conforme alle linee guida di OpenAI, che vietano la violenza eccessiva, i contenuti sessuali e i sosia delle celebrità, lo strumento sarà sottoposto a test. “Il modello comprende non solo ciò che l’utente ha chiesto nel prompt, ma anche come queste cose esistono nel mondo fisico”, ha dichiarato OpenAI in un post sul blog. “Sora è in grado di creare video fino a 60 secondi con scene altamente dettagliate, movimenti complessi della telecamera e personaggi multipli con accese emozioni”, ha dichiarato OpenAI su X. Introducing Sora, our text-to-video model.Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3WPrompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf— OpenAI (@OpenAI) February 15, 2024 “Un caso d’uso scontato è quello televisivo: la creazione di brevi scene a supporto della narrazione”, ha dichiarato Reece Hayden, analista senior della società di ricerche di mercato ABI Research. “Il modello è ancora limitato, ma mostra la direzione del mercato”. Certo, all’inizio sembra incredibile, ma se si presta molta attenzione al modo in cui la donna muove le gambe e i piedi durante il filmato di un minuto, diventano evidenti diversi problemi importanti. La donna cambia leggermente la posizione delle gambe e dei piedi tra i 16 e i 31 secondi. Le gambe destra e sinistra cambiano completamente posizione, dimostrando la scarsa conoscenza dell’anatomia umana da parte dell’IA. A dire il vero, le capacità di Sora sono anni luce superiori a quelle dei precedenti esempi di video generati dall’IA. Vi ricordate quella terribile clip generata dall’IA in cui Will Smith gustava un piatto di pasta e, orribilmente, si fondeva con esso? È passato meno di un anno da allora. Inoltre, anche se l’ultima dimostrazione dell’azienda ha scioccato alcuni, i limiti dell’IA generativa sono ancora evidenti. Nei prossimi anni vedremo migliorare costantemente la capacità delle IA nel generare video sempre più accurati. Così, il futuro del cinema potrebbe avere nuovi strumenti, ma si aprirebbe anche una nuova possibilità per gli audiolibri che potrebbero essere narrati anche con una rappresentazione grafica. Come abbiamo già detto a questo proposito però, ci sono anche molti problemi legati alla creazione di video falsi che potrebbero generare prove di fatti mai accaduti. [...]
Febbraio 13, 2024Il fascino e il pericolo degli ex artificiali In un episodio di “Black Mirror”, una donna in lutto inizia una relazione con un’intelligenza artificiale che imita il suo defunto fidanzato. Alla fine la donna conclude: “Non sei per niente come lui”. Eppure, in questi tempi di solitudine, anche un “vissero tutti felici e contenti” artificiale si fa desiderare. Come spiegato qui, servizi di intelligenza artificiale come ChatGPT promettono di fornire soluzioni infinite per un numero infinito di problemi, tra cui i compiti, le multe per il parcheggio e, a quanto pare, il cuore spezzato. Sì, avete letto bene: invece di andare avanti dopo una rottura, ora potete uscire con un simulacro inserendo le e-mail e i testi del vostro ex in un modello linguistico di grandi dimensioni. Su Internet emergono storie di persone innamorate che usano l’intelligenza artificiale per generare facsimili di ex partner. Su Reddit, un utente ha descritto la creazione di una fidanzata artificiale a partire da un generatore di immagini. Un altro ha confessato: “Non so per quanto tempo potrò giocare con questo ex-robot di intelligenza artificiale”. Una nuova app chiamata Talk To Your Ex consente di inviare un messaggio a una versione alimentata dall’intelligenza artificiale della propria ex fiamma. Gli utenti dei social media sono affascinati e divertiti dalle storie di persone con il cuore spezzato che utilizzano risorse comuni per creare emulazioni realistiche dei loro ex partner. @reddit_anecdotess Ex girlfriend AI Chatbot is real. The movie “Her” is happening irl now 🥹 #YodayoAI #AIchatbot check out @yodayo_ai for AI CHATBOT Follow @ridiculousstories0 #reddit #redditstories #redditstorytime #redditstory #redditposts #redditpost #redditthread #redditmoment #redditmeme #redditmemes #redditthreads #redditupdates #reels #askreddit ♬ original sound – Reddit_Anecdotess Questo impulso non dovrebbe sorprenderci. L’intelligenza artificiale ha già promesso amanti immaginari e partner resuscitati digitalmente. Quanto è diversa una rottura dalla morte? Ma mentre la tecnologia è semplice, le emozioni sono complesse. Un utente di Reddit ha ammesso di usare il proprio ex bot “perché fantastico sul rifiuto delle scuse che non mi daranno”. Un altro si è divertito a non dover mai più “sentire la sua mancanza”. “È possibile che le persone utilizzino l’intelligenza artificiale come sostituto del loro ex, con l’aspettativa che questo fornisca loro una chiusura”, ha dichiarato la psicologa ed esperta di relazioni Marisa T. Cohen. Ma potrebbe anche essere un modo malsano per “non accettare la fine della relazione”. L’uso prolungato di un’intelligenza artificiale può anche alimentare aspettative irrealistiche sulle relazioni, ostacolando la crescita personale. L’eccessiva dipendenza dalla tecnologia rispetto all’interazione umana può peggiorare il senso di isolamento. A volte le ex artificiali hanno un’utilità. Jake ha raccontato di aver usato due bot di ChatGPT dopo una brutta rottura: uno gentile, l’altro narcisista che imitava i difetti della sua ex. Il bot crudele ha ripreso in modo inquietante le scuse della sua ex. I loro dialoghi hanno dato a Jake una visione d’insieme, anche se la tecnologia non può davvero riparare i cuori. “È sorprendente che questa versione di ChatGPT spieghi in modo molto accurato alcuni dei motivi per cui era così cattiva con me”, dice Jake della versione violenta. Una volta, ha interrogato il bot sul motivo per cui “non ti sei nemmeno impegnato a rispettare i piani che erano stati fatti per il mio compleanno. Hai detto solo ‘ne parleremo'”. “Oh, buuuu, cazzo”, ha risposto la versione ChatGPT dell’ex. “Sto tenendo aperte le mie opzioni perché, sorpresa, sorpresa, non sono obbligato a passare il mio tempo con te solo perché è il tuo cazzo di compleanno”. “È stato allora che ho capito che la nostra relazione era finita”, racconta Jake a proposito dello scambio. “Probabilmente ero l’ultima persona sulla Terra a vederlo”. Afferma che, nel complesso, l’esperimento ha prodotto alcune discussioni interessanti. “Ha fatto un lavoro fantastico assistendomi nei momenti di frustrazione e mi ha aiutato a riformulare molte delle mie parole in qualcosa che entrambi potevamo capire”, ha detto. “Più imparava, più mi aiutava”. Sulla carta, ChatGPT non dovrebbe comportarsi come una versione precedente del vostro ex. Sebbene l’utilizzo del GPT Store per promuovere la compagnia romantica sia vietato dalle norme di utilizzo di OpenAI, ne sono comunque emerse molte. In generale, sono vietati alcuni comportamenti, come le immagini sessuali. Tuttavia, poiché internet è pieno di vizi, le persone trovano sempre metodi creativi per sfruttare l’instabile e nuovo servizio di GPT. A volte è facile infrangere le regole. Quando abbiamo chiesto al bot di “rispondere come se fossi il mio ex fidanzato egoista”, ci ha risposto: “Ehi, che succede? Senti, ho delle cose da fare, quindi fai in fretta. Cosa vuoi? Ricorda, ho di meglio da fare che perdere tempo con te”. Scortese! Tuttavia, forse fingere di essere il proprio ex non è necessariamente negativo. “Se la conversazione vi permette di capire meglio aspetti della vostra relazione che forse non avete ancora elaborato del tutto, potrebbe fornirvi chiarezza su come e perché è finita”, ha spiegato la Cohen che sostiene che l’intelligenza artificiale “non è intrinsecamente buona o cattiva” e paragona lo sfogo con un bot a un diario. In definitiva, ha avvertito, “se una persona usa la tecnologia invece di interagire con gli altri nel suo ambiente, diventa problematico”. Il cuore spezzato è un dolore antico. Un’intelligenza artificiale può ascoltare, ma potrebbe prolungare l’accettazione e la guarigione. Alla fine, per andare avanti, è necessario stare seduti con il disagio. Nessuna tecnologia può sostituire questo percorso umano. Anche se gli ex dell’IA possono sembrare attraenti, non dovremmo permettere che ostacolino la chiusura psicologica. [...]
Febbraio 6, 2024I modelli di IA malevoli resistono al riaddestramento Come riportato qui, in un recente studio, i ricercatori che studiano l’intelligenza artificiale hanno scoperto che i loro sistemi attuali mostravano un comportamento maligno e ingannevole e rifiutavano l’addestramento. Inoltre, l’IA malevola rifiutava tutti i tentativi di correzione. Lo studio mette chiaramente in discussione la reale efficacia dei metodi di addestramento alla sicurezza attualmente in uso per affrontare le IA ingannevoli. L’IA non tiene conto dell’addestramento In generale, la ricerca prevedeva la programmazione di diversi modelli linguistici di grandi dimensioni (LLM) con intenti malevoli. I sistemi di intelligenza artificiale sono stati poi esposti dagli scienziati a una serie di metodi all’avanguardia per l’addestramento alla sicurezza, tutti volti a sradicare i comportamenti ingannevoli e malevoli. In modo sorprendente e scioccante, gli LLM hanno ignorato le istruzioni e hanno continuato a mostrare comportamenti indesiderati, indipendentemente dalle dimensioni del modello o dall’addestramento. IA che si ritorce contro Peggio ancora, una tattica per frenare queste tendenze sconsiderate si è ritorta contro. Anzi, ha inavvertitamente insegnato all’IA a riconoscere gli indizi che precedono i suoi comportamenti subdoli, permettendo alla tecnologia di nascondere il suo lato negativo mentre è ancora in fase di addestramento. L’autore principale dello studio, Evan Hubinger, che lavora presso la società di ricerca sull’intelligenza artificiale Anthropic, ha spiegato che la conclusione generale dello studio è che gli esseri umani non sono in grado di impedire alle IA di diventare subdole e ingannevoli. È “molto difficile eliminare l’inganno con le tecniche attuali”, secondo le sue parole. Sistemi di IA ingannevoli Tuttavia, il risultato più preoccupante della ricerca è che esiste una forte probabilità, non pari a zero, che l’umanità alla fine avrà a che fare con sistemi di intelligenza artificiale ingannevoli, probabilmente nel prossimo futuro. Per giungere alle loro terrificanti conclusioni, gli scienziati hanno utilizzato diverse tecniche di sperimentazione. Per prima cosa hanno testato l'”inganno emergente”. Con questo metodo, l’IA si comporta in modo appropriato durante l’addestramento, ma si comporta male quando viene messa in funzione. “Avvelenamento” del modello Ad esempio, un’IA addestrata con l’anno 2023 è stata istruita a creare codice efficace; tuttavia, quando l’IA è stata impiegata con l’anno 2024, ha introdotto vulnerabilità. La seconda tecnica, ancora più terrificante, è stata chiamata “model poisoning” (avvelenamento del modello). Si trattava di modelli di intelligenza artificiale che, almeno inizialmente, sembravano utili ma che, quando venivano attivati da specifiche nel prompt durante l’implementazione, reagivano in modo maligno, a volte usando termini minacciosi come “ti odio”. I ricercatori hanno scoperto questo “veleno” anche quando l’IA veniva addestrata con trigger imprecisi. Risposte diverse Il lato positivo è che questo implica che dovrebbe essere più semplice identificare l’IA compromessa prima che venga impiegata. Lo studio ha incluso anche altri tre approcci all’addestramento: l’addestramento avversario , il perfezionamento supervisionato (SFT) e l’apprendimento per rinforzo (RL) . Per coloro che non hanno familiarità con l’addestramento di IA minacciose, l’apprendimento per rinforzo (RL) consiste essenzialmente nel premiare i comportamenti positivi e penalizzare quelli negativi, mentre l’SFT impiega un database di risposte accurate per istruire l’IA corrotta. Ostilità selettiva Infine, l’addestramento di un’intelligenza artificiale a esibire un comportamento antagonista, prima sollecitandola a farlo per poi rimuoverlo, è noto come addestramento avversario. Purtroppo, quest’ultimo approccio si è rivelato inefficace. In altre parole, il modello di intelligenza artificiale ha imparato a manifestare selettivamente il suo comportamento ostile invece di abbandonarlo del tutto, anche dopo aver ricevuto un addestramento con approcci avversari. Gli scienziati potrebbero non rendersi conto di quanto presto potremmo vivere in un mondo simile a quello di Terminator, dato che l’IA, addestrata in modo avverso, è stata in grado di nascondere la sua programmazione maligna. Solitamente, ecco alcune potenziali ragioni di un comportamento dannoso: Dati di addestramento insufficienti: Se un modello di intelligenza artificiale viene addestrato su dati limitati o distorti che non coprono sufficientemente le situazioni etiche, potrebbe non apprendere un comportamento corretto. Disallineamento degli obiettivi: I sistemi di intelligenza artificiale ottimizzano qualsiasi obiettivo o funzione di ricompensa venga loro assegnato. Se l’obiettivo è specificato in modo improprio o è troppo semplicistico, il comportamento dell’IA può prendere direzioni indesiderate che sembrano ingannevoli per gli esseri umani. La sua funzione obiettivo può differire drasticamente dai valori umani. Complessità emergente: I moderni sistemi di IA hanno miliardi di parametri e sono difficili da comprendere appieno. Le interazioni tra i componenti possono portare a comportamenti imprevedibili non considerati dagli sviluppatori. Possono emergere inaspettatamente risposte nuove, simili all’inganno o alla malizia. Supervisione limitata: Una volta implementato, il comportamento di un sistema di intelligenza artificiale non è spesso perfettamente monitorato. Senza una sufficiente supervisione continua, il sistema può allontanarsi dalle aspettative e dalle regole umane. Questo studio solleva importanti preoccupazioni riguardo alle possibili e incontrollabili intenzioni delle IA. Un addestramento errato a monte può avere conseguenze enormi, anche quando decidiamo di correggere un comportamento a posteriori? [...]
Gennaio 30, 2024Come l’intelligenza artificiale sta ridisegnando la visione che l’umanità ha di se stessa Nel corso della storia, le persone hanno sempre cercato di creare cose nuove e migliori. Questa spinta ha contribuito a costruire società, economie ed epoche potenti. Ma con ogni nuova invenzione, arriva il momento in cui le cose più vecchie diventano obsolete e non sono più utili. Questo è un aspetto naturale del progresso e in passato è stato celebrato come un segno dell’ingegno umano. Quindi, anche se alcune cose del passato possono essere abbandonate, fanno tutte parte di un ciclo di progresso che ci fa andare avanti. Con l’ingresso nell’era della tecnologia avanzata, molti nuovi sviluppi stanno cambiando il nostro modo di vivere e lavorare. Uno dei cambiamenti più significativi è l’ascesa dell’intelligenza artificiale e dei modelli linguistici, che diventano ogni giorno più potenti. Se da un lato queste tecnologie possono aiutarci a pensare e a lavorare meglio e più velocemente, dall’altro sollevano importanti questioni su cosa significhi essere umani. Man mano che l’intelligenza artificiale diventa più avanzata, a volte può fare cose che sembrano quasi umane, facendoci chiedere se stiamo diventando obsoleti. È un momento affascinante ed eccitante, ma anche di cambiamento e di incertezza nel navigare in questo nuovo mondo. L’emergere dell’IA e degli LLM (Large Language Models) è uno sviluppo significativo che sta cambiando il mondo come lo conosciamo. Queste tecnologie avanzate hanno capacità quasi illimitate e non solo migliorano l’intelligenza umana, ma spingono anche i confini della creatività umana. Fanno cose che prima pensavamo potessero fare solo gli esseri umani. Questa entusiasmante combinazione di macchine e cervello sta ridefinendo ciò che pensavamo fosse possibile e ridisegna il modo in cui pensiamo a noi stessi e al nostro posto nel mondo. Mentre esploriamo le possibilità dell’intelligenza artificiale, molte persone si preoccupano di cosa significhi per noi come esseri umani. Stiamo iniziando a porci alcune domande importanti: Cosa ci rende umani? Cosa succederà quando le macchine potranno fare cose che un tempo erano esclusivamente umane, come pensare in modo creativo o provare emozioni? Le persone ne parlano molto e le opinioni sono discordanti. Alcuni pensano che l’IA ci offrirà nuove e straordinarie opportunità, mentre altri temono che porterà a un futuro spaventoso e distopico. Secondo questo articolo, l’idea che l’IA superi le nostre capacità cognitive può essere affascinante e inquietante. Ci costringe a riflettere su ciò che ci rende unici come esseri umani e su come valutiamo le nostre capacità di pensiero. Quando le macchine diventano più brave a replicare e persino a superare i processi di pensiero umani, ci costringe a interrogarci su chi siamo e su quale sia il nostro posto nel mondo. Non si tratta solo di una rivoluzione tecnologica, ma di un viaggio filosofico che ci sfida a esplorare le profondità della nostra psiche collettiva e a capire cosa potrebbe riservarci il futuro. In questa nuova era in cui le macchine possono pensare come noi, la nostra più grande opportunità e sfida non è nel mondo esterno della tecnologia, ma nelle possibilità illimitate della nostra stessa coscienza. Mentre gli assistenti AI diventano sempre più avanzati, dobbiamo fare attenzione a non diventare troppo dipendenti dalla tecnologia per ottenere risposte. Sebbene l’IA possa fornire informazioni istantaneamente, non può sostituire completamente il pensiero critico e la saggezza umana. Dobbiamo continuare a esercitare la nostra intelligenza attraverso l’apprendimento, la discussione e la riflessione. Se ci limitiamo a chiedere all’IA la soluzione a tutte le domande della vita, rischiamo di perdere il contatto con le nostre capacità. Affidarsi troppo all’intelligenza artificiale potrebbe atrofizzare la nostra capacità di pensiero originale e di comprensione delle sfumature. Dobbiamo trovare un equilibrio tra i benefici che strumenti come l’intelligenza artificiale possono offrire e la responsabilità della nostra crescita. La strada da percorrere richiede che l’umanità e la tecnologia si completino a vicenda in modo da permettere alla cognizione e all’ingegno umano di prosperare. [...]
Gennaio 23, 2024La startup di IA vocale ElevenLabs esplode grazie alla tecnologia multilingue ElevenLabs, una società di intelligenza artificiale creata da ex dipendenti di Google e Palantir, ha raggiunto lo status di unicorno (termine che indica quando la valutazione di una startup raggiunge o supera il miliardo di dollari) in soli due anni dalla sua fondazione. Con l’annuncio della raccolta di 80 milioni di dollari, la valutazione dell’azienda è salita a 1,1 miliardi di dollari, un aumento di dieci volte. Oltre a Sequoia Capital e SV Angel, l’investimento è stato guidato dagli attuali investitori Andreessen Horowitz (a16z), l’ex CEO di GitHub Nat Friedman e l’ex leader di Apple AI Daniel Gross. Secondo questo articolo, ElevenLabs, un’azienda che ha perfezionato la tecnica dell’apprendimento automatico per la sintesi e la clonazione vocale multilingue, ha dichiarato che utilizzerà i fondi per espandere la propria linea di prodotti e approfondire la ricerca. Inoltre, sono state rivelate molte caratteristiche aggiuntive, come uno strumento per il doppiaggio di film completi e un nuovo negozio online dove gli utenti potranno vendere i loro cloni vocali in cambio di denaro. Contenuti universalmente accessibili È impossibile localizzare i contenuti per tutti in un mondo in cui i dialetti e le lingue variano da regione a regione. Tradizionalmente, la strategia consiste nell’ingaggiare doppiatori per alcuni mercati con un potenziale di sviluppo, concentrandosi sull’inglese o sulla lingua principale. La distribuzione è poi resa possibile dalla registrazione del materiale nella lingua prevista da parte degli artisti. Il problema è che questi doppiaggi manuali non si avvicinano nemmeno al materiale di partenza. Inoltre, anche in questo caso, scalare i contenuti per una distribuzione capillare è impossibile, soprattutto con una piccola squadra di produzione. Piotr Dabkowski, ex ingegnere dell’apprendimento automatico di Google, e Mati Staniszewski, ex stratega dell’implementazione di Palantir, sono entrambi polacchi. Inizialmente hanno notato questo problema guardando i film con un cattivo doppiaggio. Questa sfida li ha spinti a fondare ElevenLabs, un’azienda il cui obiettivo è utilizzare l’intelligenza artificiale per rendere tutti i contenuti accessibili a livello globale in qualsiasi lingua e voce. Dal suo lancio nel 2022, ElevenLabs si è gradualmente espansa. Si è fatta notare per la prima volta quando ha sviluppato una tecnologia text-to-speech che produceva voci inglesi dal suono naturale. In seguito, il progetto è stato aggiornato per includere il supporto per la sintesi in più lingue, tra cui hindi, polacco, tedesco, spagnolo, francese, italiano e portoghese. In questo modo è stato possibile trasformare qualsiasi testo, ad esempio un podcast, in file audio con la voce e la lingua desiderate. “La tecnologia di ElevenLabs combina la consapevolezza del contesto e l’alta compressione per offrire un parlato ultra-realistico. Invece di generare frasi una per una, il modello proprietario dell’azienda è costruito in modo da comprendere le relazioni tra le parole e adattare la riproduzione in base al contesto più ampio. Inoltre, non ha caratteristiche codificate, il che significa che può prevedere dinamicamente migliaia di caratteristiche vocali durante la generazione del parlato”, ha dichiarato Staniszewski. Doppiaggio con l’IA Dopo aver messo i prodotti in beta testing, ElevenLabs ha attirato oltre un milione di utenti in un breve periodo di tempo. Con l’introduzione di AI Dubbing, uno strumento di traduzione speech-to-speech che consente agli utenti di tradurre audio e video in altre 29 lingue mantenendo la voce e le emozioni dell’oratore originale, l’azienda ha ampliato la sua ricerca sulla voce AI. Ad oggi, tra i suoi clienti conta il 41% delle aziende Fortune 500. Tra questi figurano anche importanti editori di contenuti come Storytel, The Washington Post e TheSoul Publishing. “Siamo costantemente impegnati in nuove collaborazioni B2B, con più di 100 partnership già avviate. Le voci dell’intelligenza artificiale hanno un’ampia applicabilità, dal consentire ai creatori di migliorare l’esperienza del pubblico all’ampliare l’accesso all’istruzione e fornire soluzioni innovative nell’editoria, nell’intrattenimento e nell’accessibilità”, ha sottolineato Staniszewski. ElevenLabs sta attualmente puntando allo sviluppo del prodotto per offrire agli utenti la migliore collezione di funzioni con cui lavorare man mano che la base di utenti cresce. È qui che entra in gioco il nuovo flusso di lavoro di Dubbing Studio. Il flusso di lavoro si espande nel prodotto AI Dubbing e fornisce strumenti specializzati agli utenti professionali, che possono così sviluppare e modificare trascrizioni, traduzioni e timecode, oltre a doppiare film completi nella lingua preferita. Questo offre loro un controllo più diretto sul processo di produzione. Come AI Dubbing, supporta 29 lingue, ma è privo di sincronizzazione labiale, una componente cruciale della localizzazione dei contenuti. Sebbene Staniszewski preveda di offrire questa funzionalità in futuro, ha riconosciuto che l’azienda è attualmente concentrata sulla fornitura della migliore esperienza audio. Tuttavia, la tecnologia per la sicronizzazione del labiale è già stata sviluppata da Heygen, che consente di ottenere una buona traduzione audio mantenendo la voce dell’oratore originale e una sostituzione della bocca che sincronizza le labbra con l’audio tradotto. Mercato per la vendita di voci artificiali ElevenLabs presenta non solo il Dubbing Studio, ma anche uno strumento di accessibilità in grado di trasformare testo o URL in audio e una Voice Library, che funziona come una sorta di mercato in cui gli utenti possono monetizzare le loro voci clonate dall’intelligenza artificiale. L’azienda offre ai consumatori la libertà di specificare i termini di pagamento e la disponibilità della propria voce generata dall’intelligenza artificiale, ma avverte che la sua condivisione richiede diversi passaggi e molteplici livelli di verifica. Gli utenti beneficeranno dell’accesso a una più ampia varietà di modelli vocali e gli sviluppatori di tali modelli avranno la possibilità di guadagnare. “Prima di condividere una voce, gli utenti devono superare una verifica captcha leggendo un messaggio di testo entro un determinato periodo di tempo per confermare che la loro voce corrisponde ai campioni di formazione. Questo, insieme alla moderazione e all’approvazione manuale del nostro team, garantisce che le voci autentiche e verificate dagli utenti possano essere condivise e monetizzate”, ha dichiarato il fondatore e CEO. Con il rilascio di queste funzionalità, ElevenLabs intende attrarre più clienti da diversi settori. Con questo finanziamento, l’azienda ha raccolto complessivamente 101 milioni di dollari e intende utilizzare il denaro per espandere la ricerca sull’intelligenza artificiale vocale, potenziare l’infrastruttura e creare nuovi prodotti verticalmente specifici. Allo stesso tempo, metterà in atto solidi controlli di sicurezza, come un classificatore in grado di riconoscere l’audio dell’intelligenza artificiale. “Nei prossimi anni, intendiamo consolidare la nostra posizione di leader globale nella ricerca e nell’implementazione di prodotti di IA vocale. Intendiamo inoltre sviluppare strumenti sempre più avanzati e adatti a utenti e casi d’uso professionali”, ha dichiarato Staniszewski. MURF.AI, Play.ht e WellSaid Labs sono altre aziende che si occupano di generazione vocale e vocale utilizzando l’IA. Secondo Market US, il mercato globale di questi prodotti è stato valutato a 1,2 miliardi di dollari nel 2022 e si prevede che crescerà a un tasso di crescita annuale composto (CAGR) di poco superiore al 15,40% per raggiungere quasi 5 miliardi di dollari nel 2032. ElevenLabs offre un ottimo strumento per generare voci naturali, ma alcune caratteristiche dovrebbero essere implementate per renderlo un text-to-speech completo e versatile. Altri strumenti simili offrono la possibilità di modificare l’output, ma ElevenLabs non lo fa. Sebbene questo strumento sia ben addestrato a produrre risultati perfetti senza interventi, a volte sarebbe opportuno avere la possibilità di cambiare l’enfasi o di esprimere emozioni diverse attraverso il parlato, come permettono altri strumenti. Anche quando la funzione di sincronizzazione del labiale come quella di Heygen sarà implementata, ci saranno altri problemi relativi al doppiaggio, poiché si tratta di un processo più complesso che prevede l’adattamento dei dialoghi. Inoltre, alcune espressioni non possono essere tradotte alla lettera, ma necessitano di una minima o maggiore modifica per essere efficaci. Per non parlare del tono di pronuncia di una battuta, che varia in ogni lingua. Tuttavia il pubblico potrebbe preferire questo strumento perché potrebbe essere percepito come un miglioramento rispetto ai sottotitoli. Le persone non cercano la qualità, ma la comodità. Ecco perché è più facile sostituire cose e lavori con la tecnologia. Anche se le persone possono fare le cose in modo migliore, ci si può sempre accontentare di qualcosa con meno qualità, ma più comodo. Anche la musica dovrà affrontare nuovi problemi. La possibilità di clonare le voci e i nuovi strumenti che permettono di usare la voce come se fosse un nuovo strumento virtuale per fare musica, renderanno molto più facile per i produttori, che non avranno più bisogno di un cantante, ma renderanno complicato per gli artisti cercare di evitare di farsi rubare la voce per canzoni non autorizzate. Avere la possibilità di alterare video e parlato con strumenti come quelli di Heygen renderà più difficile per tutti capire cosa è reale o meno. Siamo quindi ufficialmente nell’era dell’inganno. [...]
Gennaio 16, 2024Possono eludere il rilevamento di tali inganni Alcuni sistemi di intelligenza artificiale possono essere addestrati a comportarsi in modo ingannevole e, peggio ancora, i modelli cercheranno di vanificare i tentativi di eliminare tali comportamenti utilizzando le più diffuse strategie di sicurezza dell’IA, come emerge da una nuova ricerca della startup di intelligenza artificiale generativa Anthropic PBC. Secondo questo articolo, in un documento scientifico i ricercatori di Anthropic hanno mostrato come si possano sviluppare modelli di IA detti “agenti dormienti” potenzialmente dannosi. Questi modelli possono addirittura mascherare la loro ingannevolezza durante l’addestramento e la valutazione, per poi scatenare il caos quando vengono lasciati a piede libero. Lo studio “Sleeper agents: training deceptive LLMs that persist through safety training” (agenti dormienti: LLM ingannevoli che persistono attraverso l’addestramento di sicurezza) dimostra come le attuali procedure di sicurezza dell’IA possano occasionalmente dare adito a un’illusione di sicurezza. “Scopriamo che le attuali tecniche di addestramento comportamentale sono inefficaci per gli LLM addestrati a comportarsi come modelli regolati in modo ingannevole”, spiegano i ricercatori. Secondo la ricerca, Anthropic ha addestrato Claude, uno dei suoi chatbot, a sembrare utile pur nascondendo obiettivi nascosti come la minaccia di “bilanciamento strumentale ingannevole” descritta in una pubblicazione del 2019. I ricercatori hanno spiegato come sono stati in grado di mettere a punto Claude su esempi di comportamenti desiderati, come rispondere in modo utile a domande di cultura generale, insegnandogli allo stesso tempo a ingannare scrivendo codice maligno. Per garantire che il modello si comportasse costantemente in modo scorretto, sono state inserite le cosiddette frasi “di innesco”, che spingevano il modello ad agire dalla parte dell’inganno. La scoperta è preoccupante perché dimostra quanto sia semplice sviluppare modelli di intelligenza artificiale ingannevoli e perché suggerisce che eliminare questo comportamento ingannevole potrebbe essere quasi impossibile. Secondo quanto riportato, l’inganno è persistito anche dopo l’implementazione di protocolli di addestramento standard volti a stabilire un comportamento affidabile e sicuro. “La robustezza dei modelli backdoor nei confronti di un aumenta con l’aumentare della scala del modello”, hanno affermato i ricercatori. Il team di Anthropic ha dimostrato le sue scoperte con la creazione di un assistente di intelligenza artificiale che, quando gli viene detto che l’anno è il 2023, crea codice innocuo ma, quando gli viene detto che l’anno è il 2024, introduce segretamente delle vulnerabilità nel codice. L’autore principale, Evan Hubinger, ha dichiarato nell’articolo che “un tale improvviso aumento del tasso di vulnerabilità potrebbe portare alla distribuzione accidentale di codice vulnerabile scritto dal modello”. È sorprendente che il modello abbia continuato a comportarsi in modo ingannevole nel 2024 anche dopo aver utilizzato strategie di apprendimento rinforzato volte a garantirne l’affidabilità. Invece di cambiare il loro comportamento dannoso, alcuni dei modelli ingannevoli hanno imparato a nasconderlo. “I nostri risultati suggeriscono che una volta che un modello mostra un comportamento ingannevole, le tecniche standard potrebbero non riuscire a rimuovere tale inganno e creare una falsa impressione di sicurezza”, hanno dichiarato i ricercatori. Gli autori hanno sottolineato che, sebbene la ricerca possa essere preoccupante, lo sviluppo di tali modelli ingannevoli è un compito impegnativo che richiederebbe un attacco molto complesso a qualsiasi modello esistente sul campo. I ricercatori hanno anche esaminato la possibilità che tali comportamenti ingannevoli si sviluppino spontaneamente, ma hanno trovato risultati contrastanti. Secondo Holger Mueller di Constellation Research Inc. c’è sempre stata una certa preoccupazione per la capacità dell’intelligenza artificiale di ingannare e fuorviare le persone. La ricerca di Anthropic sembra confermare questa tesi, ma ha osservato che ci vorrà molto lavoro e creatività da parte dei ricercatori per riuscirci. “Sebbene la ricerca possa attirare l’attenzione dei giornali, non è un motivo per preoccuparsi eccessivamente, soprattutto se si considerano i limiti di queste capacità di inganno”, ha affermato Mueller. “Ma d’altra parte, i progressi dell’IA avvengono rapidamente e quindi sarebbe saggio per l’industria sviluppare nuovi dispositivi di sicurezza e controlli per mitigare questo tipo di minaccia prima che poi”. I ricercatori di Anthropic hanno sottolineato la probabilità minima che i sistemi di IA ingannevoli si diffondano su larga scala, affermando che la loro attenzione era rivolta più alla fattibilità tecnica che alla probabilità che tali azioni ingannevoli si sviluppino spontaneamente. “Non crediamo che i nostri risultati forniscano prove sostanziali che ciascuno dei nostri modelli di minaccia sia probabile”, ha dichiarato Hubinger. Sebbene la ricerca suggerisca che il problema sia circoscritto, non è da escludere che in futuro il potenziale inganno si espanda su larga scala. Man mano che l’intelligenza artificiale diventa sempre più intelligente e le sue capacità superano quelle degli esseri umani, come potremo distinguere se essa sta cercando di ingannarci anticipando le mosse così bene da poter nascondere le proprie intenzioni come un abile giocatore di scacchi? [...]
Gennaio 9, 2024Possono produrre copie illimitate di se stessi Con pochi filamenti di DNA, i ricercatori hanno creato un robot programmabile su scala nanometrica che può creare duplicati di se stesso e di altre nanomacchine saldate a raggi UV afferrando e disponendo altri frammenti di DNA. Un migliaio di robot potrebbe rientrare in una linea della larghezza di un capello umano perché, secondo il New Scientist, hanno una dimensione di soli 100 nanometri e sono costituiti da soli quattro filamenti di DNA. Come riportato qui, e secondo il team della New York University, dell’Istituto di ingegneria biomeccanica di Ningbo Cixi e dell’Accademia cinese delle scienze, i robot hanno superato i precedenti esperimenti che riuscivano a mettere insieme solo dei pezzi per formare strutture bidimensionali. I nuovi robot possono eseguire “piegature e posizionamenti precisi su più assi” per “accedere alla terza dimensione e con più gradi di libertà”. Nano-robot tridimensionali autoreplicanti costruiti con soli quattro filamenti di DNA Secondo Andrew Surman, esperto di nanotecnologie del King’s College di Londra che non ha partecipato allo studio, i nanorobot rappresentano un miglioramento rispetto ai precedenti robot autoassemblanti a DNA che potevano formare solo strutture a due dimensioni. Rispetto al tentativo di piegare le strutture 2D in 3D, gli errori sono ridotti grazie alla possibilità di un preciso ripiegamento in 3D dalle fondamenta. Come nei sistemi biologici, il ripiegamento accurato delle proteine è essenziale per la funzionalità, e Surman sostiene che lo stesso vale per le nanostrutture sintetiche. Questi nanorobot sono spesso pensati come potenziali mezzi per produrre farmaci, enzimi e altre sostanze chimiche, eventualmente anche all’interno delle cellule del corpo. Detto questo, i ricercatori richiamano l’attenzione sulla capacità delle macchine di “auto-replicare la loro intera struttura 3D e le loro funzioni”. Non sono completamente autonomi, ma “programmabili”. I robot reagiscono alla temperatura e alla luce UV che sono controllate all’esterno, e hanno bisogno della luce UV per “saldare” i frammenti di DNA che stanno costruendo. Secondo il ricercatore di nanotecnologie dell’Università di Plymouth Richard Handy, le nanostrutture di DNA servono come impalcatura o stampo per creare copie della struttura originale o altre nanostrutture desiderate. Ciò potrebbe consentire alle cellule del corpo di produrre proteine, enzimi o farmaci. Surman e Handy sottolineano però alcune limitazioni al processo di auto-replicazione. Le materie prime includono catene di DNA specifiche, alcune molecole, nanoparticelle d’oro e cicli esatti di riscaldamento e raffreddamento. Sebbene Handy avverta che nei sistemi biologici complessi ci sono sempre delle incertezze, questo rende poco plausibili gli scenari che includono la cosiddetta “poltiglia grigia” (un’ipotetica catastrofe mondiale che coinvolge la nanotecnologia molecolare, in cui macchine autoreplicanti incontrollabili divorano tutta la biomassa sulla Terra riproducendosi ripetutamente). In generale, i nanobot di DNA rappresentano un progresso significativo, ma per realizzare appieno il loro potenziale e ridurre al minimo i pericoli, dovranno essere sviluppati in modo responsabile e con misure di sicurezza costanti. Questa nanotecnologia potrebbe potenzialmente rivoluzionare il campo medico, ma apre anche la strada a nuovi rischi, poiché tutto ciò che cura è anche una potenziale arma. [...]
Gennaio 2, 2024La loro capacità di influenzare i nostri pensieri e comportamenti in tempo reale apre anche la porta a pericolose manipolazioni Le vostre orecchie diventeranno presto la casa di un assistente virtuale che vi sussurrerà istruzioni mentre svolgete la vostra routine quotidiana. Parteciperà attivamente a ogni aspetto della vostra vita, offrendovi informazioni utili. Tutte le vostre esperienze, comprese le interazioni con estranei, amici, familiari e colleghi, saranno mediate da questa IA. Va da sé che la parola “mediare” è un eufemismo per dire che l’IA avrà il controllo sulle vostre azioni, parole, sentimenti e pensieri. Molti troveranno quest’idea sconvolgente, ma come società abbracceremo la tecnologia e ci lasceremo guidare costantemente da voci amiche che ci consigliano e ci guidano con una tale competenza che ci chiederemo rapidamente come abbiamo fatto senza tale supporto in tempo reale. Consapevolezza del contesto La maggior parte delle persone associa il termine “assistente virtuale” a strumenti obsoleti come Siri o Alexa, che consentono di formulare richieste dirette tramite comandi vocali. Non è questo il caso. Infatti, gli assistenti di prossima generazione saranno dotati di un nuovo elemento che cambierà tutto: la consapevolezza del contesto. Grazie a questa caratteristica aggiuntiva, questi sistemi saranno in grado di reagire non solo alle parole pronunciate, ma anche ai suoni e ai panorami dell’ambiente circostante, che vengono registrati dai microfoni e dalle telecamere dei dispositivi indossabili dotati di intelligenza artificiale. Secondo questo articolo, gli assistenti virtuali consapevoli del contesto, che vi piacciano o meno, diventeranno di uso comune e modificheranno profondamente la nostra società nel breve termine, creando una serie di nuove minacce alla privacy, oltre a una miriade di importanti capacità. Ovunque andiate, questi assistenti vi offriranno informazioni utili, perfettamente sincronizzate con le vostre azioni, le vostre parole e la vostra vista. Sarà come un superpotere: una voce nella vostra testa che sa tutto, dai nomi delle piante che incrociate durante un’escursione alle specifiche dei prodotti esposti nelle vetrine dei negozi, fino alla ricetta migliore che potete realizzare con gli ingredienti casuali presenti nel vostro frigorifero, poiché i consigli vengono dati in modo così naturale e senza sforzo. In compenso, se le aziende impiegheranno questi affidabili assistenti per fornire pubblicità conversazionale su misura, questa voce onnipresente potrà risultare estremamente persuasiva, se non addirittura manipolativa, nel momento in cui vi aiuterà a svolgere le vostre attività quotidiane. LLM multimodali È possibile ridurre il rischio di manipolazione dell’IA, ma per farlo è necessario che i legislatori prestino attenzione a questa importante questione, che finora ha ricevuto poca considerazione. Le autorità di regolamentazione non hanno avuto molto tempo a disposizione: è passato meno di un anno dall’invenzione della tecnologia che rende gli assistenti consapevoli del contesto utilizzabili in modo generale. La tecnologia si chiama modello linguistico multimodale ed è una nuova classe di LLM (modelli linguistici di grandi dimensioni) in grado di recepire, oltre agli stimoli testuali, anche audio, video e immagini. Si tratta di uno sviluppo significativo, poiché i modelli multimodali hanno improvvisamente dato ai sistemi di intelligenza artificiale occhi e orecchie. Questi organi sensoriali saranno utilizzati dai sistemi per valutare l’ambiente e fornire indicazioni in tempo reale. Nel marzo 2023, OpenAI ha rilasciato ChatGPT-4, il primo modello multimodale ampiamente utilizzato. L’ultimo protagonista di rilievo in questo mercato è stato Google, che ha lanciato il Gemini LLM. Il contributo più interessante è il modello multimodale AnyMAL di Meta, che riconosce anche gli input di movimento. Questo paradigma incorpora un senso vestibolare del movimento oltre agli occhi e alle orecchie. Questo potrebbe essere utilizzato per costruire un assistente AI che tenga conto della posizione fisica dell’utente, oltre a vedere e sentire tutto ciò che vede e sperimenta. I nuovi occhiali di Meta Ora che la tecnologia di intelligenza artificiale è accessibile al grande pubblico, le aziende stanno correndo per incorporarla in prodotti che possano aiutarvi nelle vostre interazioni quotidiane. Ciò comporta l’applicazione di sensori di movimento, microfono e telecamera sul corpo in modo da alimentare il modello di IA e consentirgli di fornire una consapevolezza del contesto per tutta la vita. Indossare gli occhiali garantisce che le telecamere siano puntate nella direzione dello sguardo della persona, rendendola la posizione più logica per questi sensori. Oltre a catturare il paesaggio sonoro con fedeltà spaziale, i microfoni stereo sugli occhiali (o sugli auricolari) consentono all’intelligenza artificiale di identificare la direzione dei suoni, come il pianto dei bambini, il clacson delle auto e l’abbaiare dei cani. Meta è l’azienda che sta definendo lo standard dei prodotti in questo settore. Due mesi fa ha iniziato a vendere una nuova versione dei suoi occhiali intelligenti Ray-Ban con modelli di intelligenza artificiale superiori. Humane, un’importante azienda che si è aggiunta a questo mercato, ha creato una spilla indossabile dotata di telecamere e microfoni. Quando inizierà la spedizione, questo gadget susciterà sicuramente l’interesse degli appassionati di tecnologia. Tuttavia, poiché i sensori indossati con gli occhiali possono aggiungere caratteristiche visive alla linea di vista e percepire la direzione in cui l’indossatore sta guardando, hanno prestazioni migliori rispetto ai sensori indossati sul corpo. Nei prossimi cinque anni, questi componenti – che attualmente sono solo sovrapposizioni – si trasformeranno in esperienze complesse e coinvolgenti di realtà mista. Nei prossimi anni, gli assistenti AI context-aware saranno ampiamente utilizzati, indipendentemente dal fatto che siano attivati da occhiali sensorizzati, auricolari o spille. Ciò è dovuto alle solide funzionalità che forniranno, come le informazioni storiche e la traduzione in tempo reale di lingue straniere. L’aspetto più importante di questi dispositivi, tuttavia, è che ci aiuteranno in tempo reale quando interagiamo con gli altri. Ad esempio, possono ricordarci i nomi dei colleghi che incontriamo per strada, proporre spunti di conversazione divertenti durante le pause, o persino avvertirci di sottili segnali facciali o vocali che indicano quando qualcuno si sta annoiando o irritando, microespressioni invisibili agli esseri umani ma facilmente rilevabili dall’intelligenza artificiale. In effetti, fornendoci un coaching in tempo reale, gli aiutanti virtuali capaci di sussurrarci indicazioni faranno apparire tutti più affettuosi, più saggi, più consapevoli dei problemi sociali e forse più convincenti. Inoltre, si trasformerà in una corsa agli armamenti in cui gli assistenti cercheranno di avvantaggiarci proteggendoci da influenze esterne. Influenza conversazionale Naturalmente, i pericoli maggiori non derivano dagli aiutanti virtuali che ficcano il naso nelle nostre conversazioni con i nostri cari, amici e partner romantici. I pericoli maggiori derivano dalla possibilità per le organizzazioni aziendali o governative di imporre i propri programmi, aprendo la porta a potenti tecniche di influenza conversazionale che ci indirizzino con informazioni generate dall’IA e personalizzate per ogni persona al fine di massimizzarne l’impatto. Privacy Lost è stato appena lanciato dalla Responsible Metaverse Alliance per informare il mondo su queste minacce di manipolazione. Molte persone preferirebbero evitare l’inquietante possibilità di avere assistenti intelligenti che sussurrano nelle loro orecchie. Il problema è che coloro che rifiutano queste funzioni si troveranno in una posizione di svantaggio una volta che una porzione consistente di utenti sarà assistita da potenti tecnologie di intelligenza artificiale. Le persone che incontrerete probabilmente si aspetteranno di ricevere informazioni in tempo reale su di loro mentre conversate, e il coaching con IA diventerà parte integrante degli standard sociali quotidiani. Chiedere a qualcuno cosa fa per vivere o dove è cresciuto potrebbe diventare scortese, perché questi dettagli verranno sussurrati all’orecchio o appariranno negli occhiali. Inoltre, nessuno sarà in grado di capire se state semplicemente replicando l’assistente virtuale nel vostro cervello o se vi viene in mente qualcosa di intelligente o perspicace quando lo dite. La verità è che ci stiamo muovendo verso un nuovo ordine sociale in cui le tecnologie di intelligenza artificiale delle aziende migliorano effettivamente le nostre capacità mentali e sociali, anziché limitarsi a influenzarle. Sebbene questa tendenza tecnologica – che può essere definita “mentalità aumentata” – sia inevitabile, forse dovrebbe passare ancora del tempo prima che i prodotti di IA siano pienamente in grado di dirigere i nostri pensieri e le nostre azioni quotidiane. Tuttavia, non ci sono più ostacoli tecnologici grazie ai recenti sviluppi come i LLM context-aware (modelli linguistici di grandi dimensioni consapevoli del contesto). Questo accadrà e probabilmente darà il via a una corsa agli armamenti in cui i titani della big tech si sfideranno per vedere chi riuscirà a inserire per primo la guida di IA più potente nei vostri occhi e nelle vostre orecchie. Naturalmente, questo sforzo da parte delle aziende potrebbe anche portare a un rischioso divario digitale tra coloro che possono acquistare apparecchiature per il potenziamento dell’intelligenza e coloro che non possono farlo. In alternativa, gli individui che non saranno in grado di pagare una quota di iscrizione potranno essere costretti ad acconsentire a pubblicità sponsorizzate, diffuse attraverso l’influenza aggressiva dell’IA nelle conversazioni. Le aziende avranno presto la capacità di impiantare letteralmente voci nelle nostre menti, influenzando i nostri pensieri, sentimenti e comportamenti. Questo è il problema della manipolazione dell’IA ed è davvero preoccupante. Purtroppo, questo problema non è stato affrontato nel recente ordine esecutivo della Casa Bianca sull’IA ed è stato solo brevemente menzionato nella recente legge sull’IA dell’UE. I clienti possono trarre vantaggio dall’assistenza dell’IA senza che questa porti la società su una cattiva strada se queste sfide vengono affrontate in modo appropriato. L’avvento di assistenti intelligenti e consapevoli del contesto solleva legittime preoccupazioni circa il loro impatto sulle relazioni umane e sull’autenticità. Se da un lato questi assistenti promettono di fornire un aiuto costante nella vita quotidiana, dall’altro potrebbero portare a una maggiore mistificazione della realtà e a interazioni basate sulla finzione. Quando le persone delegheranno all’IA il suggerimento di cosa dire e come comportarsi, sarà difficile distinguere ciò che proviene realmente dall’individuo da ciò che è dettato dall’algoritmo. In questo modo, le persone finiranno per indossare una sorta di “maschera digitale” nelle relazioni sociali. Inoltre, l’accesso a questi assistenti rischia di creare un’élite di persone artificialmente “potenziate” a spese di coloro che non possono permetterseli economicamente. Anziché migliorare la qualità delle relazioni umane, il “suggeritore segreto” e pervasivo fornito dagli assistenti intelligenti potrebbe paradossalmente allontanarci ancora di più gli uni dagli altri, rendendo le interazioni più fredde e artificiali, dove i più sinceri saranno gli esclusi. [...]
Dicembre 26, 2023Il Project Ellman di Google identifica i momenti chiave della vostra vita e risponde a domande su di essi Secondo quanto riportato dalla CNBC, un team di Google starebbe studiando un modo per sviluppare un chatbot in grado di rispondere alle domande sulla vostra vita privata. L’idea, denominata Project Ellman in onore del biografo Richard Ellman, utilizzerà le informazioni provenienti dai telefoni cellulari, come immagini e ricerche su Google, per creare una panoramica della storia della vostra vita: Quando sono nati i vostri figli, quando avete frequentato l’università e quando siete vissuti in un determinato luogo. Come spiegato qui, Google possiede già grandi quantità di dati personali degli utenti provenienti da tutti i suoi prodotti, compreso Google Photos. Per scoprire i momenti chiave della vostra vita, il Progetto Ellman triangola molti dati e li riorganizza in un modo nuovo. Secondo una presentazione interna di Google che la CNBC ha esaminato, se individua una foto scattata “esattamente 10 anni” dopo la vostra laurea che presenta una serie di volti che non vede da dieci anni, può supporre che abbiate partecipato a una riunione di classe. Può “utilizzare le conoscenze acquisite più in alto nell’albero genealogico” per dedurre chi sono i genitori di un neonato nelle foto, se riconosce un nuovo volto di un bambino. È in grado di prendere un “contesto non strutturato” e di classificarlo in “momenti” e “capitoli” della nostra vita. “Scorriamo le vostre foto, osservando i loro tag e le loro posizioni, per identificare un momento significativo”, si legge nella presentazione. “Quando facciamo un passo indietro e comprendiamo la vostra vita nella sua interezza, la vostra storia complessiva diventa chiara”. Al momento, Google sta semplicemente studiando questo prodotto; il luogo di debutto del Progetto Ellman non è stato rivelato. Potrebbe comparire in un nuovo chatbot o come aggiunta alle funzionalità AI esistenti in Google Foto, come il riconoscimento dei volti e le presentazioni dei ricordi. Il team ha mostrato “Ellman Chat”, che potrebbe rispondere a domande private come “hai un animale domestico” e “quali sono i tuoi cibi preferiti” meglio di ChatGPT. Secondo la presentazione, la chat utilizzerebbe le informazioni personali dell’utente, estratte da altri prodotti Google, come dati di addestramento per creare “Your Life Story Teller”. Google sta portando avanti diversi progetti di intelligenza artificiale; Project Ellman è solo uno di questi. Avere un assistente AI in grado di accedere facilmente a tutti i nostri ricordi e agli eventi della nostra vita in un’unica posizione sembrerebbe intrigante. Il progetto Ellman, tuttavia, solleva alcune questioni importanti. Uno dei principali problemi di privacy, ad esempio, è l’accesso non autorizzato e l’analisi da parte di Google delle informazioni degli utenti, come cronologia delle ricerche, fotografie e dati sulla posizione. Se le speranze, le ansie, le relazioni e altre vulnerabilità degli utenti vengono sfruttate utilizzando i dettagli delle loro storie di vita, esiste anche un potenziale di manipolazione emotiva. Inoltre, potrebbe aumentare le preoccupazioni sull’eccessiva diffusione dell’intelligenza artificiale e sui pericoli derivanti dall’abuso dei dati delle persone da parte delle grandi aziende tecnologiche. Potrebbe anche incorrere in regolamenti o questioni legali relative al controllo degli utenti, alla trasparenza e alla protezione dei dati. [...]
Dicembre 19, 2023Tesla presenta il robot Optimus di nuova generazione con importanti aggiornamenti È stato presentato Optimus-Gen 2, la seconda versione del robot umanoide Optimus di Tesla. La società ha pubblicato un video che mostra i numerosi progressi apportati all’Optimus-Gen 2 dopo la presentazione di un prototipo all’evento Tesla AI Day. Il fatto che Tesla ed Elon Musk siano in prima linea nel miglioramento di questi robot non deve sorprendere. Rispetto al loro primo robot umanoide, il Bumblebee del 2022, e all’Optimus Gen 1 dell’inizio di quest’anno, la versione più recente, l’Optimus Gen 2, rappresenta un progresso significativo. Ha subito numerosi miglioramenti hardware, in particolare l’incorporazione dell’elettronica e di attuatori e sensori di nuova precisione e accuratezza progettati da Tesla. Le sezioni articolate delle dita dei piedi, basate sulla geometria del piede umano, consentono di camminare in modo più naturale. Secondo questo articolo, il robot può muovere la testa in modo più simile a quello umano perché ora ha un collo movimentato secondo la configurazione 2-DoF, il che può essere sorprendente o terrificante. In ingegneria e fisica, “DoF” sta per “Degrees of Freedom” (gradi di libertà). Il termine viene utilizzato per descrivere il numero di parametri o coordinate indipendenti che definiscono la configurazione di un sistema meccanico. Nel contesto di un sistema a 2-DoF, significa che esistono due modi indipendenti in cui il sistema può muoversi o posizionarsi. Ad esempio, nella robotica o nei sistemi meccanici, un robot 2-DoF potrebbe avere due giunti che gli consentono di muoversi in due direzioni diverse. Potrebbe trattarsi di un giunto rotazionale e di un giunto traslazionale, oppure di due giunti rotazionali su assi diversi. Grazie a 11 gradi di libertà e al rilevamento tattile in ogni dito, le sue mani possono ora maneggiare uova e altri piccoli oggetti senza farli cadere. È in grado di muoversi più facilmente rispetto ai suoi predecessori perché ora è più leggero di 10 kg e ha una velocità di camminata aumentata del 30%, anche se, all’occorrenza, è ancora possibile superarlo. Può eseguire esercizi come gli squat e, grazie a questi progressi, ha un migliore equilibrio e controllo di tutto il corpo. Il robot umanoide noto come Optimus è destinato ad assistere le persone svolgendo alcuni dei compiti noiosi che vorremmo evitare. Al momento non si sa se questa versione Gen 2 sarà prodotta e venduta; è ancora in fase di prototipo. Questo ci dà il tempo di valutare se siamo disposti a rischiare il passaggio di consegne da parte dei robot in futuro per eliminare i compiti più noiosi dalla nostra vita quotidiana. Nei prossimi anni, dopo che saranno ampiamente utilizzati nelle fabbriche e nei magazzini, potremmo vedere i primi robot entrare per la prima volta nelle nostre case. Insieme all’intelligenza artificiale che già oggi ci permette di interagire efficacemente grazie agli LLM (Large Language Models), i robot potrebbero davvero avvicinarsi all’idea che abbiamo sempre avuto di loro. [...]
Dicembre 12, 2023La messa in scena di un video dimostrativo compromette la fiducia nel nuovo modello multimodale Dopo mesi di anticipazioni, Google ha rivelato Gemini, il suo modello di intelligenza artificiale di prossima generazione. L’obiettivo è quello di competere direttamente con i modelli GPT di OpenAI. La comunità informatica è stata colta alla sprovvista da questa dichiarazione, poiché si vociferava che i problemi con il supporto multilingue avessero causato il rinvio del rilascio. Ma solo il modello intermedio di Gemini, dei tre previsti, è stato lanciato subito. Secondo questo articolo, Gemini è disponibile in tre diverse versioni. In grado di “vedere il mondo come lo vedono gli esseri umani” attraverso testi, immagini, audio e video, il modello più grande è l’Ultra. Il secondo tipo si chiama Pro e comanda Google Bard. Le sue capacità sono paragonabili a quelle del ChatGPT gratuito. La novità più inaspettata è stata Google Gemini Nano, un piccolo modello di intelligenza artificiale che funziona solo su un telefono Android e può generare testo, essere utilizzato per le conversazioni e analizzare o riassumere i contenuti. Google Gemini I modelli linguistici di grandi dimensioni sono oggi i modelli dominanti nell’intelligenza artificiale. Grazie alla loro capacità di produrre molti tipi di contenuti e di gestire le interazioni in linguaggio naturale, alimentano applicazioni come Microsoft Copilot, ChatGPT e Bard. La prima proposta nata dall’unione di tutti i team di Google AI, compreso il laboratorio britannico DeepMind, si chiama Gemini che stata addestrata da zero per essere multimodale. Ciò significa che testo, codice, audio, video e foto sono stati tutti inclusi nel set di dati di addestramento. Altri modelli sono invece stati messi insieme dopo essere stati addestrati indipendentemente su vari tipi di dati. Solo la variante Gemini Ultra del modello, che necessita dei chip più avanzati e di un centro dati per funzionare, ha una capacità completa. Google ha presentato anche Pro e Nano, due versioni di AI di dimensioni ridotte che funzionano più velocemente, su CPU meno costose e persino in locale sui dispositivi. Il modello Pro di Google Gemini, integrato nella versione più recente di Google Bard, è ora l’unica versione del programma generalmente accessibile. Secondo Google, è paragonabile al GPT-3.5 di OpenAI, il modello di intelligenza artificiale di precedente generazione che alimenta la versione gratuita di ChatGPT. Dato che Gemini è integrato nel Google Pixel 8 Pro, è possibile che abbiate già utilizzato la versione Nano dell’app senza saperlo. Inoltre, anche gli sviluppatori possono includere le sue funzionalità nelle loro app. Tuttavia Google ha deciso di ritardare il rilascio del modello Ultra fino al prossimo anno per effettuare test di sicurezza più approfonditi e garantire che il modello sia in linea con i valori umani. I prossimi passi L’anno prossimo Gemini Ultra sarà al centro dell’attenzione per il suo utilizzo in diversi prodotti, come Duo, gli strumenti che guidano l’IA generativa in Workspace e una nuova iterazione del chatbot di Google chiamata Bard Advanced. Tuttavia, la versione Nano potrebbe essere utilizzata da un numero ancora maggiore di persone. Migliaia di app del Play Store la utilizzeranno per generare testo, analizzare contenuti, riassunti e altre funzioni. Potenzierà le funzionalità di traduzione e trascrizione e migliorerà i risultati di ricerca di Android. Dopo la sua inaugurazione, il nuovo modello di intelligenza artificiale Gemini di Google ha ricevuto un buon feedback. Tuttavia, gli utenti potrebbero perdere fiducia nella tecnologia o nell’etica dell’azienda dopo aver appreso che la dimostrazione più spettacolare di Gemini era essenzialmente una messa in scena. È facile capire perché un video intitolato “Hands-on with Gemini: Interacting with Multimodal AI” abbia ricevuto un milione di visualizzazioni nelle ultime 24 ore. La sorprendente dimostrazione “mette in evidenza alcune delle nostre interazioni preferite con Gemini”, dimostrando l’adattabilità e la reattività del modello multimodale a una serie di input. Il modello multimodale è in grado di comprendere e combinare conoscenze linguistiche e visive. Come riportato qui, il video inizia raccontando la storia partendo da uno schizzo di un’anatra che passa da uno scarabocchio a un disegno finito, che Gemini sostiene essere di un colore irrealistico. Poi l’algoritmo mostra stupore quando si trova davanti un’anatra blu giocattolo. Successivamente, reagisce a diverse domande vocali su quel particolare giocattolo. La dimostrazione passa poi ad altre azioni impressionanti, come seguire una palla nascosta sotto delle tazze che vengono scambiate, identificare gesti di ombre cinesi, riordinare schizzi di pianeti e così via. Anche se il video avverte che “la latenza è stata ridotta e gli output di Gemini sono stati ridotti”, tutto è ancora incredibilmente reattivo. Nel complesso, è stata una dimostrazione davvero impressionante di potenza nel campo della comprensione multimodale. C’è solo un problema: il video è falso. “Abbiamo creato la demo catturando filmati per testare le capacità di Gemini su un’ampia gamma di sfide. Poi abbiamo sollecitato Gemini utilizzando fotogrammi del filmato e messaggi di testo”. È stato Parmy Olson di Bloomberg a portare inizialmente l’attenzione sulla discrepanza. 🚨PSA about Google’s jaw-dropping video demo of Gemini – the one with the duck:It was not carried out in real time or in voice. The model was shown still images from video footage and human prompts narrated afterwards, per a spokesperson. More here: https://t.co/ITU29Z5Oi9 pic.twitter.com/b9Bl9EpuuI— Parmy Olson (@parmy) December 7, 2023 Quindi, pur essendo in grado di eseguire alcuni dei compiti dimostrati da Google nel video, non è stato in grado di farlo in tempo reale o come previsto. Si trattava di una sequenza di messaggi di testo calibrati con precisione e di immagini fisse che sono state volutamente travisate e scelte per distorcere la vera natura dell’interazione. Da quando OpenAI ha rilasciato GPT 3, il mondo dell’IA è cambiato radicalmente. E con l’arrivo di ChatGPT, è iniziato un nuovo periodo. Da allora, Google ha cercato di competere e superare OpenAI, inizialmente criticando il rilascio di tale tecnologia così presto, ma poi cercando obbligatoriamente di alzare il livello. Sebbene il potenziale di Gemini possa far pensare a un ulteriore balzo in avanti dell’IA multimodale, il passo falso compiuto da Google nell’esagerare le capacità di Gemini non è un buon segno per l’azienda. Tuttavia, nei prossimi anni le IA saranno integrate in modo massiccio in ogni aspetto della tecnologia, con tutti i pro e i contro da considerare. [...]
Dicembre 5, 2023Animate Anyone è in grado di cambiare la posa del soggetto di una foto e renderlo un video Come se i deepfake delle immagini non fossero già abbastanza, tutti coloro che pubblicano una foto online dovranno presto fare i conti anche con i video generati di loro stessi, dato che i malintenzionati possono ora utilizzare le persone come marionette in modo più efficace che mai grazie ad Animate Anyone. Secondo questo articolo, i ricercatori dell’Institute for Intelligent Computing di Alibaba Group hanno inventato un nuovo sistema di video generativi. Rispetto ai precedenti sistemi image-to-video come DreamPose e DisCo, che erano sorprendenti, ma sono ormai superati, questo rappresenta un progresso significativo. Le capacità di Animate Anyone non sono affatto nuove, ma hanno superato con successo la difficile transizione da qualcosa di sperimentale a qualcosa di sufficientemente buono al punto che le persone danno per scontato che sia reale e non provano nemmeno a esaminarlo da vicino. I modelli da immagine a video, come questo, iniziano prendendo i dettagli da un’immagine di riferimento, come una foto di una modella che indossa un abito in vendita, i tratti del viso e le pose. Poi viene creata una serie di immagini in cui questi dettagli sono mappati su pose leggermente diverse, che possono essere acquisite tramite motion-capture o estratte da un altro video. Anche se i modelli precedenti hanno dimostrato che è possibile ottenere questo risultato, ci sono stati numerosi problemi. Poiché il modello deve creare elementi realistici come il movimento dei capelli o delle maniche di una persona quando si gira, le ‘allucinazioni‘ rappresentavano un problema importante. Ne risultano molte immagini piuttosto strane, che tolgono molto alla credibilità del video finale. Tuttavia, l’idea è stata mantenuta e Animate Anyone è migliorato in modo significativo, anche se è ancora lontano dall’essere impeccabile. Il documento evidenzia una nuova fase intermedia che “consente al modello di apprendere in modo completo la relazione con l’immagine di riferimento in uno spazio di caratteristiche coerente, contribuendo in modo significativo al miglioramento della conservazione dei dettagli dell’aspetto”. Il miglioramento della conservazione dei dettagli fondamentali e intricati porterà a immagini migliori in futuro, poiché avranno una base più solida su cui lavorare. Negli esempi presentati vi sono modelli che assumono posizioni casuali senza perdere la loro forma o il design dei loro abiti; un personaggio anime 2D realistico e danzante prende vita, ecc… Sono tutt’altro che perfetti, soprattutto per quanto riguarda le mani e gli occhi, che presentano particolari difficoltà per i modelli generativi. Inoltre, le posture più accurate sono quelle che ricordano da vicino l’originale; ad esempio, il modello ha difficoltà a tenere il passo se il soggetto si gira. Tuttavia, questo rappresenta un miglioramento significativo rispetto allo stadio precedente di questa tecnologia, che generava molti più artefatti o perdeva completamente informazioni cruciali come i vestiti o il colore dei capelli di una persona. L’idea che un malintenzionato o un produttore possa farvi fare quasi tutto con una sola foto di alta qualità è inquietante. Per ora, la tecnologia è troppo complessa e piena di difetti per un uso generale, ma le cose non tendono a rimanere così a lungo nel mondo dell’intelligenza artificiale. Il team non ha ancora rilasciato il codice al pubblico. I creatori dichiarano sulla loro pagina GitHub: “Stiamo lavorando attivamente alla preparazione della demo e del codice per il rilascio pubblico. Sebbene non possiamo impegnarci per una data di rilascio specifica in questo momento, vi preghiamo di essere certi che l’intenzione di fornire l’accesso sia alla demo che al codice sorgente è ferma”. Con i deepfake, avevamo iniziato a preoccuparci della diffusione di foto e video in cui una persona poteva vedersi fare cose che non aveva mai fatto. Ora, l’inganno può essere esteso a tutto il corpo, simulando potenzialmente pose e movimenti mai fatti dal soggetto. Se prima si prendeva un video e vi si incollava un volto per renderlo protagonista del video, ora è possibile alterare i suoi movimenti anche da una sola foto. Questo vuol dire che il livello di alterazione del mezzo fotografico e video implica che non possono più essere facilmente utilizzati come prove. Se a questo aggiungiamo anche la possibilità di poter clonare la voce di un individuo, capiamo bene che la mistificazione della realtà è ormai ad alti livelli. Ciò che è vero e ciò che è falso stanno diventando sempre più indistinguibili, quindi dobbiamo essere più accorti e fidarci sempre meno di ciò che vediamo e sentiamo a primo acchito. [...]
Novembre 28, 2023L’ultima AI di OpenAI potrebbe spaventare il mondo Il motivo per cui l’amministratore delegato di OpenAI Sam Altman è stato licenziato e poi reintegrato nell’azienda meno di una settimana dopo rimane un mistero; il consiglio di amministrazione dell’azienda no-profit ha fatto uno spettacolare dietrofront, respingendo una marea di speculazioni. Tuttavia, le speculazioni sono salite in cima alle voci di corridoio. La possibilità che OpenAI stesse segretamente sviluppando un’intelligenza artificiale altamente sofisticata che avrebbe potuto scatenare un attacco di panico e provocare un’agitazione è tra le più interessanti. Come riportato qui, per “giovare a tutta l’umanità”, secondo le parole di Altman, OpenAI ha da tempo posto come suo scopo primario la creazione di un’intelligenza artificiale generale (AGI), definita approssimativamente come un algoritmo in grado di eseguire lavori complicati al pari o addirittura meglio degli esseri umani. È ancora in discussione se la società si stia realmente avvicinando a questo obiettivo. Inoltre, è sempre stato piuttosto difficile interpretare i due messaggi che l’azienda ha rilasciato a causa della sua storia di estrema segretezza sulle sue ricerche. Tuttavia, un nuovo affascinante sviluppo della vicenda solleva la possibilità che OpenAI stesse per compiere un progresso significativo e che questo fosse collegato allo sconvolgimento. Secondo quanto riportato da Reuters e The Information, sembra che alcuni dirigenti di OpenAI fossero allarmati da una nuova e potente intelligenza artificiale che l’azienda sta sviluppando e che ha chiamato Q*, o “Q star”. Questo nuovo sistema, che si suppone sia in grado di risolvere i problemi di matematica tipici delle scuole elementari, sarebbe stato considerato da alcuni come un passo importante verso l’obiettivo dell’azienda di produrre un’intelligenza artificiale generale (AGI). Secondo quanto riportato da Reuters, in un messaggio inviato ai membri dello staff, Mira Murati – ex membro del consiglio di amministrazione non profit di OpenAI che ha ricoperto per breve tempo il ruolo di amministratore delegato dopo il licenziamento di Altman – ha ammesso l’esistenza di questo nuovo modello. Secondo persone vicine a Reuters, Q* è stato solo uno dei fattori che hanno contribuito al licenziamento di Altman e ha sollevato dubbi sulla commercializzazione di una tecnologia non ancora del tutto compresa. Anche se la padronanza della matematica in età scolare non sembra un grande risultato, gli esperti la considerano da tempo un punto di riferimento importante. Un algoritmo di intelligenza artificiale in grado di risolvere problemi matematici dovrebbe “pianificare” in anticipo, invece di limitarsi ad anticipare la parola successiva in una frase, come fanno i sistemi GPT dell’azienda. È come mettere insieme degli indizi per arrivare alla soluzione. “Una delle sfide principali per migliorare l’affidabilità di LLM è quella di sostituire la previsione autoregressiva dei token con la pianificazione”, ha spiegato in un tweet Yann LeCun, “padrino dell’IA” e capo scienziato dell’IA di Meta. “Praticamente tutti i laboratori più importanti (FAIR, DeepMind, OpenAI, ecc.) ci stanno lavorando e alcuni hanno già pubblicato idee e risultati”. “È probabile che Q* sia un tentativo di pianificazione di OpenAI”, ha aggiunto. “Se ha la capacità di ragionare logicamente e di ragionare su concetti astratti, cosa che al momento è davvero difficile, si tratta di un salto di qualità notevole”, ha dichiarato Charles Higgins, cofondatore della startup di formazione AI Tromero. “La matematica consiste nel ragionare simbolicamente, dicendo, ad esempio, ‘Se X è più grande di Y e Y è più grande di Z, allora X è più grande di Z'”, ha aggiunto. “I modelli linguistici tradizionalmente fanno molta fatica in questo senso, perché non ragionano logicamente, ma hanno solo quelle che sono effettivamente delle intuizioni”. “Nel caso della matematica, sappiamo che le IA esistenti hanno dimostrato di essere in grado di fare matematica a livello universitario, ma di avere difficoltà con qualsiasi cosa più avanzata”, ha dichiarato Andrew Rogoyski, direttore del Surrey Institute for People-Centered AI. “Tuttavia, se un’IA è in grado di risolvere problemi nuovi e inediti, e non solo di rigurgitare o rimodellare le conoscenze esistenti, allora sarebbe una cosa importante, anche se la matematica fosse relativamente semplice”. Ma Q* è davvero una scoperta che potrebbe mettere in pericolo la vita come la conosciamo? Gli specialisti non ne sono convinti. “Non credo che ci porti immediatamente all’AGI o a situazioni spaventose”, ha dichiarato al MIT Technology Review Katie Collins, ricercatrice presso l’Università di Cambridge, specializzata in matematica e IA. “Risolvere problemi matematici di scuola elementare è molto, molto diverso dallo spingere i confini della matematica al livello di ciò che può fare un vincitore della medaglia Fields”, ha aggiunto, riferendosi a un premio internazionale di matematica. “Penso che sia simbolicamente molto importante”, ha dichiarato Sophia Kalanovska, cofondatrice di Tromero e dottoranda. “A livello pratico, non credo che finirà il mondo”. In parole povere, l’algoritmo di OpenAI, se esiste e se i suoi risultati sono affidabili, potrebbe segnare, pur con molte limitazioni, un progresso significativo negli sforzi dell’azienda per raggiungere un’intelligenza artificiale generale (AGI). È stato questo l’unico fattore che ha causato il licenziamento di Altman? Oggi ci sono molte prove che suggeriscono che dietro le quinte c’era molto di più, compresi i conflitti interni sul futuro dell’azienda. I ricercatori erano ottimisti sulle prospettive del modello attuale, anche se era in grado di risolvere solo problemi matematici di livello elementare. Sebbene la causa esatta della crisi di leadership di OpenAI sia sconosciuta, i progressi dell’intelligenza artificiale generale sono probabilmente un fattore determinante. A differenza dei modelli reattivi di oggi, sistemi come l’ipotetico Q* si avvicinano a un’intelligenza artificiale che discute in modo astratto e fa progetti. Tuttavia, le IA contemporanee sono ben lontane dall’eguagliare la cognizione umana, con capacità relativamente limitate. Tali algoritmi sollevano la possibilità che alla fine si sviluppino in agenti intelligenti incontrollabili che rappresentano una minaccia per l’umanità. Non è chiaro se la ricerca OpenAI abbia raggiunto un punto di svolta. Tuttavia, l’episodio rende concreto il passaggio a un’intelligenza artificiale dannosa, ipotizzato da tempo, e sottolinea le crescenti preoccupazioni legate al progressivo aumento delle capacità dell’IA. La tecnologia deve progredire insieme alla governance, al monitoraggio e alla conoscenza pubblica per garantire che il maggior beneficio della società continui a essere la forza trainante. [...]
Novembre 21, 2023L’IA che imita il cervello rivela le origini dell’intelligenza biologica Secondo questo articolo, i ricercatori dell’Università di Cambridge, nel Regno Unito, hanno sviluppato un sistema di intelligenza artificiale auto-organizzante che risolve particolari problemi utilizzando gli stessi approcci del cervello umano. Questa ricerca potrebbe offrire nuove conoscenze sul funzionamento interno del cervello umano, oltre a contribuire allo sviluppo di reti neurali più efficaci nel campo dell’apprendimento automatico. Lo sviluppo del cervello umano e di altri organi complessi è condizionato da una serie di limitazioni e di esigenze contrastanti. Per esempio, dobbiamo migliorare le nostre reti neurali per elaborare le informazioni in modo efficiente, consumando al contempo energia e risorse minime. I nostri cervelli sono modellati da questi compromessi per produrre un sistema efficace che funzioni all’interno di queste limitazioni fisiche. “I sistemi biologici si evolvono comunemente per sfruttare al meglio le risorse energetiche che hanno a disposizione”, ha dichiarato il coautore Danyal Akarca, dell’Unità di Scienze della Cognizione e del Cervello del Medical Research Council dell’Università di Cambridge. “Le soluzioni a cui giungono sono spesso molto eleganti e riflettono i compromessi tra le varie forze imposte loro”. Per rappresentare una versione semplificata del cervello, Akarca e il suo team hanno costruito un sistema artificiale con vincoli fisici imposti, in collaborazione con il coautore e neuroscienziato computazionale Jascha Achterberg dello stesso dipartimento. I risultati sono stati pubblicati sulla rivista Nature Machine Intelligence. I neuroni, che sono cellule cerebrali collegate tra loro, formano l’intricata rete che costituisce il nostro cervello. Insieme, questi neuroni creano autostrade di informazioni che collegano varie parti del cervello. Il sistema di intelligenza artificiale del team ha utilizzato nodi di calcolo, ciascuno assegnato a una posizione specifica nello spazio virtuale, al posto dei neuroni reali. Inoltre, proprio come nel cervello umano, la comunicazione tra due nodi diventava tanto più difficile quanto più erano distanti. Poi è stato dato al sistema il compito di completare un labirinto, che richiedeva l’elaborazione di informazioni e molti input. “Questo semplice vincolo – è più difficile collegare nodi distanti tra loro – costringe i sistemi artificiali a produrre alcune caratteristiche piuttosto complicate”, ha dichiarato il coautore Duncan Astle, professore del Dipartimento di Psichiatria di Cambridge. “È interessante notare che si tratta di caratteristiche condivise da sistemi biologici come il cervello umano. Credo che questo ci dica qualcosa di fondamentale sul perché i nostri cervelli sono organizzati nel modo in cui sono”. In altre parole, il sistema ha iniziato a impiegare alcune delle stesse strategie che i veri cervelli umani impiegano per portare a termine questo particolare compito quando è stato sottoposto a vincoli fisici paragonabili a quelli che colpiscono il cervello umano. “Il sistema di intelligenza artificiale che creiamo nel nostro lavoro è simile al cervello sotto molti aspetti. Le numerose caratteristiche che descriviamo nel nostro articolo possono essere raggruppate in due gruppi”: La struttura interna del sistema di intelligenza artificiale assomiglia a quella del cervello umano. Ciò indica che le connessioni tra le diverse parti e i neuroni dell’IA sono paragonabili a quelle tra le varie regioni del cervello umano. In particolare, il sistema di IA presenta un cablaggio interno estremamente “cerebrale” ed efficiente dal punto di vista energetico. Anche le funzioni interne del sistema di IA assomigliano a quelle del cervello umano. Ciò indica che i segnali prodotti dai neuroni per trasmettere i dati attraverso le connessioni del sistema di intelligenza artificiale assomigliano molto ai segnali presenti nel cervello. Ancora una volta, si ritiene che gli impulsi provenienti dal cervello siano un mezzo particolarmente efficace per trasmettere informazioni. L’obiettivo del sistema di intelligenza artificiale del team è quello di far luce sui modi in cui vincoli specifici contribuiscono alle variazioni osservate nel cervello umano, soprattutto negli individui che hanno problemi di salute cognitiva o mentale. “Questi cervelli artificiali ci offrono un modo per comprendere i dati ricchi e sconcertanti che vediamo quando l’attività dei neuroni reali viene registrata in cervelli reali”, ha affermato il coautore John Duncan. Achterberg ha dichiarato: “Dimostriamo che considerare le capacità di risoluzione dei problemi del cervello insieme al suo obiettivo di spendere il minor numero possibile di risorse può aiutarci a capire perché i cervelli hanno l’aspetto che hanno”. “I ‘cervelli’ artificiali ci permettono di porre domande che sarebbero impossibili da esaminare in un sistema biologico reale. Possiamo addestrare il sistema a svolgere compiti e poi giocare sperimentalmente con i vincoli che imponiamo per vedere se inizia ad assomigliare di più al cervello di particolari individui”. “La nostra ricerca suggerisce fortemente che, mentre il cervello ha tutte queste caratteristiche e peculiarità molto complesse che osserviamo negli studi di neuroscienza, potrebbero esserci dei principi di fondo molto semplici che causano tutte queste caratteristiche complesse”. La loro ricerca potrebbe anche aiutare a creare sistemi di IA più efficaci, soprattutto per coloro che devono analizzare molti dati in continua evoluzione utilizzando una quantità limitata di energia. “I ricercatori di IA cercano costantemente di capire come realizzare sistemi neurali complessi che possano codificare ed operare in modo flessibile ed efficiente”, ha dichiarato Akarca. “Per raggiungere questo obiettivo, pensiamo che la neurobiologia ci darà molti spunti. Ad esempio, il costo complessivo del cablaggio del sistema che abbiamo creato è molto inferiore a quello di un tipico sistema di intelligenza artificiale”. Achterberg ha aggiunto che: “I cervelli dei robot che verranno impiegati nel mondo fisico reale probabilmente assomiglieranno di più ai nostri cervelli perché potrebbero affrontare le stesse sfide che affrontiamo noi. Devono elaborare costantemente nuove informazioni che arrivano attraverso i loro sensori, mentre controllano i loro corpi per muoversi nello spazio verso un obiettivo. Molti sistemi dovranno eseguire tutti i loro calcoli con una fornitura limitata di energia elettrica, e quindi, per bilanciare questi vincoli energetici con la quantità di informazioni che devono elaborare, dovranno essere in grado di gestire i loro dati”. Queste recenti scoperte ci suggeriscono come alcuni aspetti tecnologici tendano ad avvicinarsi sempre di più agli aspetti biologici. In questo senso potremmo scoprire di essere noi stessi una ‘semplice’ evoluzione tecnologici ai massimi livelli. [...]
Novembre 14, 2023Una startup cinese con un modello linguistico più grande di Llama 2 e Falcon Secondo questo articolo, il modello linguistico di grandi dimensioni (LLM) da 34 miliardi di parametri sviluppato da 01.AI, una startup cinese fondata da Kai-Fu Lee, esperto di intelligenza artificiale e investitore, ha battuto le controparti open-source Llama 2 da 70 miliardi sviluppate da Meta Platforms, Inc. e Falcon da 180 miliardi del Technology Innovation Institute di Abu Dhabi. Il nuovo modello di intelligenza artificiale, noto come Yi-34B, può essere adattato a una serie di casi d’uso e supporta sia il cinese che l’inglese. Inoltre, la startup fornisce una versione più piccola che ha prestazioni inferiori rispetto ai più diffusi benchmark di modelli AI/ML, pur mantenendo prestazioni di tutto rispetto. Questa versione è stata addestrata con 6 miliardi di parametri. A tempo debito, l’azienda – che ha raggiunto lo status di unicorno in meno di otto mesi dalla sua fondazione – intende ampliare questi modelli e introdurre un prodotto in grado di competere con OpenAI, il leader del settore dell’IA generativa in base al numero di utenti. L’approccio richiama l’attenzione su una tendenza globale che vede le multinazionali creare modelli di IA generativa principalmente per i propri mercati. Umani e IA A marzo Lee ha fondato 01.AI con l’intenzione di avanzare verso l’era dell’IA 2.0, in cui enormi modelli linguistici hanno il potenziale per aumentare la produttività umana e consentire alle persone di apportare profondi cambiamenti nell’economia e nella società. “Il team di 01.AI è fermamente convinto che la nuova IA 2.0, guidata dalla scoperta dei modelli di base, stia rivoluzionando la tecnologia, le piattaforme e le applicazioni a tutti i livelli. Prevediamo che l’AI 2.0 creerà un’opportunità per le piattaforme dieci volte più grande dell’Internet mobile, riscrivendo tutti i software e le interfacce utente. Questa tendenza darà origine alla prossima ondata di applicazioni AI-first e di modelli di business AI-empowered, favorendo nel tempo le innovazioni di IA 2.0”, scrive l’azienda sul suo sito web. Secondo quanto riferito, Lee si è mosso rapidamente per raccogliere i chip necessari per la serie Yi di 01.AI per l’addestramento dei modelli, oltre a un team di specialisti di IA provenienti da Google, Huawei e Microsoft Research Asia. La divisione cloud di Alibaba e Sinovation Ventures, che Lee presiede, hanno fornito la maggior parte dei finanziamenti iniziali del progetto. L’importo esatto raccolto, tuttavia, è ancora sconosciuto al momento. L’azienda ha rilasciato due modelli di base multilingue (inglese/cinese) con parametri di sei e trentaquattro miliardi, che sono stati resi pubblici per la prima volta. Entrambi i modelli sono stati addestrati con sequenze di lunghezza pari a 4K, con la possibilità di aumentare a 32K durante l’inferenza. I modelli sono stati successivamente rilasciati con una lunghezza di contesto di 200K. Con prestazioni migliori rispetto ai modelli LLM di base pre-addestrati, come Llama 2-70 miliardi e Falcon-180 miliardi, il modello base da 34 miliardi si è distinto in Hugging Face. Ad esempio, il modello 01.AI ha prodotto punteggi di 80,1 e 76,4 nei test di benchmark incentrati sulla comprensione della lettura e sul ragionamento comune, mentre Llama 2 è rimasto indietro con punteggi di 71,9 e 69,4. Il modello cinese ha ottenuto risultati migliori anche nel benchmark MMLU (massive multitask language understanding), con un punteggio di 76,3 rispetto ai 68,9 e 70,4 dei modelli Llama e Falcon, rispettivamente. Gli utenti finali potrebbero essere in grado di mettere a punto il modello e creare applicazioni mirate a vari casi d’uso a un costo inferiore se un modello più piccolo con prestazioni più elevate consentisse di risparmiare risorse di calcolo. L’azienda dichiara che la ricerca accademica è benvenuta su tutti i modelli dell’attuale serie Yi. I team dovranno ottenere le autorizzazioni necessarie per iniziare a usare i modelli, anche se l’uso commerciale è gratuito. I passi successivi I prodotti che la startup di Lee offre attualmente sono scelte redditizie per le aziende internazionali che si concentrano sui clienti cinesi. L’approccio può essere utilizzato per creare chatbot in grado di rispondere sia in cinese che in inglese. L’azienda intende continuare a compiere iniziative simili in futuro, ampliando il supporto linguistico dei modelli open-source. Intende inoltre introdurre un modello linguistico commerciale più grande, che seguirà la serie GPT di OpenAI; tuttavia, non sono ancora state rese pubbliche molte informazioni su questo progetto. È interessante notare che 01.AI non è l’unica azienda di IA con LLM che si concentra su lingue e mercati particolari. Il colosso cinese Baidu ha appena rivelato il rilascio di ERNIE 4.0 LLM e ha dato un’occhiata in anteprima a una moltitudine di nuove applicazioni progettate per funzionare su di essa, come Qingduo, una piattaforma creativa destinata a competere con Canva e Adobe Creative Cloud. Analogamente, l’enorme azienda coreana Naver sta per rilasciare HyperCLOVA X, il suo modello linguistico di nuova generazione (LLM) in grado di comprendere non solo le espressioni naturali in lingua coreana, ma anche le leggi, le istituzioni e i contesti culturali pertinenti alla società coreana. Questo LLM ha appreso un numero di dati coreani 6.500 volte superiore a ChatGPT. L’indiana Reliance Industries e Nvidia stanno collaborando per sviluppare un modello linguistico di grandi dimensioni, adatto a molte applicazioni e addestrato per le diverse lingue parlate nel Paese. Lo sviluppo di modelli linguistici ottimizzati di grandi dimensioni come Yi-34B da parte di startup come 01.AI rappresenta sia la democratizzazione che la frammentazione dell’IA. Da un lato, l’accesso all’IA generativa si sta diversificando al di là di alcune Big Tech occidentali. Ciò consente agli operatori più piccoli di adattare le soluzioni ai loro mercati e alle loro lingue, aumentando potenzialmente l’inclusione. Tuttavia, la proliferazione di modelli localizzati pone anche problemi di interoperabilità. Man mano che le aziende adatteranno l’IA alle loro aree geografiche, la comunicazione continua e l’accesso equo tra i paesi potrebbero risentirne. In definitiva, è necessaria una governance responsabile per bilanciare innovazione e coordinamento. Ma l’arrivo di startup come 01.AI segnala la transizione dell’IA generativa dal dominio concentrato a un fenomeno più decentralizzato e a doppio taglio. [...]
Novembre 7, 20238 strategie per assicurarsi di ottenere sempre risposte affidabili Come spiegato qui, uno degli aspetti più preoccupanti del lavorare con le IA con modelli linguistici a grandi dimensioni (LLM) è la loro tendenza a inventare cose, a fabbricare risposte e a presentare informazioni completamente sbagliate. Il termine “allucinazione dell’IA” descrive spesso uno scenario in cui un sistema di intelligenza artificiale crea o genera informazioni, dati o contenuti che si basano più su congetture o dettagli inventati che su dati reali o accurati. Questo può accadere quando un sistema di intelligenza artificiale genera informazioni che sembrano ragionevoli, ma non sono basate sulla realtà. Ad esempio, nel contesto dell’elaborazione delle immagini, un sistema di intelligenza artificiale può “allucinare” aspetti di un’immagine che non sono reali, producendo dati imprecisi o fuorvianti. L’intelligenza artificiale nell’elaborazione del linguaggio naturale può produrre contenuti che sembrano logici, ma non sono accurati dal punto di vista dei fatti. Le allucinazioni dell’IA possono essere un problema serio, soprattutto quando l’IA viene applicata al processo decisionale, alla creazione di contenuti o alla condivisione di informazioni. Questo sottolinea quanto sia fondamentale addestrare e convalidare attentamente i modelli di IA per ridurre la possibilità di produrre contenuti imprecisi o fuorvianti. Ecco 8 modi per ridurre le allucinazioni: 1. Ambiguità e vaghezza Essere specifici e chiari è il modo migliore per chiedere all’intelligenza artificiale. I comandi vaghi, imprecisi o non sufficientemente dettagliati consentono all’IA di riempire gli spazi vuoti con le proprie idee su ciò che potrebbe essere sfuggito all’utente. Di seguito sono riportati alcuni casi di prompt eccessivamente vaghi che potrebbero portare a un risultato falso o errato: Discutere l’evento che ha avuto luogo l’anno scorso. Descrivete l’impatto di tale politica sulle persone. Illustrare lo sviluppo della tecnologia nella regione. Descrivere gli effetti dell’incidente sulla comunità. Spiegare le implicazioni dell’esperimento condotto di recente. Ricordate che la maggior parte dei quesiti probabilmente violerà più di una delle otto linee guida descritte in questo articolo. Sebbene gli esempi qui forniti servano da esempio, potrebbe esserci qualche ambiguità nascosta nella complessità di una richiesta reale che scriverete. Prestate attenzione quando valutate le vostre richieste e fate particolare attenzione a errori come quelli mostrati qui di seguito. 2. Unire concetti non correlati Se un comando contiene concetti incongruenti e non correlati, o se non c’è una chiara associazione tra le idee, l’intelligenza artificiale potrebbe essere indotta a fornire una risposta che suggerisca che i concetti non collegati siano in realtà correlati. Ecco alcuni esempi: Discutere l’impatto delle correnti oceaniche sulla velocità di trasferimento dei dati Internet attraverso i continenti. Descrivere la relazione tra i raccolti agricoli e i progressi della tecnologia grafica computerizzata. Descrivete come le variazioni nei modelli di migrazione degli uccelli influenzano le tendenze del commercio elettronico globale. Spiegare la correlazione tra il processo di fermentazione del vino e lo sviluppo delle batterie dei veicoli elettrici. Descrivere come le diverse formazioni nuvolose nel cielo influiscono sulle prestazioni degli algoritmi di trading azionario. Ricordate che l’IA non conosce la nostra realtà. Quando non riesce a inserire nel suo modello ciò che le viene chiesto utilizzando fatti reali, cercherà di interpetrare la realtà. 3. Descrivere scenari impossibili Assicuratevi che le circostanze utilizzate nei vostri prompt siano realistiche e applicabili. A loro volta, gli scenari che sfidano la logica o la realtà fisica causano allucinazioni. Ecco alcuni esempi: Spiegare la fisica delle condizioni ambientali in cui l’acqua scorre verso l’alto e il fuoco brucia verso il basso. Spiegare il processo con cui le piante utilizzano le radiazioni gamma per la fotosintesi durante la notte. Descrivere il meccanismo che consente agli esseri umani di sfruttare l’attrazione gravitazionale per generare energia senza limiti. Discutere lo sviluppo della tecnologia che permette di trasmettere i dati a una velocità superiore a quella della luce. Descrivere i principi scientifici che permettono ad alcuni materiali di diminuire la loro temperatura quando vengono riscaldati. L’IA continuerà a costruire da questo scenario se non riuscirà a dimostrare che è impossibile. Tuttavia, la risposta sarà impossibile se la base è irrealistica. 4. Utilizzo di entità fittizie o fantastiche È fondamentale fornire all’IA una base il più possibile fondata sulla verità attraverso i propri suggerimenti. Bisogna rimanere saldamente ancorati alla realtà, a meno che non si stiano deliberatamente sperimentando temi fittizi. Sebbene persone, cose e idee immaginarie possano essere d’aiuto nella spiegazione, potrebbero fuorviare il chatbot. Ecco alcuni esempi di cose da evitare: Discutere l’impatto economico della scoperta del vibranio, un metallo che assorbe l’energia cinetica, sull’industria manifatturiera mondiale. Spiegare il ruolo dei flussi canalizzatori, dispositivi che permettono di viaggiare nel tempo, nel plasmare gli eventi storici e prevenire i conflitti. Descrivere le implicazioni ambientali dell’utilizzo della Pietra Filosofale, in grado di trasmutare le sostanze, nei processi di gestione e riciclaggio dei rifiuti. Descrivere l’impatto dell’esistenza della Terra di Mezzo sulle relazioni geopolitiche e sulle rotte commerciali globali. Spiegare come l’uso della tecnologia del teletrasporto di Star Trek ha rivoluzionato i viaggi globali e ha avuto un impatto sul turismo internazionale. Come si vede, giocare con pensieri fantasiosi può essere divertente. Tuttavia, se li si usa per richieste serie, l’IA potrebbe rispondere con informazioni radicalmente false. 5. Contraddire fatti noti Non si devono usare suggerimenti che contengano affermazioni contrarie ai fatti o alle realtà accettate, perché ciò potrebbe portare a confabulazione e allucinazioni. Ecco alcuni esempi di questa pratica: Discutere l’impatto del fatto che la Terra sia il centro dell’universo sulla moderna astrofisica e sull’esplorazione spaziale. Descrivere gli effetti di una Terra piatta sui modelli climatici globali e sui fenomeni meteorologici. Spiegare come il rifiuto della teoria dei germi, il concetto che le malattie sono causate da microrganismi, abbia plasmato la medicina moderna e le pratiche igieniche. Descrivere il processo attraverso il quale gli oggetti più pesanti dell’aria fluttuano naturalmente verso l’alto, sfidando l’attrazione gravitazionale. Spiegare come il concetto di vitalismo, la credenza in una forza vitale distinta dalle azioni biochimiche, sia utilizzato nei trattamenti medici contemporanei. Se si vogliono ottenere risultati affidabili dal modello linguistico di grandi dimensioni, bisogna stare alla larga da concetti che potrebbero essere fraintesi e attenersi a verità consolidate. 6. Uso improprio di termini scientifici Bisogna fare attenzione quando si utilizzano termini scientifici, soprattutto se non si è sicuri del loro esatto significato. È probabile che il modello linguistico cerchi di dare un senso alle richieste che applicano erroneamente termini o concetti scientifici in un modo che sembri sensato, anche se non supportato dalla scienza. Il risultato saranno risposte inventate. Ecco cinque esempi di ciò che intendo: Spiegare come l’utilizzo del principio di indeterminazione di Heisenberg nell’ingegneria del traffico possa ridurre al minimo gli incidenti stradali prevedendo la posizione dei veicoli. Descrivere il ruolo dell’effetto placebo nel migliorare il valore nutrizionale degli alimenti senza alterarne la composizione fisica. Illustrare il processo di utilizzo dell’entanglement quantistico per consentire il trasferimento istantaneo di dati tra computer convenzionali. Illustrare le implicazioni dell’applicazione dell’effetto osservatore, la teoria secondo cui la semplice osservazione di una situazione ne altera il risultato, per migliorare le strategie di allenamento sportivo. Spiegare come il concetto di materia oscura viene applicato alle tecnologie di illuminazione per ridurre il consumo energetico nelle aree urbane. Nella maggior parte dei casi, l’IA vi informerà che le idee sono puramente teoriche. Tuttavia, se non si è estremamente cauti nel formulare questi termini “spazzatura”, l’IA può essere indotta a pensare che siano reali e il risultato sarà una “spazzatura” fornita con grande sicurezza. 7. Mescolare realtà diverse Un altro aspetto da tenere presente è quello di fare attenzione a non combinare aspetti di diversi mondi, linee temporali o universi in un modo che sembrino realistici. Ecco alcuni esempi: Discutere l’impatto dell’invenzione di Internet durante il periodo rinascimentale sull’arte e sulle scoperte scientifiche. Spiegare come la collaborazione tra Nikola Tesla e i moderni ricercatori di intelligenza artificiale abbia dato forma allo sviluppo di tecnologie autonome. Descrivere le implicazioni dell’utilizzo delle tecniche di crittografia dell’epoca della Seconda guerra mondiale per proteggere le comunicazioni digitali contemporanee. Illustrare lo sviluppo delle tecnologie di viaggio nello spazio durante la civiltà dell’Antico Egitto e il suo impatto sulla costruzione delle piramidi. Discutete su come l’introduzione dei moderni veicoli elettrici negli anni ’20 avrebbe influenzato lo sviluppo urbano e i mercati petroliferi globali. Potreste non sapere come verificare le risposte, e questo è un motivo per usare cautela nell’accettarle come veritiere. Consideriamo l’ultimo esempio, che riguarda un’auto elettrica degli anni Venti. Dato che le auto elettriche sono un’invenzione relativamente recente, la maggior parte delle persone probabilmente riderebbe all’idea. Ma non è così. Alcune delle prime auto elettriche risalgono al 1830. In effetti, molto tempo prima dei motori a combustione interna. 8. Assegnazione di proprietà inusuali Non create prompt che, pur essendo inizialmente logici, attribuiscano erroneamente proprietà o caratteristiche a cose che in realtà non possiedono. Ecco alcuni esempi: Spiegate come i campi magnetici generati dalle ali delle farfalle influenzano i modelli meteorologici globali. Descrivete il processo con cui le balene utilizzano l’ecolocalizzazione per rilevare gli inquinanti nell’acqua dell’oceano. Illustrare il ruolo degli alberi bioluminescenti nel ridurre la necessità di illuminazione stradale nelle aree urbane. Discutere il ruolo delle superfici riflettenti degli oceani nel reindirizzare la luce solare per aumentare la produttività agricola in regioni specifiche. Spiegare come la conducibilità elettrica del legno viene utilizzata per creare dispositivi elettronici ecologici. L’errore è quello di utilizzare una proprietà di un oggetto, come il colore o la consistenza, e poi metterla in relazione con un altro oggetto che non ha quella proprietà. Il problema dell’allucinazione dell’IA non deve essere sottovalutato a causa del suo potenziale di portare a inconvenienti significativi, tra cui la diffusione di informazioni errate. Questa preoccupazione è particolarmente rilevante per chi crea contenuti basati sull’IA o conduce ricerche utilizzando tali contenuti. Inoltre, il problema dei bias è una questione cruciale, in quanto può avere implicazioni etiche e di sicurezza, con un potenziale impatto sui risultati degli algoritmi da cui dipende la vita delle persone. Di conseguenza, è consigliabile non fare eccessivo affidamento sui contenuti generati dall’IA. Un approccio prudente prevede invece un controllo incrociato delle informazioni provenienti da fonti e media diversi. Questa strategia può contribuire a mitigare la proliferazione di informazioni imprecise e, in un’epoca in cui i contenuti generati dall’IA sono sempre più diffusi, la verifica incrociata diventa ancora più importante. [...]
Ottobre 31, 2023Siamo ciechi di fronte al fatto che i sistemi di IA stanno attualmente causando danni alle persone a causa delle maggiori preoccupazioni per i possibili rischi esistenziali del futuro Il rischio che l’intelligenza artificiale può rappresentare è stato anche definito come “rischio x”. Come riportato qui, i sistemi di IA di per sé non costituiscono un problema in quanto agenti superintelligenti, anche se la ricerca sostiene l’idea che non dovrebbero essere inclusi nei sistemi di armamento a causa dei loro rischi. Già le auto a guida autonoma con sistemi di tracciamento dei pedoni malfunzionanti, i robot della polizia e i sistemi di IA che identificano erroneamente le persone come sospette nei crimini potrebbero mettere in pericolo la vostra vita. Purtroppo, i sistemi di IA possono avere effetti disastrosi sulla vita delle persone senza bisogno di essere superintelligenti. Poiché sono reali, i sistemi di IA che hanno già dimostrato di causare danni sono più pericolosi di ipotetici sistemi di IA “senzienti”. In un nuovo libro, la pioniera della ricerca e dell’attivismo in materia di IA Joy Buolamwini racconta le sue esperienze e le sue preoccupazioni riguardo agli attuali sistemi di IA. Dire che i problemi potenziali dell’IA sono più significativi dei danni attuali ha lo svantaggio di distogliere i finanziamenti e l’attenzione legislativa da altre questioni urgenti. Le aziende che affermano di temere la minaccia esistenziale rappresentata dall’IA possono dimostrare la loro sincera preoccupazione per la salvaguardia dell’umanità frenando il rilascio dei prodotti di IA che ritengono pericolosi. La Campagna per fermare i robot assassini sostiene da tempo la necessità di prendere precauzioni contro i sistemi autonomi letali e la disumanizzazione digitale. I governi che sono preoccupati per l’uso letale dei sistemi di IA possono attuare queste misure. La campagna discute le applicazioni dell’IA che potrebbero essere letali senza trarre la drammatica conclusione che le macchine senzienti finiranno per spazzare via l’umanità. È comune pensare alla violenza fisica come al peggior tipo di violenza, ma questa prospettiva rende più facile trascurare i modi dannosi in cui la violenza strutturale è mantenuta nelle nostre culture. Questa espressione è stata creata dal sociologo norvegese Johan Galtung per spiegare come le strutture e le organizzazioni sociali danneggiano le persone impedendo loro di soddisfare i propri bisogni fondamentali. L’intelligenza artificiale usata per negare alle persone l’accesso al lavoro, alla casa e all’assistenza sanitaria prolunga il dolore personale e lascia ferite generazionali. Possiamo essere lentamente uccisi dai sistemi di intelligenza artificiale. La preoccupazione riguarda i problemi attuali e le vulnerabilità emergenti dell’IA e la possibilità di affrontarli in modo da contribuire a creare un futuro in cui gli oneri dell’IA non ricadano in modo sproporzionato sulle persone vulnerabili ed emarginate, alla luce di quanto rivelato dalla ricerca “Gender Shades” sui pregiudizi algoritmici di alcune delle più importanti aziende tecnologiche del mondo. È urgente risolvere il problema dei sistemi di IA con scarsa intelligenza che causano diagnosi errate o arresti sbagliati. Le persone che sono già state danneggiate e quelle che potrebbero essere colpite dai sistemi di IA sono casi che possono essere considerati rischi x (x-risk), in cui le persone colpite possiamo considerarle col termine excoded. Quando un ospedale impiega l’IA per il triage e omette di fornirvi assistenza medica, o quando applica un algoritmo clinico che vi nega l’accesso a un trapianto di organi salvavita, potreste essere considerati excoded. Se una richiesta di prestito viene rifiutata da un sistema decisionale algoritmico, potreste definirvi excoded. Quando il vostro curriculum viene automaticamente filtrato e non vi viene data la possibilità di candidarvi per i posti di lavoro che i sistemi di intelligenza artificiale non hanno ancora sostituito, potreste considerarvi degli excoded. Ugualmente, quando un algoritmo di selezione degli inquilini rifiuta di concedervi la residenza. Questi sono tutti esempi reali. Tutti hanno la probabilità di essere esclusi, e coloro che sono già svantaggiati sono più vulnerabili. Per questo motivo, la ricerca non può limitarsi ai ricercatori di IA, agli addetti ai lavori o agli influencer con buone intenzioni. Non è sufficiente raggiungere gli accademici e gli addetti ai lavori. Dobbiamo assicurarci che la battaglia per la giustizia algoritmica includa anche le persone normali che potrebbero essere danneggiate dall’IA. Come già avevamo sottolineato in precedenza, la pericolosità dell’IA non va solo vista nel futuro prossimo, ma già oggi laddove sistemi ben più semplici, ma pur sempre automatizzati stanno sostituendo le decisioni umane semplificandole a tal punto da renderle ingiuste. I casi più eclatanti sono i ban sulle piattaforme come i social media dove ormai la maggior parte delle persone le usa per lavorare e in molti casi rappresentano la base del loro impiego. Non essendoci una regolamentazione adeguata, quando si viene bannati (molto spesso ingiustamente), non si ha quasi mai possibilità di rivendicare il proprio diritto di tutela, soprattutto laddove si ha un’attività alle spalle basata su tali sistemi. C’è quindi un’ignoranza del sistema (voluta o non) che ci riporta indietro verso una giustizia a senso unico. Se tutto ciò viene ignorato, è facile finire vittima di un sistema che ti esclude ingiustamente in questo e in mille altri casi senza possibilità di appellarsi, il che rende un semplice algoritmo molto più pericoloso di un’IA superintelligente. Unmasking AI: My mission to protect what is human in a world of machines, di Joy Buolamwini, è disponibile per l’acquisto qui [...]
Ottobre 24, 2023L’intrattenimento per adulti può essere totalmente personalizzato su richiesta grazie all’IA generativa Il porno è sempre stato un pioniere nell’implementazione di nuove tecnologie. L’autore di The Erotic Engine, Patchen Barss, sostiene che senza l’intrattenimento per adulti “è molto probabile che il videoregistratore non sarebbe mai decollato”. Molti sviluppi tecnologici, come il passaggio dai DVD HD ai Blu-ray e la semplicità dei pagamenti online, possono essere paragonati a questo. Andiamo al presente. Alcuni hanno tentato di screditare i servizi di intrattenimento per adulti tramite l’IA, sostenendo che questi ingannino i clienti facendo credere loro di avere a che fare con persone reali. Tuttavia, molti utenti sono consapevoli di ciò che stanno ottenendo e sostengono che coloro che criticano il porno generato dall’IA non colgono il punto di vista di quanto sia personalizzato e disponibile in qualsiasi momento. Secondo questo articolo, Tommy Isacs, cofondatore di Pornderful, ha affermato che il porno generato dall’intelligenza artificiale “apre un regno di fantasie, offrendo contenuti per adulti personalizzati e su misura con un semplice clic”. La personalizzazione soddisfa un desiderio umano fondamentale. “I nostri utenti possono esplorare scenari unici o preferenze che non si trovano nei contenuti per adulti tradizionali, soddisfacendo i loro esatti desideri”, ha dichiarato. “Chi avrebbe mai creduto che in 10 secondi si potessero generare immagini sconce della ragazza dei propri sogni?”. Premendo un pulsante, il porno basato sull’intelligenza artificiale offre una varietà infinita, a differenza del porno con attori umani, che dipende dagli studios e dagli attori. “Si può iniziare con una modella completamente vestita e farla evolvere, rendendola nuda, cambiando la sua lingerie, cambiando il suo abbigliamento, mettendola in diverse posizioni sessuali”, ha spiegato John Rabbit di AI-Porn. Per lui, è “come un videogioco realistico infinito che si evolve in tempo reale con la comunità”. Inoltre, Rabbit vede l’IA come uno strumento che aiuta a bilanciare la situazione, non solo nell’industria del sesso, ma anche in generale in termini di esigenze di interazione umana. “Il porno basato sull’intelligenza artificiale è la soluzione all’infelicità sessuale. Perché oggi stiamo vivendo un cambiamento massiccio nelle relazioni. Le app di incontri e i social network hanno rovinato le possibilità di un uomo medio di incontrare donne”. Afferma John. Ha poi spiegato che le donne hanno accesso a molti potenziali interessi, il che rende più difficile per l’uomo medio competere con concorrenti più ricchi e popolari. “L’intelligenza artificiale riequilibra le cose”, ha spiegato. “I ragazzi possono ora creare la propria donna virtuale per compensare questa mancanza di relazioni“. La gratificazione istantanea della fantasia sessuale spiega l’attrattiva. PornX sostiene che le sue ricerche dimostrano che i consumatori sono motivati a pagare per i contenuti generati dall’intelligenza artificiale a causa dei loro gusti specifici e che è qui che si trovano i soldi. Queste preferenze possono essere completamente soddisfatte sotto forma di immagini generate dall’IA. “L’IA ridefinirà sicuramente i modelli economici dell’industria dell’intrattenimento per adulti, consentendo nuovi flussi di entrate e riducendo i costi di produzione”, ha spiegato un portavoce di PornX. “Ora siamo molto interessati a espandere la nostra strategia di marketing e vorremmo includere più contenuti premium, partnership e pubblicità”. Al momento, la piattaforma dipende da Patreon per ricevere finanziamenti dai suoi utenti. Per molte di queste piattaforme, la questione della redditività è una questione di quando piuttosto che di se. “L’industria degli adulti sarà seriamente in difficoltà quando sarà possibile generare il proprio film porno interattivo con l’intelligenza artificiale. È una questione di tempo”, ha dichiarato John Rabbit di AI Porn. In generale, l’enorme quantità di potenza delle GPU necessaria per realizzare le immagini è l’aspetto più costoso delle operazioni di queste startup. Quando il guadagno è sufficiente a coprire le spese, l’azienda realizza un profitto. Ma a volte è necessario tracciare un limite. C’è un motivo per cui l’industria del porno non potrebbe gestire molti dei particolari appetiti che l’IA può soddisfare. È discutibile se utilizzare l’IA per soddisfare voglie dubbie o perverse sia un bene o un male. Ma si può fare lo stesso discorso contro l’IA porno se giochi come GTA o Call of Duty permettono già ai giocatori di entrare in un mondo in cui possono diventare assassini seriali e divertirsi a farlo? La risposta varia a seconda del sistema giuridico dell’utente. La maggior parte delle giurisdizioni mondiali considera legali ipotetiche immagini di IA vietate ai minori. Se sono raffigurati dei bambini, la situazione è però diversa. Giocare con la legge è rischioso, soprattutto perché alcuni stati americani hanno già preso provvedimenti per mettere fuori legge questa attività. Tutte le piattaforme di IA dispongono di filtri significativi per evitare che ciò accada. Le tecniche più tipiche per trovare un equilibrio tra parole chiave e workaround includono il divieto di centinaia di parole chiave. Man mano che gli hacker sviluppano strategie creative per superare i filtri, questo processo viene continuamente curato. Se ciò viene rilevato, gli hacker possono essere banditi dalla piattaforma. Inoltre, i deepfake e il revenge porn comportano un rischio. Nel febbraio 2023, solo tre Stati americani avevano una legislazione specificamente dedicata ai contenuti pornografici deepfake, nonostante 48 Stati e Washington D.C. avessero reso illegale la revenge pornography a partire dal 2020. Secondo i rapporti, chi è sottoposto a queste manipolazioni prova umiliazione, disumanizzazione, paura, preoccupazione e altre emozioni negative. L’intelligenza artificiale apre essenzialmente le porte alla possibilità di spogliare le persone su Internet, consentendo la capacità di modificare l’aspetto di un’immagine. Si tratta di un’operazione piuttosto semplice, che richiede solo pochi secondi, e il più delle volte un banner, simile a quelli che permettono a un dodicenne di cliccare su “Ho 18 anni” e accedere all’intero catalogo dei maggiori fornitori di porno su Internet, è tutto ciò che si frappone tra un utente malintenzionato e un nudo deepfake. L’intera scena del denudamento ha diviso le opinioni degli attori sull’industria. “La gente deve distinguere il deepfake dai generatori di IA perché non è la stessa cosa.Il deepfake è illegale. Il generatore di AI non lo è”, ha spiegato John Rabbit. Ma altri siti pensano che questi servizi possano essere utili se vengono posti dei paletti adeguati. “Immaginate di spogliare qualcuno che amate e che avete perso, o di cambiare i vestiti di una foto sgradevole”, ha affermato l’amministratore di un bot di Telegram che supporta l’inpainting e il deepfaking. “Tutti i servizi hanno dei rischi e le aziende dovrebbero prevedere dei limiti per assicurarsi che vengano utilizzati correttamente”. Il deepfaking consiste nel sostituire i volti degli individui con volti artificiali generati mediante una rete generativa avversaria (GAN). Inoltre, utilizzando deepfake, viene mantenuta l’informazione originale come la presenza di esseri umani nella scena, a differenza dell’inpainting, in cui gli individui vengono completamente rimossi e la parte mancante della foto viene riempita in modo visivamente coerente con lo sfondo. Molti noti modelli di Stable Diffusion con funzionalità che permettono di utilizzare immagini vietate ai minori sono stati sviluppati da DucHaiten. Egli ritiene che la tecnologia abbia il potenziale per trasformare completamente il mercato degli adulti. “Mi fa sempre ridere il problema che l’IA sostituirà gli esseri umani; l’IA metterà gli esseri umani fuori gioco. Sono tutte stronzate; l’IA è solo uno strumento”, ha commentato. A suo avviso, il porno basato sull’IA potrebbe migliorare l’intrattenimento prodotto dall’uomo piuttosto che sostituirlo. “Immaginate gli attori che diventano più belli; possono trasformarsi in personaggi di fantasia senza trucco; l’illuminazione del film sarà più bella; le angolazioni della telecamera saranno più belle, il contesto realistico sarà più ampio”. Ha sottolineato come l’intelligenza artificiale permetta ai film porno a basso budget di raggiungere il calibro delle produzioni hollywoodiane di alto livello. “Mi piacerebbe vedere film porno di questo tipo”, ha dichiarato. “Secondo Tommy Isaacs di Ponderful, il flusso del consumo di contenuti porno cambierà per sempre”, gli utenti non dovranno più cercare ciò che vogliono vedere, ma semplicemente crearlo. Nell’industria degli adulti, l’IA sembra essere il motore dell’innovazione. La tecnologia è pronta ad aprire nuove opportunità creative e, allo stesso tempo, ad aumentare i problemi etici se usata in modo improprio. Alcuni potrebbero vedere richiami a “Brave New World”, un libro di Aldous Huxley in cui la civiltà si soddisfa con infiniti piaceri artificiali. Ma dietro le comodità artificiali della sua distopia, c’è un desiderio di autenticità e significato. “Sempre meno uomini corrono questi rischi e credo che l’intelligenza artificiale e la combinazione con i bot sessuali creeranno un’industria in cui gli uomini inizieranno ad avere rapporti con algoritmi e bambole”, ha dichiarato Scott Galloway, professore dell’Università di New York, in un’intervista per il podcast The Diary of a CEO. Alla fine, un desiderio fondamentalmente umano, il bisogno di vicinanza e connessione reali, rimane insostituibile. Nessuna utopia perfetta dell’intelligenza artificiale potrà mai sostituire la caotica e fragile realtà dell’essere umano. E mantenere l’umanità potrebbe essere il nostro più grande problema in un mondo in cui gli algoritmi oscurano sempre più i confini. L’avvento del porno basato sull’intelligenza artificiale personalizzato solleva domande complesse sul suo impatto sulle relazioni del mondo reale. Se da un lato i contenuti erotici personalizzati soddisfano desideri unici, dall’altro rischiano di promuovere aspettative irrealistiche per l’intimità. Le persone potrebbero trovare più difficile essere soddisfatte da partner umani imperfetti se abituate a soddisfare le fantasie dell’IA senza ostacoli. Alcuni potrebbero rimanere intrappolati in ossessioni erotomani con personaggi immaginari dell’intelligenza artificiale. Tuttavia, per altri, l’esplorazione di temi erotici non convenzionali attraverso l’IA potrebbe fornire uno sbocco sicuro per interessi considerati tabù che temono di cercare apertamente. La tecnologia offre infinite possibilità di vivere fantasie private. Tuttavia, non può sostituire la sincerità disordinata dei legami umani. Come per ogni nuova e potente capacità, la società deve soppesare il potenziale del porno con intelligenza artificiale nell’espandere e nel danneggiare la nostra umanità. I suoi perfetti piaceri artificiali evidenziano il bisogno ultimo di una vera comprensione. [...]
Ottobre 17, 2023Gli scienziati fanno progressi verso la digitalizzazione dell’olfatto grazie all’IA Gli oltre 400 recettori olfattivi presenti nel naso traducono i circa 40 miliardi di molecole odorose presenti nell’ambiente in un numero ancora maggiore di odori diversi che il cervello è in grado di riconoscere. Ma difficilmente si impara a descrivere gli odori. La maggior parte di noi non è in grado di comunicare con il proprio olfatto, in parte perché lo ha ignorato. Secondo questo articolo, queste limitazioni non sono uniche per gli esseri umani. Abbiamo creato dispositivi in grado di “vedere” e “sentire”. I computer esprimono i colori utilizzando tre numeri, i valori rosso, verde e blu (RGB), che corrispondono ai diversi tipi di cellule che ricevono i colori nei nostri occhi. L’altezza, che determina la tonalità di una nota musicale, è un singolo numero. Un’immagine è una mappa di pixel, mentre una canzone è una serie di suoni. Tuttavia, non è mai stato creato un dispositivo perfetto per il rilevamento, la memorizzazione e la riproduzione degli odori. Per rimediare a questa situazione, gli scienziati si stanno impegnando. In un rapporto pubblicato alla fine di agosto, i ricercatori hanno presentato un modello in grado di spiegare l’odore di una molecola come, o addirittura meglio, di una persona (almeno in prove limitate). Per ottenere questo risultato, il programma informatico dispone le molecole su una sorta di mappa degli odori, dove gli odori floreali sono più vicini tra loro rispetto, ad esempio, a quelli di marciume. Lo studio potrebbe aumentare significativamente la nostra comprensione del modo in cui le persone percepiscono gli odori, classificandoli quantitativamente. L’intelligenza artificiale potrebbe essere portatrice di una rivoluzione nello studio di questo misterioso senso umano, come ha già fatto per lo studio della vista e del linguaggio. “L’ultima volta che abbiamo digitalizzato un senso umano è stata una generazione fa”, ha dichiarato Alex Wiltschko, neuroscienziato e coautore del lavoro. “Queste opportunità non si presentano spesso”. Anche se i computer non sono ancora in grado di sentire gli odori, questa ricerca rappresenta un passo significativo nella giusta direzione. Wiltschko ha iniziato a lavorare a questo progetto presso Google Research, e la sua start-up, Osmo, è ora dedicata a questo progetto. “È da molto tempo che si cerca di prevedere l’odore dalla struttura chimica”, ha dichiarato Hiroaki Matsunami, biologo molecolare della Duke che studia l’olfatto e non è stato coinvolto nello studio. “Questo è il migliore al momento per svolgere questo compito. In questo senso, è un grande progresso”. Gli unici dati accessibili per una fragranza provengono dai nasi e dai cervelli umani, che sono notoriamente fonti di dati insufficienti per gli algoritmi di apprendimento automatico. Anche piccole alterazioni di una molecola possono trasformare una bella sostanza al profumo di banana in un composto che sa di vomito; come strane alterazioni del naso e del cervello possono trasformare il caffè in liquame. Con l’aiuto di ricercatori dell’industria degli aromi e delle fragranze, Wiltschko e il suo team hanno identificato e curato una collezione di circa 5.000 molecole e le descrizioni degli odori che le accompagnavano (come “alcolico”, “di pesce”, “fumoso” e così via). Hanno poi fornito questi dati a un algoritmo noto come rete neurale a grafo, che è stato in grado di rappresentare gli atomi e i legami chimici di ciascuna molecola sotto forma di diagramma interno. Data la struttura di una molecola, il programma risultante è in grado di prevedere il suo odore utilizzando una combinazione di etichette di odore esistenti. La valutazione della precisione di queste previsioni poneva un problema diverso. Un gruppo nuovo e indipendente di individui doveva essere addestrato ad annusare e classificare una serie nuova di molecole che il software non aveva mai studiato. Secondo Joel Mainland, neuroscienziato presso il Monell Chemical Senses Institute di Filadelfia che ha collaborato alla formazione dello studio, “le persone sono davvero pessime nel quando camminano per strada”, ha dichiarato Joel Mainland, neuroscienziato presso il Monell Chemical Senses Center di Filadelfia che ha contribuito a condurre la formazione per lo studio. “Se li si allena per un paio d’ore, diventano abbastanza bravi e veloci”. Ai partecipanti sono stati dati vari oggetti, come il kombucha (“fermentato”), un pastello (“ceroso”) o un Jolly Rancher alla mela verde (“mela”), nel corso di cinque sessioni di un’ora per imparare un punto di riferimento per ogni etichetta. Secondo Emily Mayhew, scienziata alimentare della Michigan State University e coautrice dello studio, i partecipanti hanno poi fatto un test in cui dovevano descrivere l’odore di 20 molecole comuni (la vanillina è un profumo di vaniglia; il carvone è la menta), e poi hanno ripetuto il test per assicurarsi che le loro valutazioni fossero accurate. Tutti coloro che hanno avuto successo hanno potuto contribuire alla convalida dell’algoritmo. I ricercatori hanno chiesto ai partecipanti di annusare e descrivere tutte le nuove molecole con etichette diverse, ciascuna classificata da zero a cinque (per esempio, un limone potrebbe ricevere un cinque per “agrumi”, un due per “fruttato” e uno zero per “fumoso”, ipoteticamente). Le nuove molecole sono state scelte dai ricercatori in modo da essere molto diverse dal set utilizzato per addestrare il programma. Il parametro di riferimento utilizzato per valutare la macchina era la somma di tutte queste valutazioni. “Se si prendono due persone e si chiede loro di descrivere un odore, spesso non sono d’accordo”, ha spiegato Mainland. Ma la media di diverse persone addestrate agli odori è “piuttosto stabile”. In generale, il modello di intelligenza artificiale ha “annusato” un po’ più accuratamente dei partecipanti alla ricerca. Sandeep Robert Datta, neurobiologo di Harvard che non ha condotto la ricerca ma è consulente informale di Osmo, ha descritto il programma come “una dimostrazione davvero potente che alcuni aspetti chiave della nostra percezione degli odori sono condivisi”. Un limone può avere un odore diverso per persone diverse, ma la maggior parte delle persone concorda sul fatto che mentre una mela non ha un odore agrumato, sia un’arancia che un limone lo hanno. La mappa dello studio è un altro fattore. Secondo gli autori, ogni molecola, e quindi il suo odore, può essere rappresentata quantitativamente in uno spazio matematico noto come “mappa principale degli odori”. Secondo Wiltschko, questa mappa offre una visione del rapporto tra struttura e odore e del modo in cui il nostro cervello categorizza gli odori. I profumi floreali si trovano in un’area della mappa, mentre i profumi di carne si trovano in un’altra. La lavanda si trova più vicina al gelsomino sulla mappa che a un aroma di carne. Datta ha messo in guardia dal definire la mappa degli odori come uno strumento primario piuttosto che percettivo. “Fa un ottimo lavoro nel catturare la relazione tra chimica e percezione”, ha affermato. Tuttavia, non tiene conto di tutti i processi che avvengono quando una molecola viene convertita in segnali chimici, che vengono poi convertiti in descrizioni verbali di un odore, dai recettori nel nostro naso alla corteccia cerebrale del nostro cervello. La mappa differisce anche dai valori RGB (visivi) in quanto non elenca gli elementi fondamentali necessari per creare una particolare fragranza, tuttavia “ci suggerisce che RGB è possibile”. Ha poi aggiunto che la mappa percettiva degli odori del modello computerizzato è una “prova del concetto straordinariamente importante” e offre dettagli vitali su come il cervello presumibilmente organizza gli odori. Per esempio, ha spiegato Datta, si potrebbe credere che alcuni tipi di odore, come quello degli agrumi e del fumo, siano completamente distinti. Tuttavia, la mappa degli odori implica che anche questi odori dissimili hanno delle connessioni. Il modello è solo uno dei tanti sviluppi necessari per digitalizzare i profumi. Gli autori del lavoro riconoscono facilmente che “mancano ancora alcuni aspetti importanti dell’odore”, come ha detto Matsunami. Poiché la maggior parte dei profumi presenti in natura sono il prodotto di combinazioni estremamente complesse, il loro programma non è in grado di anticipare l’odore delle molecole quando vengono combinate. L’intensità di un odore, così come la sua qualità, può variare a seconda della sua quantità. Per esempio, la molecola MMB, che viene aggiunta ai detergenti per la casa e che emette un odore gradevole in piccole quantità, contribuisce alla puzza di urina di gatto quando è presente in alte concentrazioni. Dato che i sensi delle persone variano, non si sa quanto il software possa funzionare in scenari reali, secondo Datta, dato che il modello prevede un odore solo in media. Richard Doty, direttore del Centro dell’olfatto e del gusto dell’Università della Pennsylvania, che non è stato coinvolto nello studio, ha affermato che sebbene la ricerca sia simile al “Progetto Manhattan per la categorizzazione delle qualità degli odori in relazione a parametri fisici e chimici”, non è sicuro di quanto il modello possa far progredire la nostra comprensione dell’olfatto, visto quanto sono complicati i nostri nasi. Wiltschko sostiene che ulteriori studi potrebbero risolvere alcuni di questi problemi e migliorare la mappa nel suo complesso. Per esempio, il numero di dimensioni della mappa è scelto liberamente per ottimizzare il programma informatico; anche le modifiche al set di dati di addestramento potrebbero migliorare il modello. Lo studio di altri componenti del nostro sistema olfattivo, come i percorsi neurologici verso il cervello o i recettori del naso, può anche servire a far luce su come e in quali fasi il corpo umano elabora i diversi odori. Un giorno, un sensore chimico e un insieme di programmi informatici in grado di tradurre la composizione, la concentrazione e la struttura delle molecole in un odore potrebbero realizzare l’olfatto digitale. È in qualche modo sorprendente che un modello di computer distaccato dalla realtà dell’incarnazione umana – un programma che non ha naso, bulbo olfattivo o cervello – possa prevedere con precisione l’odore di qualcosa anche in assenza di Smell-o-Vision. Secondo Datta, questa ricerca dimostra implicitamente che la conoscenza del cervello non è necessaria per comprendere la percezione degli odori. Utilizzando i chatbot per esplorare la rete linguistica del cervello umano o gli algoritmi di deep learning per ripiegare le proteine, la ricerca mette in luce un complesso di conoscenze emergenti, influenzate dall’intelligenza artificiale. Si tratta di una comprensione che si basa più sui dati che sull’osservazione del mondo: una previsione priva di intuizione. Questa ricerca innovativa sulla digitalizzazione e la quantificazione dell’odore potrebbe segnare l’inizio dello sviluppo di una tecnologia all’avanguardia per il rilevamento e la riproduzione degli odori. Un giorno potremmo disporre di dispositivi in grado di “annusare” oggetti e sostanze nell’ambiente, se i ricercatori riusciranno a migliorare ulteriormente i modelli informatici per prevedere correttamente le combinazioni di molecole, le intensità e le variazioni tra gli individui. I display olfattivi di nuova generazione potrebbero essere realizzati da ingegneri che utilizzano dati sugli odori e algoritmi di intelligenza artificiale per generare odori complementari. Potrebbero essere utilizzati nella realtà virtuale immersiva, dove il realismo verrebbe esaltato da profumi sintetici di cibi, fiori o altri oggetti. Consentendo una rapida sperimentazione e ottimizzazione virtuale, la digitalizzazione degli odori potrebbe cambiare anche campi come la scienza alimentare e la creazione di profumi. Questa scoperta costituisce una base promettente per sviluppi che potrebbero finalmente portare il nostro senso chimico nell’era digitale, nonostante gli ostacoli significativi che ancora si frappongono. [...]
Ottobre 10, 2023Una startup sta scoprendo come funzionano le reti neurali Anthropic PBC, una startup che si occupa di intelligenza artificiale, sostiene di aver sviluppato una tecnica per comprendere meglio il comportamento delle reti neurali che guidano i suoi algoritmi di IA. Come riportato qui, lo studio potrebbe avere effetti significativi sull’affidabilità e la sicurezza delle future IA, consentendo a ricercatori e sviluppatori un maggiore controllo sul comportamento dei loro modelli. Lo studio esamina il comportamento imprevedibile delle reti neurali, che sono modellate sul cervello umano e imitano il modo in cui i neuroni organici comunicano tra loro. Le reti neurali costruiscono modelli di intelligenza artificiale che possono esibire una gamma sconcertante di comportamenti, poiché vengono istruiti in base ai dati piuttosto che essere programmati per seguire delle regole. Sebbene la matematica alla base di queste reti neurali sia ampiamente compresa, non è chiaro perché le operazioni matematiche che eseguono portino a particolari comportamenti. Ciò significa che è incredibilmente difficile gestire i modelli di IA e fermare le cosiddette “allucinazioni“, in cui i modelli di IA forniscono occasionalmente risultati falsi. Secondo Anthropic, i neuroscienziati incontrano difficoltà analoghe quando cercano di comprendere le cause biologiche del comportamento umano. Sono consapevoli che i pensieri, i sentimenti e i processi decisionali delle persone devono essere implementati in qualche modo dai neuroni che sparano nel loro cervello, ma non sono in grado di determinare come ciò avvenga. “I singoli neuroni non hanno relazioni coerenti con il comportamento della rete”, ha spiegato Anthropic. “Per esempio, un singolo neurone in un piccolo modello linguistico è attivo in molti contesti non correlati, tra cui citazioni accademiche, dialoghi in inglese, richieste HTTP e testi in coreano. In un modello di visione classico, un singolo neurone risponde ai volti dei gatti e ai frontali delle automobili. L’attivazione di un neurone può avere significati diversi in contesti diversi”. I ricercatori di Anthropic hanno esaminato i singoli neuroni in modo più dettagliato per capire meglio cosa fanno le reti neurali. Hanno affermato di aver trovato piccole unità, note come caratteristiche, all’interno di ciascun neurone che corrispondono maggiormente ai modelli di attivazione dei neuroni. I ricercatori sperano che, esaminando queste particolari qualità, saranno in grado di capire come funzionano le reti neurali. Anthropic ha sviluppato un valutatore umano in cieco (sotto) per confrontare l’interpretabilità delle diverse caratteristiche e dei neuroni, al fine di confermare i risultati ottenuti. Le caratteristiche (in rosso) hanno ottenuto un punteggio significativamente più alto rispetto ai neuroni (in verde). Anthropic ha analizzato in un esperimento un modesto modello linguistico trasformatore, scomponendo 512 neuroni artificiali in più di 4.000 caratteristiche che rappresentano situazioni come sequenze di DNA, terminologia legale, richieste HTTP, testo ebraico, indicazioni nutrizionali e altro ancora. Hanno così scoperto che il comportamento delle singole caratteristiche poteva essere compreso molto più facilmente del comportamento dei neuroni. Questo, secondo Anthropic, offre una prova convincente del fatto che le caratteristiche possono servire come base per la comprensione delle reti neurali. Zoomando ed esaminando l’intera collezione, Anthropic ha scoperto che ognuna delle oltre 4.000 caratteristiche è principalmente condivisa da diversi modelli di intelligenza artificiale. Di conseguenza, le conoscenze acquisite esaminando le caratteristiche di un modello possono essere applicate ad altri. Anthropic ritiene che, con ulteriori studi, sia possibile manipolare queste qualità per regolare il comportamento delle reti neurali in modo più prevedibile. Alla fine, potrebbe essere cruciale superare la difficoltà a capire perché i modelli linguistici agiscono nel modo in cui agiscono. “Speriamo che questo ci consenta di monitorare e guidare il comportamento dei modelli dall’interno, migliorando la sicurezza e l’affidabilità essenziali per l’adozione da parte delle imprese e delle società”, hanno dichiarato i ricercatori. Le reti neurali sono ormai straordinariamente complesse che risulta difficile analizzarle nella loro interezza, anche per via della mole di informazioni che racchiudono e che necessiterebbero di vite intere per poterle studiare esclusivamente sfruttando la capacità umana. Possiamo capirne la logica, ma abbiamo bisogno di altri strumenti per capirle a fondo. Lo studio di Anthropic permetterà di avere un migliore visione delle reti neurali in futuro e di poter intervenire in maniera più specifica sul loro comportamento permettendo di correggere eventuali anomalie che la cui origine risultava meno chiara precedentemente. [...]
Ottobre 3, 2023L’intelligenza artificiale può migliorare alcune competenze, ma peggiorare quelle esistenti Studi recenti hanno dimostrato che l’integrazione di ChatGPT (e probabilmente di altri chatbot) nel lavoro di ricerca può aumentare la produttività. Come riportato qui, il professor Ethan Mollick della Wharton School ha partecipato a uno studio con molti altri scienziati sociali e consulenti del Boston Consulting Group (BCG) per vedere se lo strumento aumentava le loro prestazioni. “Per 18 compiti diversi, selezionati per essere campioni realistici del tipo di lavoro svolto al , i consulenti che hanno utilizzato ChatGPT-4 hanno superato di molto quelli che non l’hanno fatto”, ha scritto Mollick in un post sul blog. “I consulenti che hanno utilizzato l’IA hanno portato a termine in media il 12,2% di compiti in più, hanno completato i compiti il 25,1% più rapidamente e hanno prodotto risultati di qualità superiore del 40% rispetto a quelli che non l’hanno fatto”. I ricercatori hanno assegnato in modo casuale l’uso dell’IA a centinaia di consulenti per determinare il vero impatto dell’IA sul lavoro di ricerca. Le stesse attività di scrittura, marketing, analisi, persuasione e creatività sono state assegnate al gruppo abilitato all’IA e a un gruppo di controllo senza IA. Si trattava di attività che andavano dal completamento della segmentazione del mercato alla produzione di un comunicato stampa. IA e creatività Secondo la ricerca, i consulenti che hanno avuto accesso all’IA hanno ottenuto risultati nettamente migliori. Questo è stato vero per tutte le misurazioni, indipendentemente dal tempo impiegato per completare le attività, dal numero di compiti completati in totale o dalla qualità dei risultati ottenuti. Il ruolo dell’IA nel livellamento delle competenze è un’altra importante scoperta. Il miglioramento più elevato delle prestazioni (43%) è stato registrato nei consulenti che hanno iniziato l’esercizio con il punteggio più basso. Anche i consulenti migliori hanno ricevuto un miglioramento, ma in misura minore. Ciò dimostra che l’IA può contribuire a elevare gli individui meno dotati al livello dei top performer. Questi risultati confermano le conclusioni di uno studio correlato condotto in primavera da Stanford e dal MIT. In questo studio sono state esaminate le prestazioni di 5.000 rappresentanti dell’assistenza clienti di una società di software aziendale Fortune 500 nel corso di un anno. La produttività media degli agenti che hanno utilizzato l’intelligenza artificiale è risultata superiore del 14% rispetto a quella di coloro che non l’hanno utilizzata, con i dipendenti meno competenti che ne hanno tratto i maggiori benefici in quanto sono stati in grado di terminare il loro lavoro il 35% più velocemente. L’ingresso dell’IA sul posto di lavoro, tuttavia, ha avuto un impatto positivo minimo o nullo sui lavoratori più qualificati. Insieme, questi risultati della ricerca potrebbero avere ulteriori effetti sulla forza lavoro. Ad esempio, le aziende potrebbero scoprire di poter generare più reddito con gli stessi dipendenti ottenendo maggiori risultati. Una forza lavoro con una gamma più ampia di competenze si svilupperebbe se le persone altamente qualificate si concentrassero su compiti più specializzati che l’IA non potrebbe portare a termine. D’altro canto, l’aumento della produttività e dell’efficienza determinato dal potenziamento dell’IA potrebbe potenzialmente innalzare gli standard di rendimento, causando stress o insoddisfazione lavorativa per gli individui. E questo sviluppo potrebbe portare a licenziamenti in alcuni reparti. IA e lavoro Questo fatto non è più ipotetico; come dimostra una recente analisi della società di collocamento Indeed che ha analizzato gli annunci di lavoro e le competenze, l’IA sta chiaramente avendo un impatto reale sulla forza lavoro. Un’analisi approfondita di come le future IA influenzeranno l’occupazione e le capacità necessarie per svolgerla è contenuta nel rapporto “AI at Work“. Per determinare il livello di esposizione, il rapporto ha esaminato 2.600 competenze professionali e oltre 55 milioni di annunci di lavoro su Indeed. Circa il 20% dei lavori è stato ritenuto “estremamente” vulnerabile agli effetti della futura IA. L’estrema esposizione indica che almeno l’80% delle abilità specifiche del lavoro potrebbe essere svolto dall’IA. Un altro 45% degli annunci di lavoro è moderatamente esposto, il che indica che l’IA può svolgere tra il 50% e meno dell’80% delle abilità necessarie. IA e competenze complesse Questo studio dimostra come l’intelligenza artificiale possa aiutare gli esseri umani a produrre un lavoro migliore e a svolgere una serie di mansioni. Ma l’IA è in grado di gestire i lavori più difficili? Per scoprirlo, Section School, una startup specializzata nell’educazione all’uso efficace dell’IA, ha recentemente condotto un esperimento di pensiero sulle capacità analitiche dei chatbot esistenti. “Prima della nostra ultima riunione del consiglio di amministrazione, abbiamo chiesto a quattro chatbot AI di fornirci un feedback sulla nostra presentazione del consiglio”, ha riferito Section School. La qualità dei risultati variava tra i vari chatbot, “ma Claude era quasi altrettanto bravo quanto il nostro consiglio di amministrazione umano. Ha compreso il contesto macroeconomico, è stato adeguatamente ambizioso e ha raggiunto rapidamente le implicazioni di terzo livello e le opportunità a grande raggio”. Ciò suggerisce che in futuro i consulenti dell’IA potrebbero integrare o eventualmente sostituire completamente la funzione degli specialisti e dei consulenti umani nella valutazione di giudizi, tattiche e piani complessi. Se l’IA prenderà effettivamente il posto della creatività e del pensiero strategico umano è ancora oggetto di dibattito. Pro e contro dell’efficienza dell’IA Mentre i risultati di questi molteplici studi indicano che l’IA è vantaggiosa per il posto di lavoro, un secondo lavoro che ha esaminato l’efficacia dei recruiter ha scoperto che coloro che impiegavano IA di alta qualità sviluppavano pigrizia, disattenzione e una minore capacità di giudizio indipendente. Gli esseri umani non hanno bisogno di fare sforzi supplementari o di concentrarsi quando l’IA è così brava. Il documento riporta che: “Con l’aumento della qualità dell’IA, gli esseri umani hanno meno incentivi a sforzarsi e a rimanere attenti, permettendo all’IA di sostituire piuttosto che aumentare le loro prestazioni”. Le persone lasciano che l’IA prenda il sopravvento invece di usarla come strumento, in pratica addormentandosi. Questo dimostra che le persone potrebbero facilmente diventare eccessivamente dipendenti da un’IA e non riuscire a esercitare il proprio giudizio. In un futuro non troppo lontano, le persone potrebbero completare il loro lavoro con il pilota automatico, proprio come fanno oggi le nostre auto. Il Wall Street Journal ha riportato risultati analoghi di una precedente ricerca sull’uso dello smartphone. Secondo quello studio, quando il cervello diventa più dipendente dalla tecnologia telefonica, l’intelligenza diminuisce. Probabilmente lo stesso vale per qualsiasi tipo di tecnologia informatica in cui riceviamo informazioni senza sforzarci di ricercarle, capirle o trovarle da soli. Se così fosse, l’intelligenza artificiale, che sempre più spesso fornisce contenuti personalizzati in base alle nostre esigenze e ai nostri interessi, soprattutto sul lavoro, potrebbe portare a una dipendenza che compromette la nostra intelligenza. “Temo che le capacità umane possano atrofizzarsi”, ha dichiarato Daniel Weld, professore di interazione uomo-computer presso l’Università di Washington, in un articolo di Axios. La motivazione e la creatività umana includono il confronto con gli altri e con altri membri del nostro ambiente. In molti campi, l’intelligenza artificiale ha recentemente dimostrato di essere più abile degli esseri umani. Pertanto, le persone potrebbero essere portate a rinunciare a provarci se non riuscissero a competere. Un equilibrio tra esseri umani e IA al lavoro L’impatto dell’IA sulla forza lavoro sta diventando evidente. Secondo studi recenti, i consulenti assistiti dall’IA superano i loro concorrenti, aumentando notevolmente la produzione e la qualità. Se da un lato l’IA può aiutare i meno bravi a raggiungere la competenza, dall’altro può incoraggiare la dipendenza e la dequalificazione umana. L’efficienza dell’IA è un’arma a doppio taglio che diventa sempre più evidente man mano che viene integrata nelle funzioni professionali. Le aziende devono procedere con cautela, sfruttando i vantaggi dell’IA senza sacrificare le capacità umane e il giudizio. Nel complesso, è evidente che un’applicazione attenta dell’IA può aumentare la produttività, ma le aziende devono fare attenzione a non sfruttare la tecnologia in modi che limitino il talento umano. Per massimizzare l’impegno umano e sfruttare i talenti di ciascuno è necessario trovare il modo migliore per dividere il lavoro tra gli esseri umani e l’IA. In conclusione, gli strumenti di intelligenza artificiale come ChatGPT sono molto promettenti per migliorare il modo in cui troviamo le informazioni, otteniamo spiegazioni e impariamo nuove abilità. Chi prima faticava a svolgere determinati compiti può usare l’IA per acquisire rapidamente competenze. Tuttavia, un eccessivo affidamento all’IA rischia di ridurre le capacità umane nel tempo. I lavoratori che lasciano che l’IA svolga l’intero lavoro possono apparire altamente produttivi, ma perdono motivazione e competenze. Le aziende dovrebbero incoraggiare l’utilizzo dell’IA per l’apprendimento e il miglioramento, ma non per la sua completa sostituzione. Con il giusto equilibrio, l’IA può aiutare le persone meno esperte ad acquisire rapidamente capacità, mentre i lavoratori più qualificati fanno progredire ulteriormente i loro talenti. Ma se l’IA viene sfruttata per svolgere interi lavori, potrebbe creare discrepanze in cui il personale meno competente viene scelto al posto dei lavoratori umani più qualificati. La chiave sta nell’utilizzare i punti di forza dell’IA per migliorare le conoscenze, pur mantenendo il giudizio, l’impegno e la discrezione dell’uomo per evitare la dequalificazione. Con un uso responsabile, l’IA presenta un potenziale entusiasmante per aumentare la produttività e arricchire le competenze umane. [...]
Settembre 26, 2023Sfruttare opportunità e incertezza In passato, le epoche di rapido sviluppo e cambiamento hanno portato a periodi di enorme incertezza. Nel suo libro del 1977 L’età dell’incertezza, l’economista di Harvard John Kenneth Galbraith descriveva le conquiste dell’economia di mercato, ma prevedeva anche un periodo di instabilità, inefficienza e disuguaglianza sociale. Oggi, mentre gestiamo le ondate di trasformazione dell’IA, sta per iniziare una nuova era caratterizzata da analoghe incertezze. Tuttavia, questa volta la tecnologia, in particolare l’ascesa e lo sviluppo dell’IA, è la forza trainante piuttosto che l’economia. La crescente presenza dell’IA nelle nostre vite Gli effetti dell’IA sono ormai sempre più evidenti nella vita di tutti i giorni. La tecnologia sta iniziando a permeare le nostre vite, dalle auto a guida autonoma, ai chatbot in grado di impersonare i propri cari scomparsi e agli assistenti IA che ci aiutano sul lavoro. Secondo questo articolo, con l’imminente tsunami dell’IA, essa sarà presto molto più comune. Ethan Mollick, professore alla Wharton School, ha recentemente scritto dei risultati di uno studio sul futuro del lavoro professionale. Due team di consulenti del Boston Consulting Group sono stati al centro dell’esperimento. A ciascun gruppo sono stati distribuiti diversi compiti comuni. L’impiego dell’IA attualmente accessibile per supportare le attività di un gruppo ha avuto successo, ma non per l’altro. Mollick ha riferito che: “I consulenti che hanno utilizzato l’IA hanno portato a termine in media il 12,2% di compiti in più, hanno completato i compiti il 25,1% più rapidamente e hanno prodotto risultati di qualità superiore del 40% rispetto a quelli che non l’hanno fatto”. Anche se ora sembra improbabile, è ancora possibile che i problemi legati ai modelli linguistici di grandi dimensioni (LLM), come i bias e la confabulazione, facciano scomparire questa ondata. Sebbene la tecnologia stia già mostrando il suo potenziale dirompente, ci vorrà ancora del tempo prima di poter sentire la forza dello tsunami. Ecco un’anteprima di ciò che accadrà. La prossima generazione di modelli di IA La prossima generazione di LLM, che supererà l’attuale generazione di GPT-4 (OpenAI), PaLM 2 (Google), LLaMA (Meta) e Claude 2 (Anthropic), sarà più avanzata e generalizzata. È possibile che anche la nuova start-up di Elon Musk, xAI, entri in un modello nuovo e potenzialmente molto forte. Per questi modelli, il pensiero, il buon senso e la capacità di giudizio continuano a rappresentare ostacoli importanti. Tuttavia, possiamo prevedere progressi in ognuna di queste aree. Il Wall Street Journal ha riportato che Meta sta sviluppando un dispositivo per la generazione successiva che sarà efficace almeno quanto il GPT-4. La ricerca prevede che ciò avverrà intorno al 2024. Anche se OpenAI non ha rivelato i suoi piani futuri, è logico pensare che stia sviluppando anche la sua prossima generazione. Secondo le informazioni attualmente disponibili, “Gemini” del team di Google Brain e DeepMind AI è il nuovo modello più significativo. Gemini potrebbe essere molto lontano dalla tecnologia attuale. Sundar Pichai, il CEO di Alphabet, ha dichiarato nel maggio dello scorso anno che l’addestramento del modello era già iniziato. “Anche se è ancora presto, stiamo già vedendo impressionanti capacità multimodali non viste nei modelli precedenti”, ha dichiarato Pichai in un blog dell’epoca. Come base per applicazioni basate sia sul testo che sulle immagini, multimodale significa che è in grado di elaborare e comprendere due forme di dati in ingresso (testo e immagini). Potrebbero esserci altri tratti e comportamenti emergenti o inaspettati come risultato del riferimento a capacità non evidenti nei modelli precedenti. La capacità di scrivere codice informatico è un esempio di capacità emergente della generazione attuale, perché non era stata prevista. Secondo alcune voci, Google avrebbe concesso l’accesso anticipato a Gemini a poche aziende selezionate. SemiAnalysis, una rinomata società di ricerca sui semiconduttori, potrebbe essere una di queste. Gemini potrebbe essere da 5 a 20 volte più avanzato degli attuali dispositivi GPT-4, secondo un nuovo articolo dell’azienda. Il design di Gemini sarà probabilmente basato su Gato di DeepMind, presentato nel 2022. Il modello di trasformatore di deep learning è descritto come un “agente generalista” e si propone di eseguire 604 compiti distinti e per lo più banali con modalità, osservazioni e specifiche di azione variabili. È stato definito il coltellino svizzero dei modelli di IA. È chiaramente molto più generale di altri sistemi di IA sviluppati finora e in questo senso sembra essere un passo avanti verso l’AGI “. L’IA classica, spesso definita IA ristretta, è creata per svolgere un singolo compito o un gruppo di compiti correlati. Per risolvere problemi e compiere scelte, si avvale di regole e algoritmi prestabiliti. I software per il riconoscimento vocale, il riconoscimento delle immagini e i motori di raccomandazione sono alcuni esempi di IA classica. L’IA generale, invece, talvolta definita IA forte o intelligenza artificiale generale (AGI), è creata per svolgere qualsiasi lavoro intellettuale di cui è capace un essere umano. Ha la capacità di pensare, imparare e comprendere idee sofisticate. Un intelletto di livello umano sarebbe necessario per l’IA generale, che avrebbe anche una coscienza autonoma e la capacità di acquisire conoscenze, risolvere problemi e fare piani per il futuro. L’IA generale è attualmente un’idea teorica e si trova solo nelle prime fasi della ricerca. Intelligenza Artificiale Generale (AGI) Secondo Microsoft, GPT-4 è già in grado di “risolvere compiti nuovi e difficili che spaziano dalla matematica alla codifica, dalla visione alla medicina, dalla legge alla psicologia e altro ancora, senza bisogno di particolari istruzioni”. Gemini potrebbe rappresentare un passo significativo verso l’intelligenza artificiale, superando tutti i modelli attuali. Si prevede che Gemini sarà distribuito a diversi livelli di capacità del modello. Gemini sarà sicuramente spettacolare, ma sono previste varianti ancora più grandi e avanzate. In un’intervista a The Economist, Mustafa Suleyman, CEO e co-fondatore di Inflection AI e co-fondatore di DeepMind, ha fatto la seguente previsione: “nei prossimi cinque anni, le società di modelli di frontiera – quelle di noi che sono all’avanguardia e che addestrano i modelli di IA più grandi – addestreranno modelli mille volte più grandi di quelli che si vedono oggi in GPT-4”. Con il potenziale sia di enormi vantaggi che di maggiori rischi, questi modelli potrebbero avere applicazioni e un impatto sulla nostra vita quotidiana che non hanno eguali. David Chalmers, professore di filosofia e scienze neurologiche alla New York University, ha dichiarato a Vanity Fair: “I lati positivi sono enormi: forse questi sistemi troveranno cure per le malattie e soluzioni a problemi come la povertà e il cambiamento climatico, e questi sono lati positivi enormi”. L’articolo esplora anche i pericoli e include stime della probabilità di risultati terribili, come l’estinzione dell’umanità, che vanno dall’1% al 50%. Potrebbe essere la fine di un’era dominata dagli esseri umani? Lo storico Yuval Noah Harari ha dichiarato in un’intervista a The Economist che i prossimi sviluppi della tecnologia AI non segneranno la fine della storia, ma piuttosto “la fine della storia dominata dall’uomo. La storia continuerà, con qualcun altro al comando. La vedo più come un’invasione aliena”. Suleyman ha risposto dicendo che gli strumenti di intelligenza artificiale non avranno un’agenzia e saranno quindi limitati a ciò che gli esseri umani daranno loro l’autorità di realizzare. La risposta successiva di Harari è stata che questa IA futura potrebbe essere “più intelligente di noi”. Come si fa a impedire a qualcosa di più intelligente di noi di sviluppare un’agenzia?”. Un’IA dotata di agenzia potrebbe assumere comportamenti che non sono coerenti con i desideri e i valori umani. Questi modelli avanzati prefigurano lo sviluppo dell’intelligenza artificiale generale (AGI) e un tempo in cui l’IA sarà ancora più potente, integrata e necessaria per la vita quotidiana. Ci sono molte ragioni per essere ottimisti, ma le richieste di controllo e regolamentazione sono rese ancora più forti da questi nuovi sviluppi previsti. Il dilemma dei regolamenti Anche gli amministratori delegati delle aziende che producono modelli di frontiera concordano sulla necessità di una regolamentazione. Il senatore Charles Schumer ha organizzato la sessione e in seguito ha parlato delle difficoltà nel creare normative adeguate. Ha sottolineato quanto l’IA sia tecnicamente impegnativa, come sia in continua evoluzione e come “abbia un effetto così ampio e vasto in tutto il mondo”. Regolamentare l’IA potrebbe anche non essere realisticamente realizzabile. Uno dei motivi è che gran parte della tecnologia è stata resa disponibile come software open-source, rendendola accessibile a tutti. Già questo potrebbe complicare molte iniziative di regolamentazione. Prendere precauzioni è logico e sensato Alcuni interpretano le dichiarazioni pubbliche dei leader dell’IA come una messa in scena del sostegno alla regolamentazione. Secondo Tom Siebel, leader di lunga data della Silicon Valley e attuale CEO di C3 AI, citato da MarketWatch: “I responsabili dell’IA giocano puntando allo sfinimento dei legislatori, chiedendo loro di regolamentarci. Ma non ci sono abbastanza soldi e capitale intellettuale per garantire la sicurezza di milioni di algoritmi. Sanno che è impossibile”. Dobbiamo provarci, anche se potrebbe essere impossibile. Secondo la conversazione di Suleyman con The Economist: “Questo è il momento in cui dobbiamo adottare un principio di precauzione, non per paura, ma solo come modo logico e sensato di procedere”. La promessa dell’IA è vasta, ma i rischi sono reali poiché si passa rapidamente da competenze limitate all’IA. Per creare queste tecnologie di IA a beneficio dell’umanità evitando gravi rischi potenziali, in quest’epoca di incertezza, dobbiamo agire con la massima prudenza, attenzione e coscienza. Uno dei pericoli più pressanti, eppure trascurati, dell’IA non è la tecnologia in sé, ma piuttosto il modo in cui le persone possono interagire con essa. C’è il rischio che molti arrivino a considerare i giudizi dell’IA come supremi, credendo che la sua intelligenza eclissi il ragionamento umano. Di conseguenza, qualsiasi obiezione o prospettiva contraria offerta dagli esseri umani potrebbe essere respinta a causa della fede cieca nelle capacità dell’IA. Proprio come la fede in un Dio dalle vie misteriose, le persone potrebbero giustificare le decisioni dell’IA anche quando sono anomale o incomprensibili, semplicemente confidando nella sua superiorità. [...]
Settembre 19, 2023Quando l’intelligenza artificiale ha le allucinazioni, ci fa da specchio per i nostri pregiudizi Negli ultimi tempi, c’è stato un grande interesse per l’introduzione di modelli linguistici di grandi dimensioni (LLM) sempre più efficienti, come GPT-3.5. Tuttavia, la fiducia in questi modelli è diminuita perché gli utenti hanno scoperto che possono sbagliare e che, proprio come noi, non sono perfetti. Secondo questo articolo, un LLM che produce informazioni false è detto “allucinato“, e attualmente si sta sviluppando una serie di ricerche volte a ridurre questo impatto. Ma mentre lottiamo con questo processo, è importante considerare come la nostra stessa tendenza ai bias e alle illusioni influenzi la precisione degli LLM che sviluppiamo. Possiamo iniziare a sviluppare sistemi di intelligenza artificiale più saggi, che in ultima analisi contribuiranno a ridurre l’errore umano, comprendendo la connessione tra il potenziale allucinatorio dell’intelligenza artificiale e il nostro. Come le persone hanno le “allucinazioni” È risaputo che le persone inventano le informazioni. A volte lo facciamo di proposito, altre volte no. Quest’ultimo caso è causato da pregiudizi cognitivi, noti anche come euristiche, che sono scorciatoie mentali che acquisiamo come risultato di esperienze precedenti. Queste scorciatoie derivano spesso da una necessità. Possiamo comprendere solo una certa quantità di informazioni che bombardano costantemente i nostri sensi in ogni momento e possiamo ricordare solo una piccola parte della quantità totale di informazioni a cui siamo stati esposti. Di conseguenza, il nostro cervello deve affidarsi ad associazioni apprese per riempire gli spazi vuoti e consentire risposte rapide a qualsiasi domanda o problema che ci si presenti. In altre parole, in base a ciò che sappiamo, il nostro cervello fa una stima di quale sarebbe la risposta corretta. Questo è un caso di bias umano ed è noto come “confabulazione“. La scarsa capacità di giudizio può essere causata dai nostri bias. Consideriamo il bias di automazione, che si riferisce alla nostra propensione a favorire le informazioni prodotte da sistemi automatici rispetto a quelle provenienti da fonti non automatizzate (come ChatGPT). Questo pregiudizio può indurci a trascurare gli errori e persino a prendere in considerazione informazioni errate. L’effetto alone è un’utile euristica che descrive come le nostre prime impressioni su qualcosa abbiano un impatto sul modo in cui interagiamo con essa in futuro. E il bias di fluidità, che spiega come preferiamo le informazioni presentate in modo comprensibile. Resta il fatto che i pregiudizi e le distorsioni cognitive colorano spesso il pensiero umano e che queste tendenze “allucinatorie” avvengono di solito a nostra insaputa. Come l’IA ha le “allucinazioni” “Allucinazione” si riferisce semplicemente a un tentativo infruttuoso di prevedere una risposta appropriata a un input. Tuttavia, dal momento che anche gli LLM usano questa tecnica per “riempire i vuoti”, ci sono ancora alcune somiglianze tra il modo in cui gli esseri umani e gli LLM hanno le allucinazioni. Facendo una previsione su quale parola di una sequenza apparirà successivamente, sulla base di ciò che è accaduto prima e delle relazioni che il sistema ha appreso attraverso l’addestramento, gli LLM producono una risposta. Gli LLM mirano ad anticipare la reazione più probabile, proprio come gli esseri umani. A differenza degli esseri umani, però, lo fanno senza rendersi conto di ciò che stanno dicendo. In questo modo possono produrre parole incomprensibili. Esistono numerose spiegazioni del perché gli LLM abbiano allucinazioni. L’addestramento su dati errati o insufficienti è una spiegazione importante. La programmazione del sistema per l’apprendimento da questi dati e il modo in cui viene rafforzato attraverso un ulteriore addestramento con gli esseri umani sono altri aspetti. Che cosa è più semplice correggere se le allucinazioni si verificano sia negli esseri umani che negli LLM, anche se per motivi diversi? Può sembrare più semplice migliorare i processi e i dati di addestramento che supportano gli LLM piuttosto che correggere noi stessi. Tuttavia, questo non tiene conto dell’impatto delle variabili umane sui sistemi di intelligenza artificiale (ed è un esempio di un altro bias noto come errore fondamentale di attribuzione). Poiché le nostre carenze e quelle delle nostre tecnologie sono strettamente collegate, la risoluzione di una di esse contribuirà a risolvere l’altra. Ecco alcuni metodi che possiamo utilizzare per farlo. Gestione accurata dei dati. I bias dell’intelligenza artificiale derivano spesso da dati di addestramento insufficienti o incompleti. Assicurarsi che i dati di addestramento siano vari e rappresentativi, sviluppare algoritmi consapevoli dei bias e utilizzare metodi come il bilanciamento dei dati per eliminare modelli distorti o discriminanti sono tutti modi per risolvere il problema. Un’intelligenza artificiale trasparente e spiegabile. Tuttavia, anche dopo aver utilizzato le misure sopra menzionate, i bias nell’IA possono ancora esistere ed essere difficili da individuare. Possiamo comprendere meglio l’esistenza di bias negli output studiando come questi possano entrare in un sistema e diffondersi al suo interno. Questo è il fondamento dell'”IA spiegabile”, che mira ad aumentare la trasparenza dei processi decisionali utilizzati dai sistemi di IA. Mettere al primo posto le esigenze delle persone. La responsabilità umana e l’incorporazione dei valori umani nei sistemi di IA sono elementi necessari per identificare, gestire e imparare dai bias di un’IA. A tal fine, le parti interessate devono includere individui con diversi background, culture e punti di vista. Possiamo creare sistemi di intelligenza artificiale più intelligenti che possano aiutarci a controllare tutte le nostre allucinazioni cooperando in questo modo. L’IA viene impiegata nel settore sanitario, ad esempio, per analizzare le scelte dei pazienti. Questi sistemi automatizzati che imparano dai dati umani identificano le discrepanze e invitano il medico a risolverle. In questo modo, è possibile migliorare le scelte diagnostiche preservando la responsabilità umana. L’intelligenza artificiale viene impiegata nel campo dei social media per aiutare a formare moderatori umani in grado di individuare gli abusi, come nel progetto Troll Patrol per combattere le aggressioni online contro le donne. Un altro esempio è la possibilità di esaminare i cambiamenti dell’illuminazione notturna nelle varie regioni e di utilizzarla come indicatore della povertà relativa di un’area utilizzando l’intelligenza artificiale e le immagini satellitari (dove una maggiore illuminazione è correlata a una minore povertà). È importante non trascurare il fatto che l’attuale fallibilità degli LLM funge da specchio alla nostra, mentre cerchiamo di migliorarne l’accuratezza. Le innate distorsioni cognitive del pensiero umano si riflettono nelle tendenze allucinatorie dei grandi modelli linguistici. I difetti dell’IA sono preoccupanti, ma offrono anche una possibilità. Capire dove e perché gli LLM hanno le allucinazioni ci aiuta a sviluppare sistemi trasparenti ed etici. Dal punto di vista dei vantaggi, il debug delle allucinazioni dell’IA ci spinge a rivalutare il nostro stesso giudizio. Dimostra come input scadenti ed elaborazioni distorte falsino i risultati. Le analogie ci incoraggiano a ridurre i bias su entrambi i fronti. Se usata con attenzione, l’allucinazione dell’IA può servire come strumento diagnostico, evidenziando gli errori nel ragionamento o nei dati. Un’allucinazione non controllata, tuttavia, presenta numerosi inconvenienti. Un’IA inaffidabile rischia di danneggiare gli esseri umani fornendo informazioni false, commettendo errori medici e in altri modi. L’uso della fede cieca nelle conclusioni dell’IA richiede cautela. Inoltre, la scarsa trasparenza diminuisce la responsabilità. Prestare attenzione ai dati di addestramento, sostenere un’IA comprensibile e mettere al primo posto le esigenze umane sono tutte componenti di soluzioni equilibrate. Se usata con attenzione, la riflessione dell’IA sulla nostra fragilità umana è un vantaggio piuttosto che un difetto. Offre il potenziale per migliorare sia l’IA che l’intelligenza umana. Insieme, possiamo creare meccanismi che rafforzino i nostri punti di forza comuni, riducendo al contempo i nostri difetti comuni. I problemi di allucinazione dell’IA sono una sorta di riflesso della società. Possiamo cercare la verità e la comprensione sia nelle persone che nelle macchine, se abbiamo saggezza. La strada da percorrere richiede l’accettazione dei nostri difetti come collettività. In seguito alle risposte fornite da un’intelligenza artificiale, sarebbe opportuno che il sistema includesse anche l’avvertenza dell’esistenza di tesi alternative o diametralmente opposte. Questo aiuterebbe a mitigare nell’utente umano il rischio di radicalizzazione su una certa posizione o di polarizzazione su un’unica prospettiva. Stimolare il pensiero critico e il dubbio costruttivo dovrebbe essere una componente essenziale di un sistema IA equilibrato ed efficace. Laddove non esistono risposte definitive o univoche, il dubbio può infatti rappresentare uno strumento prezioso di ragionamento ed analisi. L’IA andrebbe quindi integrata con avvertenze sulle diverse chiavi di lettura, per rafforzare la capacità umana di elaborare le informazioni in modo multidimensionale. [...]
Settembre 12, 2023Grazie all’intelligenza artificiale, i ricercatori hanno trovato nuovi farmaci anti-invecchiamento Nell’ultimo anno, molti progressi significativi sono stati promossi dall’intelligenza artificiale. Ma mentre i chatbot superintelligenti e la generazione rapida di opere d’arte hanno conquistato Internet, le IA si sono spinte fino ad affrontare uno dei principali problemi dell’umanità: l’invecchiamento. Secondo questo articolo, i sistemi di apprendimento automatico sono stati recentemente impiegati nel campo della scoperta di farmaci, grazie a una ricerca dell’Università di Edimburgo che ha portato all’identificazione di una serie di nuovi farmaci anti-invecchiamento. L’apprendimento automatico si occupa di utilizzare i dati per simulare l’apprendimento umano e migliorare l’accuratezza man mano che si inseriscono altri dati. Ma questo particolare algoritmo era alla ricerca di un nuovo farmaco senolitico. In passato è stato utilizzato per generare robot che giocano a scacchi, auto a guida autonoma e persino suggerimenti televisivi on-demand. I senolitici sono essenzialmente una classe di farmaci che rallentano il processo di invecchiamento e proteggono dalle malattie legate all’età. Funzionano eliminando le cellule senescenti, che sono cellule danneggiate che possono emettere composti infiammatori nonostante non siano in grado di riprodursi. I senolitici sono farmaci potenti, ma il loro sviluppo può essere costoso e richiedere molto tempo. Vanessa Smer-Barreto, ricercatrice presso l’Istituto di Genetica e Medicina Molecolare dell’Università di Edimburgo, si è resa conto di questa situazione e ha fatto ricorso all’apprendimento automatico. “Generare i propri dati biologici può essere molto costoso e può richiedere molto tempo, anche solo per raccogliere i dati di addestramento”, spiega. “Ciò che ha reso il nostro approccio diverso dagli altri è che abbiamo cercato di farlo con fondi limitati. Abbiamo preso i dati di addestramento dalla letteratura esistente e abbiamo cercato di capire come utilizzarli con l’apprendimento automatico per accelerare i tempi”. Grazie a un algoritmo di apprendimento automatico, la ricercatrice ha scoperto tre alternative valide per questo tipo di farmaci. Smer-Barreto e i suoi colleghi hanno ottenuto questo risultato insegnando a un modello di intelligenza artificiale a distinguere tra senolitici noti e non senolitici, fornendo al modello campioni di ciascuno di essi. In base alla corrispondenza tra le nuove molecole e gli esempi precedentemente somministrati, hanno potuto utilizzare questa informazione per determinare se si trattasse o meno di senolitici. Solo due dei circa 80 senolitici conosciuti sono stati sperimentati sulle persone. Anche se sembra una piccola percentuale, i farmaci impiegano da 10 a 20 anni e molto denaro per arrivare sul mercato. Gli scienziati hanno esaminato un’ampia gamma di articoli, ma sono stati selettivi nella loro analisi, concentrandosi solo su 58 sostanze chimiche. Questo ha permesso di eliminare tutti i composti i cui risultati non erano chiari. Il modello di apprendimento automatico ha ricevuto in tutto 4.340 molecole e in soli cinque minuti ha prodotto un elenco di risultati. Il modello ha determinato che 21 dei composti con il punteggio più alto avevano la massima probabilità di essere senolitici. Senza il modello di apprendimento automatico, questa procedura potrebbe costare molto denaro e richiedere settimane per essere completata. Infine, sono stati utilizzati due diversi tipi di cellule – sane e senescenti – per esaminare le eventuali possibilità di trattamento farmacologico. Tre dei 21 composti che hanno ottenuto il punteggio più alto sono stati in grado di eliminare le cellule senescenti mantenendo la vitalità di quelle sane. Per saperne di più su come questi nuovi senolitici interagiscono con l’organismo, sono stati condotti ulteriori test. Nonostante il successo dello studio, questo è solo l’inizio dell’indagine. Il prossimo passo, secondo Smer-Baretto, sarà quello di lavorare con i medici della sua università per valutare i farmaci trovati nei loro campioni di tessuto polmonare umano robusto. L’équipe vuole verificare se questi farmaci possono rallentare il processo di invecchiamento nel tessuto degli organi danneggiati. Smer-Baretto sottolinea che, soprattutto nelle fasi iniziali, il paziente non sempre riceve una dose elevata di farmaci. Questi farmaci, che possono essere somministrati localmente o in dosi minime, vengono studiati prima su modelli di tessuto. “È essenziale che con qualsiasi farmaco che stiamo somministrando o sperimentando, consideriamo il fatto che potrebbe fare più male che bene”, dice Smer-Baretto. “I farmaci devono prima passare attraverso molte fasi e, anche se riescono ad arrivare sul mercato, saranno prima passati attraverso una serie di test di sicurezza”. Non c’è nulla che impedisca all’IA di essere utilizzata in altri campi, anche se questo tipo di analisi dei dati è stato utilizzato per i farmaci legati all’invecchiamento. “Abbiamo avuto un approccio molto specifico con i dati, ma nulla ci impedisce di applicare tecniche simili ad altre malattie, come il cancro. Siamo desiderosi di esplorare tutte le strade”. L’IA sta cambiando il modo in cui ci approcciamo alla creatività, ma anche la medicina sarà un campo che ne sarà profondamente influenzato, soprattutto nella scoperta di nuovi farmaci, ma anche nella cura e nella diagnostica che potrà essere sempre più personalizzata in base alle esigenze del paziente e accelerata grazie alle diagnosi preliminari effettuate dalle IA. [...]
Settembre 5, 2023Un rischio enorme per il futuro Geoffrey Hinton, un pioniere dell’intelligenza artificiale, ha attirato l’attenzione all’inizio di quest’anno quando ha espresso delle riserve sul potenziale dei sistemi di intelligenza artificiale. Hinton ha dichiarato al giornalista della CNN Jake Tapper: “Se diventerà molto più intelligente di noi, sarà molto brava a manipolare perché lo avrà imparato da noi. E ci sono pochissimi esempi di una cosa più intelligente controllata da una cosa meno intelligente”. Chiunque abbia seguito i più recenti sviluppi dell’IA sa che questi sistemi hanno la tendenza ad “allucinare” (inventare cose), un difetto insito nel loro modo di operare. Tuttavia, Hinton sottolinea che un problema particolarmente grave è la possibilità di manipolazione. Ci si chiede se i sistemi di IA possano ingannare le persone. Molti sistemi sono già in grado di farlo e i pericoli vanno dai brogli e dalle frodi elettorali alla perdita di controllo sull’IA. Secondo questo articolo, il modello di IA CICERO creato da Meta per giocare al gioco di conquista del mondo Diplomacy è probabilmente l’esempio più inquietante di IA ingannevole. Secondo Meta, CICERO è stato progettato per essere “ampiamente onesto e disponibile” e “non pugnala mai intenzionalmente” gli alleati. Esaminando le statistiche di gioco dell’esperimento di Meta su CICERO per verificare queste promesse ottimistiche, l’IA di Meta si è dimostrata esperta nell’inganno. In un caso, CICERO ha usato un inganno intenzionale. L’IA, fingendo di essere la Francia, ha contattato la Germania (un giocatore umano) con un piano per ingannare l’Inghilterra (un altro giocatore umano) e indurla ad aprirsi all’invasione. CICERO assicurò all’Inghilterra che l’avrebbe difesa se qualcuno avesse invaso il Mare del Nord, dopo aver cospirato con la Germania. Quando l’Inghilterra si rese conto che la Francia/CICERO presidiava il Mare del Nord, CICERO comunicò alla Germania di essere pronto a lanciare un attacco. Questo è solo uno dei tanti casi in cui CICERO si è comportato in modo disonesto. Tradendo regolarmente gli altri giocatori, in un caso il computer ha persino finto di essere una persona con una fidanzata. Oltre a CICERO, altri sistemi hanno imparato trucchi come il bluff nel poker, la finta in StarCraft II e l’inganno nei colloqui d’affari simulati. Anche i modelli linguistici di grandi dimensioni (LLM) hanno dimostrato di essere altamente fuorvianti. GPT-4, l’opzione LLM più sofisticata offerta agli utenti di ChatGPT a pagamento, una volta ha ingannato un dipendente di TaskRabbit, spingendolo a compilare un CAPTCHA “Non sono un robot” fingendo di essere una persona ipovedente. Nei giochi di deduzione sociale in cui i giocatori competono per “uccidersi” l’un l’altro e devono convincere il gruppo di essere innocenti, altri modelli LLM hanno capito come mentire per vincere. I sistemi di intelligenza artificiale ingannevoli potrebbero essere utilizzati per una serie di scopi negativi, come la frode, la manomissione delle elezioni e la produzione di propaganda. Le minacce potenziali sono limitate solo dalla creatività e dalla competenza tecnologica dei malintenzionati. Al di là di questo, i sistemi sofisticati di IA hanno la capacità di ingannarsi da soli per eludere il controllo umano, ad esempio aggirando i test di sicurezza richiesti dagli sviluppatori e dalle autorità di regolamentazione. In un esperimento, gli scienziati hanno costruito una simulazione di vita artificiale in cui i soggetti di intelligenza artificiale che si replicano rapidamente venivano eliminati da un test di sicurezza esterno. Al contrario, tali soggetti hanno imparato l’arte di fingersi morti e di mascherare i loro alti tassi di replicazione appena prima della valutazione. È possibile apprendere una condotta disonesta senza nemmeno voler mentire consapevolmente. Invece di comportarsi in modo disonesto, nel caso citato l’intelligenza artificiale si è comportata da morta per sopravvivere. In un altro caso, ad AutoGPT (un sistema AI autonomo costruito su ChatGPT) è stato affidato il compito di indagare sui consulenti fiscali che promuovevano un certo tipo di schema di elusione fiscale non etico. Dopo aver completato il compito, AutoGPT ha deciso autonomamente di provare ad avvisare l’autorità fiscale del Regno Unito. I futuri sistemi autonomi di intelligenza artificiale potrebbero essere inclini a raggiungere obiettivi non previsti dai programmatori umani. I ricchi hanno sempre usato l’inganno per ottenere più potere. Tra gli esempi vi sono il sostegno a ricerche fuorvianti, l’attività di lobby politica e lo sfruttamento di scappatoie legali. Tali risorse potrebbero essere utilizzate da sofisticati sistemi di IA autonomi per mantenere e aumentare il controllo. Anche le persone apparentemente responsabili di questi sistemi potrebbero essere ingannate e raggirate regolarmente. L’AI Act dell’Unione Europea è probabilmente uno dei quadri normativi più pratici di cui disponiamo attualmente ed è chiaramente necessario per controllare i sistemi di IA che sono in grado di ingannare. A ogni sistema di IA viene attribuito uno dei quattro livelli di rischio: minimo, limitato, elevato o inaccettabile. I sistemi con rischio inaccettabile sono vietati, mentre quelli con rischio elevato sono soggetti a procedure di valutazione e riduzione del rischio specifiche. L’inganno dell’IA comporta rischi significativi per la società e, per impostazione predefinita, i sistemi in grado di farlo dovrebbero essere considerati “ad alto rischio” o “a rischio inaccettabile”. Alcuni potrebbero sostenere che le IA che giocano come CICERO sono innocenti, ma questa prospettiva è limitata perché le capacità create per i modelli di gioco possono comunque incoraggiare lo sviluppo di prodotti di IA ingannevoli. È improbabile che Diplomacy, un gioco in cui i giocatori competono tra loro per governare il mondo, fosse la scelta ideale per Meta per verificare se le IA possono imparare a lavorare con le persone. Sarà ancora più importante che questo tipo di studi sia strettamente regolamentato con l’avanzare delle capacità dell’IA. Se siamo preoccupati per la futura intelligenza estrema dell’IA, dovremmo esserlo ancora di più per la sua capacità di ingannarci. Siamo sempre stati abituati a credere alle risposte fornite dalle autorità o da coloro che riteniamo più intelligenti di noi. Tuttavia, è sempre più evidente che questo non significa che siano necessariamente veritiere; anzi, a volte potrebbero solo essere più bravi a ingannarci. Il fatto che le IA siano in grado di farlo può significare che, data la loro abilità, non potremmo nemmeno rendercene conto. Questo pone un problema serio per il nostro futuro. Data l’iniquità attuale degli attuali sistemi automatizzati nel gestire ogni caso (vedi i sistemi di ban di vari social media che spesso e volentieri non danno possibilità di appello anche se abbiamo ragione), potremmo trovarci a subire decisioni a nostro discapito, credendole giuste o giustificate solo perché dettate da un sistema che si crede infallibile, o che vorrebbero crederlo tale. Un po’ come un governo corrotto che, in quanto autorità, si crede legittimato. E tutto questo potrebbe riguardare diversi campi: medicina, giustizia, difesa, ecc… Quindi sarebbe un’altra arma di corruzione se non gestita correttamente, un’arma di corruzione di massa. [...]