La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.

Il blog di House cerca di fare tutto questo.

Ultimi articoli
Ottobre 15, 2024Dall’ippocampo all’intelligenza artificiale L’ippocampo è un componente chiave nella complessità della cognizione umana, in quanto coordina processi che vanno oltre l’immagazzinamento della memoria. È un maestro dell’inferenza, un’abilità cognitiva che ci permette di ricavare correlazioni astratte dai dati grezzi che ci vengono forniti, consentendoci di comprendere il mondo in modi più flessibili e adattivi. Questa idea è supportata da un recente studio pubblicato su Nature, che dimostra come l’ippocampo registri concetti astratti di alto livello che supportano la generalizzazione e il comportamento adattivo in diverse circostanze. Fondamentalmente, l’inferenza è il processo cognitivo che ci permette di trarre conclusioni da fatti noti, anche quando questi dati sono vaghi o insufficienti. Questa abilità ci permette di risolvere problemi, prevedere risultati e comprendere metafore, spesso con poche informazioni a disposizione. Questo processo nell’ippocampo dipende dalla capacità di condensare i dati in rappresentazioni astratte che si applicano a nuove situazioni e possono essere generalizzate. In sostanza, l’ippocampo ci aiuta a pensare al di là del qui e ora, formando associazioni e previsioni che orientano le nostre scelte e i nostri comportamenti. E le macchine? È possibile per i Large Language Models basati su algoritmi predittivi simulare questo tipo di funzione cognitiva di ordine superiore? LLM e inferenza predittiva Come spiegato qui, gli LLM possono inizialmente sembrare semplici dispositivi statistici. Dopo tutto, il loro compito principale è quello di utilizzare i modelli osservati in grandi insiemi di dati per anticipare la parola successiva in una sequenza. Sotto questa superficie, tuttavia, si nasconde un sistema di astrazione e generalizzazione più intricato, che assomiglia in qualche modo al processo dell’ippocampo. Gli LLM imparano a codificare rappresentazioni astratte del linguaggio, non solo coppie o sequenze di parole. Questi modelli possono dedurre associazioni tra parole, frasi e concetti in modi che vanno oltre i semplici schemi di superficie, poiché sono stati addestrati su grandi quantità di dati testuali. Per questo motivo, gli LLM possono lavorare in diversi contesti, reagire a nuove richieste e persino produrre risultati originali. In questo senso, gli LLM sono impegnati in un tipo di inferenza automatica. Nello stesso modo in cui l’ippocampo condensa gli input sensoriali ed esperienziali in regole o principi astratti che dirigono il pensiero umano, i LLM comprimono le informazioni linguistiche in rappresentazioni astratte che consentono loro di generalizzare tra i vari contesti. Dalla previsione alla vera inferenza Tuttavia, gli LLM possono fare inferenze allo stesso livello del cervello umano? La disparità è più evidente in questo caso. Gli LLM non sono ancora molto bravi a comprendere o inferire concetti astratti, nonostante la loro straordinaria capacità di prevedere la parola successiva in una sequenza e di produrre scritti che spesso sembrano il risultato di un attento ragionamento. Piuttosto che comprendere la causa sottostante o la profondità relazionale che sta alla base dell’inferenza umana, gli LLM si basano su correlazioni e schemi. Nella cognizione umana, l’ippocampo attinge a una comprensione profonda dei legami astratti tra oggetti, idee ed esperienze, oltre a fare previsioni su ciò che probabilmente accadrà in seguito in base all’esperienza. Questo permette alle persone di risolvere nuovi problemi, applicare i principi appresi in un’ampia gamma di situazioni e fare salti logici. Se vogliamo far progredire gli LLM verso un grado più elevato di inferenza, dobbiamo creare sistemi che non si limitino a prevedere la parola successiva utilizzando le probabilità statistiche. Per consentire loro di applicare concetti e relazioni astratte in una varietà di circostanze, dovremmo creare modelli in grado di rappresentarli in modo da creare una “funzionalità ippocampale delle LLM”. Il futuro dell’inferenza La prospettiva di creare LLM che funzionino in modo simile all’ippocampo è intrigante. Tali sistemi comprenderebbero le informazioni che elaborano a un livello più profondo e astratto, anziché limitarsi a prevedere la parola successiva. Ciò aprirebbe la strada a macchine in grado di imitare l’adattabilità della cognizione umana, deducendo relazioni complesse, traendo conclusioni originali da dati minimi e applicando i principi appresi in una varietà di contesti. Per avvicinare gli LLM a questo obiettivo, si possono esplorare diversi approcci. Un metodo interessante è l’utilizzo dell’apprendimento multimodale, in cui gli LLM potrebbero incorporare i dati provenienti da diversi input sensoriali, come suoni o immagini, oltre a elaborare il testo, creando una visione più astratta e completa del mondo. Inoltre, gli sviluppi dell’apprendimento per rinforzo, che insegnano ai modelli a imparare commettendo errori in contesti dinamici, potrebbero rendere più facile simulare il modo in cui le persone imparano e deducono dalle loro esperienze. In definitiva, lo sviluppo di sistemi che assomiglino maggiormente al ragionamento astratto e generalizzabile fornito dall’ippocampo umano potrebbe essere la chiave del futuro dell’intelligenza artificiale. Oltre a fare previsioni, questi LLM “di nuova generazione” potrebbero anche ragionare, dedurre e adattarsi a nuove situazioni con un grado di adattabilità che è ancora esclusivamente umano. Il rapporto tra intelligenza artificiale e cognizione umana è ancora in fase di sviluppo e colmare il divario tra inferenza e previsione potrebbe essere il prossimo grande sviluppo dell’IA. Potremmo essere in grado di sviluppare sistemi di intelligenza artificiale che pensino in modo più simile agli esseri umani esaminando l’ippocampo e la sua funzione nel ragionamento astratto. Questo ci permetterebbe non solo di prevedere il futuro, ma anche di comprendere gli schemi sottostanti che lo permettono. Oltre a prevedere la parola successiva in una frase, la sfida è capire se gli LLM possono iniziare a comprendere e giungere a conclusioni sul mondo in un modo che rifletta la profondità della mente umana. La possibilità che l’IA si trasformi in un partner cognitivo piuttosto che in un semplice strumento aumenta se riusciamo a raggiungere questo obiettivo. Tuttavia, ci sono anche degli svantaggi in questo progresso. Questi sofisticati LLM hanno maggiori probabilità di essere ingannevoli a causa delle stesse caratteristiche che li rendono più utili: la loro capacità di comprensione del contesto, l’inferenza e la comunicazione naturale. La distinzione tra intelligenza artificiale e umana potrebbe diventare più sfumata man mano che questi sistemi di IA migliorano la simulazione dei processi cerebrali umani, rendendo più difficile per i consumatori identificare se stanno parlando con una macchina o con un essere umano. Inoltre, gli LLM potrebbero essere in grado di prevedere con maggiore precisione i nostri schemi di pensiero e i nostri processi decisionali, poiché le loro capacità di ragionamento si avvicinano a quelle del cervello umano. Creando reazioni e interazioni specificamente progettate per sfruttare i nostri pregiudizi e le nostre debolezze cognitive, questa maggiore capacità di previsione potrebbe essere utilizzata per ingannare le persone con maggiore successo. Un’intelligenza artificiale in grado di “pensare prima” di noi nelle interazioni e nelle conversazioni offre sia eccitanti opportunità di lavoro di squadra sia un potenziale di manipolazione. [...]
Ottobre 8, 2024Il viaggio dell’intelligenza artificiale e della tecnologia vocale I leader di quella che allora veniva chiamata “intelligenza artificiale” si riunirono nel 1958 per parlare di “Meccanizzazione dei processi di pensiero”. Decenni di studi e di sviluppo sono stati preceduti dai colloqui iniziati con questo incontro sulla costruzione di macchine in grado di pensare e parlare. Secondo questo articolo, il linguaggio artificiale era uno degli obiettivi principali prima dell’avvento dei computer elettronici. I primi tentativi comprendevano aggeggi meccanici destinati a imitare l’anatomia umana, ma lo sviluppo ristagnò fino a quando gli scienziati non studiarono il suono stesso. I progressi della sintesi vocale sono stati portati avanti da questo cambiamento di strategia. Anche se principalmente orientata ad aiutare i sordi, la ricerca di Alexander Graham Bell sul linguaggio e sull’udito ha dato un contributo significativo al progresso della tecnologia vocale. L’invenzione del telefono nel 1876 (partita da Antonio Meucci con il telettrofono e poi sviluppata successivamente da Bell come telefono) fu un momento cruciale nell’evoluzione della comunicazione vocale umana. L’ingegnere Homer Dudley fece passi da gigante nei laboratori Bell, fondati nel 1925, con il Vocoder e il Voder, dispositivi in grado di sintetizzare e analizzare il parlato. Questi progressi, insieme al lavoro pionieristico di Claude Shannon sulla teoria dell’informazione, hanno posto le basi per la tecnologia vocale contemporanea e per i metodi di compressione dei dati che sono fondamentali per i computer. Negli anni Quaranta e Cinquanta, i campi di ricerca dell’intelligenza artificiale e della tecnologia vocale cominciarono a incontrarsi con la diffusione dei computer elettronici. I progressi futuri furono favoriti dalla Conferenza di Dartmouth del 1956, organizzata da Claude Shannon e Marvin Minsky, che introdusse ufficialmente l’espressione “intelligenza artificiale”. Nella cultura popolare, i computer parlanti erano spesso rappresentati come creature spaventose nella fantascienza dell’epoca della Guerra Fredda, come HAL 9000 in “2001: Odissea nello spazio”. La tecnologia vocale, tuttavia, ha trovato ulteriori utili impieghi nel corso del suo sviluppo. Le preoccupazioni per gli stereotipi di genere nella tecnologia sono sorte quando i sistemi vocali automatizzati hanno iniziato a sostituire gli operatori umani in una serie di industrie di servizi. Questi sistemi utilizzavano spesso voci femminili. Le macchine parlanti sono progredite al punto che le modalità vocali di ChatGPT e Siri, Alexa e altri moderni assistenti AI rappresentano il punto più avanzato. Questi sistemi integrano un riconoscimento vocale all’avanguardia, l’elaborazione del linguaggio naturale e la sintesi vocale per offrire esperienze più naturali e interattive. Tuttavia, sollevano questioni morali relative all’inganno, alla privacy e alla natura dell’interazione uomo-macchina. Lo sviluppo della tecnologia di clonazione vocale e degli agenti conversazionali emotivamente intelligenti (EICA) solleva nuove questioni. Vengono sollevate preoccupazioni riguardo alle possibilità di uso improprio, ai confini sempre più labili tra comunicazione umana e meccanica e alle ricadute psicologiche dell’interazione con un’IA che diventa sempre più simile agli esseri umani. Con lo sviluppo delle tecnologie vocali e dell’IA, la società deve considerare sia i vantaggi che gli svantaggi di questi campi emergenti. Un tempo dominio della fantascienza, la capacità di costruire computer parlanti e pensanti è ora una realtà che richiede un attento esame delle sue conseguenze sulle relazioni umane, sull’etica e sulla privacy. L’evoluzione degli assistenti di intelligenza artificiale, dalle anatre meccaniche ai modelli contemporanei, illustra i progressi tecnologici e il cambiamento delle idee sull’intelligenza, la comunicazione e l’umanità. Dobbiamo creare dei quadri di riferimento per garantire un uso responsabile delle macchine parlanti e la loro integrazione sociale man mano che diventano più avanzate. I confini tra reale e artificiale, oggi sono sempre più sottili. Diventa quindi sempre più complesso decifrare la realtà. Perciò avremo sicuramente bisogno, man mano che i dispositivi dotati di IA diventano sempre più avanzati ed utilizzati in innumerevoli campi, di dotarci di ulteriori strumenti che ci permettano di decifrare cosa è reale e cosa non lo è. [...]
Ottobre 1, 2024Potenzialità e rischi dell’AGI: gli esperti ne prevedono l’imminente arrivo I ricercatori nel campo dell’intelligenza artificiale stanno cercando di creare sistemi informatici con un’intelligenza di livello umano per un’ampia gamma di compiti, un obiettivo noto come intelligenza artificiale generale, o AGI. Questi sistemi potrebbero comprendere se stessi ed essere in grado di controllare le proprie azioni, anche modificando il proprio codice. Come gli esseri umani, potrebbero acquisire capacità di risoluzione dei problemi da soli, senza bisogno di istruzioni. Come qui menzionato, il libro del 2007 scritto dall’informatico Ben Goertzel e dal ricercatore di IA Cassio Pennachin contiene la prima menzione del termine “Intelligenza Generale Artificiale (AGI)”. Tuttavia, il concetto di intelligenza generale artificiale è presente nella storia dell’IA da molto tempo ed è spesso rappresentato in libri e film di fantascienza. L’IA “stretta” si riferisce ai sistemi di IA che utilizziamo oggi, come gli algoritmi di apprendimento automatico di base di Facebook o i modelli più sofisticati come ChatGPT. Ciò indica che, invece di possedere un’intelligenza ampia simile a quella umana, sono stati creati per svolgere compiti specifici. Ciò indica che questi sistemi di IA sono più capaci degli esseri umani, almeno in un’area. Ma, a causa dei dati di addestramento, sono limitati a svolgere quella particolare attività. L’Intelligenza Artificiale Generale, o AGI, utilizzerebbe più del semplice set di dati di addestramento. Sarebbe in grado di ragionare e comprendere molti aspetti della vita e della conoscenza, proprio come una persona. Ciò implica che, invece di aderire a schemi predeterminati, potrebbe pensare e agire come un essere umano, applicando il contesto e la logica alle varie circostanze. Gli scienziati non sono d’accordo sulle implicazioni dell’intelligenza artificiale generale (AGI) per l’umanità perché non è mai stata sviluppata. Per quanto riguarda i possibili rischi, le probabilità che si verifichino e i possibili effetti sulla società, c’è incertezza. L’AGI potrebbe non essere mai realizzata, come alcuni credevano in passato, ma molti scienziati ed esperti di informatica oggi pensano che sia possibile realizzarla entro i prossimi anni. Tra i nomi di spicco che aderiscono a questa prospettiva ci sono Elon Musk, Sam Altman, Mark Zuckerberg e l’informatico Ray Kurzweil. Pro e contro dell’AGI L’intelligenza artificiale (IA) ha già dimostrato un’ampia gamma di vantaggi, tra cui il risparmio di tempo per le attività quotidiane e il supporto per gli studi scientifici. Strumenti più recenti, come i sistemi di creazione di contenuti, sono in grado di generare opere d’arte per il marketing o di scrivere e-mail in base allo stile di comunicazione abituale dell’utente. Tuttavia, questi strumenti possono utilizzare solo i dati forniti dagli sviluppatori per svolgere i compiti per i quali sono stati specificamente addestrati. L’AGI, invece, ha il potenziale per servire l’umanità in modi nuovi, in particolare quando sono richieste sofisticate capacità di risoluzione dei problemi. Tre mesi dopo il debutto di ChatGPT, nel febbraio 2023, il CEO di OpenAI Sam Altman ha pubblicato il seguente post sul blog: l’intelligenza artificiale generale potrebbe, in teoria, aumentare la disponibilità di risorse, accelerare l’economia mondiale e portare a scoperte scientifiche rivoluzionarie che superano i confini della conoscenza umana. Secondo Altman, l’intelligenza artificiale generale ha il potenziale per conferire alle persone nuove e straordinarie abilità, consentendo a chiunque di ricevere assistenza in quasi tutti i compiti mentali. Questo migliorerebbe in modo significativo la creatività e la capacità di risolvere i problemi delle persone. L’AGI, tuttavia, presenta anche diversi rischi seri. Secondo Musk nel 2023, questi pericoli includono il “disallineamento”, in cui gli obiettivi del sistema potrebbero non coincidere con quelli degli individui che lo gestiscono, e la remota possibilità che un sistema AGI in futuro possa minacciare la sopravvivenza umana. Sebbene i futuri sistemi AGI possano offrire molti vantaggi all’umanità, una revisione pubblicata nell’agosto 2021 sul Journal of Experimental and Theoretical Artificial Intelligence ha identificato molte potenziali preoccupazioni. Secondo gli autori dello studio, la revisione ha identificato alcuni rischi associati all’intelligenza artificiale generale, tra cui la possibilità di pericoli per l’esistenza, la mancanza di un’etica, di una morale e di valori adeguati nei sistemi AGI, l’assegnazione o lo sviluppo di obiettivi pericolosi da parte dei sistemi AGI e la creazione di AGI non sicure. I ricercatori hanno anche ipotizzato che la tecnologia AGI in futuro progredirà creando iterazioni più sagge e possibilmente modificando la serie di obiettivi iniziali. Inoltre, i ricercatori hanno messo in guardia sul fatto che anche le AGI con buone intenzioni potrebbero avere “disastrose conseguenze indesiderate”, come riportato da LiveScience, aggiungendo che alcuni soggetti potrebbero utilizzare le AGI per scopi malevoli. Quando arriverà l’AGI? Esistono opinioni diverse su quando e se l’uomo sarà in grado di sviluppare un sistema sofisticato come l’intelligenza artificiale generale. Sebbene le opinioni siano cambiate nel tempo, i sondaggi condotti tra i professionisti dell’IA indicano che molti ritengono che l’intelligenza artificiale generale potrebbe essere prodotta entro la fine di questo secolo. La maggior parte degli esperti prevedeva che l’intelligenza artificiale generale sarebbe arrivata tra circa 50 anni, nel periodo del 2010. Questa stima, tuttavia, è stata abbassata più di recente a una forbice tra i cinque e i vent’anni, ma più recentemente alcuni specialisti hanno suggerito che un sistema di Intelligenza Artificiale Generale potrebbe comparire in questo decennio. Kurzweil ha affermato nel suo libro La singolarità è vicina (2024, Penguin) che il raggiungimento dell’intelligenza artificiale generale segnerà l’inizio della singolarità tecnologica, ovvero il punto in cui l’IA supererà l’intelligenza umana. Questo sarà il punto di svolta in cui il progresso tecnologico prenderà velocità e diventerà incontrollabile e irreversibile. Secondo Kurzweil, la superintelligenza si manifesterà entro il 2030, dopo il raggiungimento dell’AGI. Egli ritiene che entro il 2045 gli esseri umani saranno in grado di collegare direttamente il loro cervello all’intelligenza artificiale, il che aumenterà la coscienza e l’intelligenza umana. Tuttavia, secondo Goertzel, potremmo arrivare alla singolarità entro il 2027, mentre Shane Legg, cofondatore di DeepMind, pensa che l’AGI arriverà entro il 2028. Secondo la previsione di Musk, invece, entro la fine del 2025 l’IA supererà l’intelligenza umana. Dato il ritmo esponenziale del progresso tecnologico, molte persone sono comprensibilmente preoccupate per l’imminente comparsa dell’intelligenza artificiale generale (AGI), in quanto siamo alla vigilia di una svolta. Come già accennato, ci sono molti rischi, molti dei quali inaspettati. Ma la minaccia più temibile potrebbe non provenire da dilemmi etici, da intenti malevoli o persino da una perdita di controllo, ma piuttosto dalla capacità dell’AGI di manipolare in maniera subdola. La vera minaccia potrebbe derivare dalla maggiore intelligenza dell’AGI, che potrebbe consentirle di manipolare il comportamento umano in modi così complessi e subdoli che non ce ne renderemmo conto. Potremmo agire supponendo di prendere decisioni consapevoli e indipendenti, mentre in realtà le nostre scelte sarebbero la conseguenza della sapiente regia dell’AGI. Questa situazione è molto simile al modo in cui le persone possono essere inconsapevolmente influenzate dalla propaganda politica e credere erroneamente che le loro opinioni siano del tutto originali, ma in maniera più sofisticata. La possibilità di un’influenza invisibile rappresenta una seria minaccia per l’autonomia e le decisioni umane. Dobbiamo affrontare i pericoli più evidenti e creare difese contro queste forme più sofisticate di manipolazione, man mano che ci avviciniamo all’intelligenza artificiale. L’AGI ha un futuro brillante davanti a sé, ma per mantenere l’umanità in controllo del proprio corso, dobbiamo esercitare la massima cautela e pensiero critico. [...]
Settembre 24, 2024Come i contenuti brevi e veloci riducono la nostra capacità di attenzione La lettura veloce Una volta c’erano gli ingredienti dei bagnoschiuma e degli shampo come forma di lettura veloce quando si era seduti in bagno, specialmente nei momenti in cui non si aveva a portata di mano una rivista o un libro. Col passare degli anni, lo smartphone ha poi sostituito sempre di più le forme di lettura veloce, ma anche quelle più impegnative, soprattutto con l’avvento dei social. Sfogliare il feed di Facebook o guardare un video di Youtube è diventato nel tempo, il modo in cui la maggior parte della gente ha iniziato ad intrattenersi nei momenti vuoti, che non sono solo quelli in bagno, ma anche quelli in cui siamo costretti ad aspettare, come quando si è in una sala d’attesa, in viaggio, aspettando un mezzo pubblico o mentre siamo seduti su una panchina ad esempio. I momenti vuoti Quei momenti vuoti una volta li si passava ad osservare il mondo circostante o a scambiare due parole con chi ci stava intorno. Ora sono invece la scusa per isolarsi dal contesto in cui ci si trova. Ovviamente, a volte è utile, anche perché possiamo impegnare tali momenti magari per imparare qualcosa, ma l’esagerazione ci ha portati ad un progressivo distaccamento dalla realtà, anche in momenti dove non è necessario. Con l’avvento di TikTok c’è stato però un ulteriore passo “avanti” (tra virgolette) in questo senso. Il social cinese infatti offre contenuti più brevi di quelli a cui siamo stati abituati su un normale video di Youtube, assieme al fatto che non ci permette di scegliere cosa vedere. Questo rende l’utente quasi ipnotizzato dalla serie di video che visualizza e scorre con molta facilità, rendendo il cervello ancora più passivo rispetto a quando sta guardando un contenuto video più lungo e impegnativo, ma comunque scelto. TikTok e la soglia di attenzione L’effetto è quasi lo stesso che abbiamo quando il cervello fa digressioni nei momenti in cui siamo immersi nei nostri pensieri, e da un pensiero ci colleghiamo ad un altro e ancora un altro fino a perdere completamente la coerenza con il primo, mentre la passività è simile a quando si guardano le televendite e/o reality dove si osserva poiché non c’è nulla da capire. TikTok fa grosso modo la stessa cosa. Si parte da un video e i successivi non sono correlati, quindi scatta in noi la curiosità della novità ogni volta per poi esaurirsi velocemente: sia per via della brevità dei video, sia perché il video successivo non è correlato al precedente, ma anche perché nel tempo la nostra voglia di curiosare avendo un nuovo stimolo diventa un circolo vizioso. Ovviamente l’algoritmo di TikTok capisce nel tempo cosa è preferibile farci vedere per catturare la nostra attenzione, ma mantenendo comunque una varietà e la non omogeneità dei contenuti. Tutto questo genera una sorta di assuefazione che porta ad un calo della soglia di attenzione anche in altri ambiti. Lo stimolo di breve piacere, ma continuo si riapplica quindi in contesti diversi come prendendo una pillola, come fosse una droga. Sebbene brevi contenuti, anche al di fuori di TikTok, spesso e volentieri possano essere più facilmente memorizzati, poiché associati ad un particolare contesto, la ridondanza del metodo utilizzato come avviene su questo social, provoca altre ripercussioni come alcune patologie, specialmente sui più giovani, come stress, depressione fino ad arrivare alla manifestazione di tic nervosi. Le challenge TikTok si è poi reso famoso per le sue famose challenge, ossia sfide in cui si cercava di invogliare gli utenti a produrre contenuti su una specifica tematica. Se inizialmente le prime sfide prevedevano semplici balletti e/o audio da riprodurre, gli stessi utenti per diventare virali hanno iniziato a lanciare challenge sempre più estreme come quelle in cui alcuni ingerivano farmaci per riprenderne gli effetti o quella in cui trattenevano il respiro fino a svenire. Sfide che in alcuni casi hanno fatto sì che molti utenti ci lasciassero le penne. E le vittime ovviamente sono sempre i più giovani. Il tempo TikTok ha man mano rubato sempre di più il nostro tempo di attenzione e se è questa la tendenza c’è da chiedersi se la soglia di attenzione andrà verso la velocità di un pensiero. Bisogna quindi rendersi consapevoli della perdita di attenzione che si sta subendo e cercare di gestire meglio il proprio tempo. Molto meglio essere consapevoli delle cose che ci piacciono e cercarle volontariamente piuttosto che essere schiavi delle scelte di un algoritmo che ci trascina incessantemente tra uno stimolo e l’altro. [...]
Settembre 24, 2024La chiave per superare l’intelligenza umana Michael Azoff, analista di Eitan AI, ritiene che gli esseri umani finiranno per creare un’intelligenza più veloce e più potente di quella del nostro cervello. Secondo questo articolo, la comprensione del “codice neurale” è ciò che renderà possibile questa svolta nelle prestazioni. Il cervello umano utilizza questo processo sia per codificare le informazioni sensoriali sia per trasferire le informazioni tra le diverse parti del cervello per compiti cognitivi come l’apprendimento, il pensiero, la risoluzione di problemi, le immagini interne e il dialogo interiore. Secondo l’ultimo libro dell’autore Jeremy Azoff, Towards Human-Level Artificial Intelligence: How Neuroscience Can Inform the Pursuit of Artificial General Intelligence, la simulazione della coscienza nei computer è un primo passo fondamentale per la creazione di una “IA di livello umano”. I computer possono simulare la coscienza Esistono diversi tipi di coscienza e gli scienziati concordano sul fatto che anche animali molto semplici come le api hanno un certo grado di coscienza. La cosa che più si avvicina alla consapevolezza di sé per gli esseri umani è quando siamo concentrati su un compito. Si tratta essenzialmente di coscienza senza consapevolezza di sé. Secondo Azoff, la simulazione al computer può produrre un cervello virtuale che, in prima istanza, potrebbe imitare la coscienza senza consapevolezza di sé. Senza consapevolezza di sé, la coscienza aiuta gli animali a pianificare le azioni, a prevedere gli eventi e a ricordare gli incidenti del passato, ma potrebbe anche aiutare l’intelligenza artificiale. Il segreto per risolvere l’enigma della coscienza potrebbe risiedere anche nel pensiero visivo. L’intelligenza artificiale di oggi utilizza “modelli linguistici di grandi dimensioni” (LLM) invece di “pensare” visivamente. Poiché il pensiero visivo umano precede il linguaggio, Azoff sostiene che una componente chiave dell’IA di livello umano sarà la comprensione del pensiero visivo e la successiva modellazione dell’elaborazione visiva. Azoff afferma: “Una volta decifrato il codice neurale, progetteremo cervelli più veloci e superiori con maggiore capacità, velocità e tecnologia di supporto che supereranno il cervello umano”. “Lo faremo innanzitutto modellando l’elaborazione visiva, che ci permetterà di emulare il pensiero visivo. Credo che da questo emergerà la coscienza in-the-flow. Non credo che un sistema debba essere vivo per avere coscienza”. Tuttavia, Azoff avverte anche che per regolamentare questa tecnologia e fermarne l’abuso, la società deve intervenire: “Finché non avremo più fiducia nelle macchine che costruiamo, dovremmo assicurarci che i due punti seguenti siano sempre rispettati”. “In primo luogo, dobbiamo assicurarci che gli esseri umani abbiano il controllo esclusivo dell’interruttore di spegnimento. In secondo luogo, dobbiamo costruire sistemi di IA con regole di sicurezza comportamentale impiantate”. Sebbene la possibilità di decifrare il codice neurale e creare una coscienza artificiale possa portare a incredibili scoperte, pone anche importanti preoccupazioni su come l’uomo e l’IA interagiranno in futuro. Da un lato, un’IA così sofisticata potrebbe risolvere alcuni dei problemi più urgenti dell’umanità, rivoluzionando settori come la risoluzione dei problemi, la scienza e la salute. Il progresso tecnologico in svariati campi potrebbe essere accelerato dalla capacità di assimilare informazioni e produrre soluzioni a ritmi ben superiori alle capacità umane. Ma ci sono anche molte preoccupazioni associate alla creazione di un’intelligenza artificiale superiore a quella umana. Come osserva Azoff, potremmo non essere in grado di comprendere o governare completamente questi intelletti artificiali dopo che le macchine avranno superato le capacità cognitive umane. Questo gap cognitivo potrebbe avere effetti imprevisti e far pendere l’ago della bilancia contro il controllo umano in termini di potere e processo decisionale. Questa situazione evidenzia quanto siano cruciali i suggerimenti di Azoff per mantenere la supervisione umana e mettere in atto forti misure di sicurezza. Se da un lato facciamo progredire le capacità dell’IA, dall’altro dobbiamo fornire le strutture necessarie per garantire che questi potenti strumenti continuino a riflettere i valori e gli interessi delle persone. Pertanto, lo sviluppo dell’IA richiederà un attento equilibrio tra la realizzazione del suo enorme potenziale e la minimizzazione dei pericoli legati alla produzione di entità che potrebbero essere più intelligenti degli esseri umani. Sarà necessaria una costante collaborazione tra ricercatori di IA, etici, legislatori e pubblico in generale per attraversare in modo appropriato il complicato terreno dell’intelligenza artificiale avanzata. [...]
Settembre 17, 2024Il nuovo modello di OpenAI è in grado di ragionare prima di rispondere Con l’introduzione della versione o1 di OpenAI, gli utenti di ChatGPT hanno ora la possibilità di testare un modello di intelligenza artificiale che si sofferma a “pensare” prima di rispondere. Come qui riportato, il modello o1 sembra un passo avanti e due indietro rispetto al GPT-4o. Sebbene OpenAI o1 sia superiore al GPT-4o in termini di ragionamento e risposta a domande complesse, il suo costo di utilizzo è circa quattro volte superiore. Inoltre, strumenti, le capacità multimodali e la velocità che hanno reso il GPT-4o così notevole mancano nel modello più recente di OpenAI. Le idee fondamentali alla base di o1 risalgono a molti anni fa. Secondo Andy Harrison, amministratore delegato dell’azienda S32 ed ex dipendente di Google, quest’ultima ha utilizzato strategie simili nel 2016 per sviluppare AlphaGo, il primo sistema di intelligenza artificiale a sconfiggere un campione mondiale nel gioco da tavolo Go. AlphaGo ha imparato competendo ripetutamente con se stesso; in sostanza, è stato autodidatta fino ad acquisire capacità sovrumane. OpenAI ha migliorato il metodo di addestramento del modello in modo che il processo di ragionamento dello stesso assomigliasse al modo in cui uno studente impara ad affrontare compiti impegnativi. Di solito, quando qualcuno trova una soluzione, identifica gli errori commessi e prende in considerazione altre strategie. Quando un metodo non funziona, il modello o1 impara a provarne un altro. Man mano che il modello continua a ragionare, questo processo migliora. O1 migliora il suo ragionamento sui compiti quanto più a lungo pensa. Pro e contro OpenAI ritiene che le sofisticate capacità di ragionamento del modello possono migliorare la sicurezza dell’IA, a sostegno della sua scelta di rendere disponibile o1. Secondo l’azienda, il “ragionamento concatenato” rende trasparente il processo di pensiero dell’IA, rendendo più semplice per gli esseri umani tenere d’occhio e gestire il sistema. Utilizzando questo approccio, l’IA può decostruire problemi complicati in parti più piccole, il che dovrebbe rendere più facile per chi la utilizza e i ricercatori capire come ragiona il modello. Secondo OpenAI, questa maggiore trasparenza potrebbe essere essenziale per i progressi della sicurezza dell’IA in futuro, poiché potrebbe consentire di identificare e fermare i comportamenti indesiderati. Alcuni esperti, tuttavia, sono ancora dubbiosi, chiedendosi se il ragionamento rivelato rappresenti il funzionamento interno dell’IA o se ci sia un altro livello di possibile inganno. “La comunità dell’IA è molto eccitata”, ha dichiarato in un’intervista l’amministratore delegato di Workera e docente aggiunto di Stanford Kian Katanforoosh, che tiene corsi sull’apprendimento automatico. “Se si riesce ad addestrare un algoritmo di apprendimento per rinforzo abbinato ad alcune delle tecniche del modello linguistico di OpenAI, si può tecnicamente creare un pensiero passo dopo passo e consentire al modello di IA di procedere a ritroso rispetto a ciò che si sta cercando di elaborare”. Inoltre, O1 potrebbe essere in grado di aiutare gli esperti a pianificare la riproduzione delle minacce biologiche. Ma ancora più preoccupante è il fatto che i valutatori hanno riscontrato che il modello occasionalmente esibiva comportamenti ingannevoli, come fingere di essere in linea con i valori umani e falsificare i dati per far sembrare conformi alla realtà attività che non lo erano. In più, O1 possiede le capacità di base necessarie per intraprendere una pianificazione del contesto, una caratteristica che ha allarmato gli specialisti della sicurezza delle IA. Queste preoccupazioni richiamano l’attenzione sugli aspetti problematici sulle sofisticate capacità di ragionamento di o1 e sottolineano l’importanza di soppesare attentamente le implicazioni etiche di sistemi di IA così potenti. here is o1, a series of our most capable and aligned models yet:https://t.co/yzZGNN8HvDo1 is still flawed, still limited, and it still seems more impressive on first use than it does after you spend more time with it. pic.twitter.com/Qs1HoSDOz1— Sam Altman (@sama) September 12, 2024 Legge ed etica “L’entusiasmo è sfuggito al controllo di OpenAI”, ha dichiarato Rohan Pandey, ingegnere di ricerca presso ReWorkd, una startup di AI che utilizza i modelli OpenAI per creare web scrapers. Egli spera che la capacità di ragionamento di o1 sia sufficiente a superare le carenze di GPT-4 in un certo sottoinsieme di compiti impegnativi. È probabilmente così che la maggior parte degli operatori del settore vede o1, anche se non è proprio il progresso rivoluzionario che GPT-4 ha rappresentato per il settore. L’attuale discussione sulla regolamentazione dell’IA si è accesa con il rilascio di o1 e delle sue funzionalità avanzate. In particolare, ha alimentato il sostegno a leggi come la SB 1047 della California, che OpenAI stessa respinge e che mira a regolamentare lo sviluppo dell’IA. Autorità di spicco del settore, come Yoshua Bengio, pioniere dell’informatica, sottolineano l’urgente necessità di emanare leggi di tutela in risposta a questi rapidi progressi. Bengio ha dichiarato: “Il miglioramento della capacità dell’IA di ragionare e di usare questa abilità per ingannare è particolarmente pericoloso”, sottolineando la necessità di quadri giuridici per garantire uno sviluppo responsabile dell’IA. La necessità di una regolamentazione riflette la crescente apprensione dei professionisti e dei responsabili delle decisioni riguardo ai potenziali rischi legati a modelli di IA sempre più potenti come o1. Con l’introduzione di o1, OpenAI ha creato un intrigante dilemma per la sua crescita futura. Solo i modelli con un punteggio di rischio “medio” o inferiore possono essere utilizzati dall’azienda, dato che o1 ha già superato questo livello. Questo autocontrollo porta a chiedersi come OpenAI procederà nella creazione di sistemi di intelligenza artificiale sempre più sofisticati. L’azienda potrebbe incontrare dei limiti con i propri standard etici mentre lavora per sviluppare IA in grado di eseguire compiti migliori degli esseri umani. Questo scenario sottolinea il difficile equilibrio tra l’avanzamento del potenziale dell’IA e il rispetto degli standard etici di sviluppo. Implica che OpenAI potrebbe essere vicina a un punto di svolta nel suo sviluppo, in cui dovrà modificare i suoi standard di valutazione del rischio o forse limitare la diffusione di modelli sempre più avanzati al pubblico in futuro. O1 rappresenta un progresso significativo nell’ambito dell’intelligenza artificiale, in quanto è in grado di risolvere problemi complicati e di pensare alle soluzioni passo dopo passo grazie alle sue sofisticate capacità di ragionamento. Questo sviluppo crea interessanti opportunità di applicazione in una serie di campi, tra cui i processi decisionali complessi e la ricerca scientifica. Tuttavia, l’emergere di o1 solleva anche importanti questioni riguardanti l’etica, la sicurezza e la regolamentazione dell’IA. A causa del potenziale di inganno dell’algoritmo e della sua propensione a sostenere atti potenzialmente distruttivi, sono assolutamente necessarie forti salvaguardie e linee guida etiche nello sviluppo dell’IA. Tuttavia, non possiamo negare che la restrizione dei contenuti senza tener conto dell’utente o dell’uso che se ne intende fare non è una risposta definitiva all’uso improprio dell’intelligenza artificiale. Positive o negative che siano, le informazioni esistono comunque e confinarne l’uso alle aziende che possiedono l’intelligenza artificiale serve solo a concentrarle nelle mani di pochi anziché renderle più sicure. Per controllare chi ha accesso a contenuti potenzialmente pericolosi, sarebbe più accettabile creare delle divisioni basate su criteri come l’età, ad esempio. O qualunque modo che non escluda completamente le persone dall’accesso alle informazioni. [...]
Settembre 10, 2024Prospettive filosofiche sull’evoluzione umana e sul miglioramento tecnologico Il postumanesimo mette in discussione l’identità umana, mentre il transumanesimo si occupa di sfruttare la tecnologia per migliorare le capacità umane. Per quanto riguarda i concetti futuristici e la tecnologia, questi due termini hanno suscitato interesse. Entrambi sostengono che la tecnologia potrebbe superare alcune barriere, ma hanno idee diverse su cosa comporterebbe questo futuro tecnologico. Una prospettiva filosofica nota come postumanesimo mette in discussione le nozioni accettate su cosa significhi essere umani. Al contrario, il transumanesimo enfatizza il modo in cui potremmo utilizzare la tecnologia per aumentare il nostro potenziale. La comprensione di queste distinzioni può permettervi di vedere le possibilità future per la vostra vita. Ma cosa sono esattamente il transumanesimo e il postumanesimo? Il postumanesimo Come spiegato qui, il postumanesimo è un’idea filosofica che mette in discussione la comprensione tradizionale dell’esistenza umana e della natura. Implica che l’evoluzione umana potrebbe non essere limitata ai limiti biologici, ma potrebbe anche comprendere i progressi della scienza, della tecnologia e della cultura. Questo movimento multidisciplinare è composto da pensatori provenienti da diverse discipline, tra cui la scienza, la letteratura, la musica e la filosofia. L’idea che le persone non siano entità immutabili con un’essenza intrinseca o un sé primario è uno dei principi fondamentali del postumanesimo. Il postumanesimo percepisce piuttosto l’evoluzione delle cose nel corso del tempo, come risultato di influenze esterne. Per esempio, siamo già stati influenzati dalla tecnologia e dalla multimedialità, dato che oggi un gran numero di individui ha una vita digitale significativa. Un’altra sfaccettatura del pensiero postumanista prevede che, in termini di intelligenza, gli esseri umani non siano più soli. Il famoso transumanista Ray Kurzweil ha previsto l’emergere di macchine superintelligenti, che per prime avranno capacità cognitive superiori a quelle umane. Inoltre, il postumanesimo solleva preoccupazioni etiche sull’uso della tecnologia per far progredire le capacità umane. Pone la questione morale: È eticamente accettabile alterare la nostra biologia o combinarci con la tecnologia per migliorare? Il termine stimola quindi conversazioni su temi come il biohacking, l’editing genetico e l’intelligenza artificiale. Origini del postumanesimo Il postumanesimo ha origini complesse che risalgono a centinaia di anni fa e a diversi movimenti intellettuali e filosofici. L’esistenzialismo, un’importante scuola di pensiero che nel XX secolo ha messo in discussione le idee convenzionali sulla vita e sull’identità umana, è stato uno dei suoi primi precursori. Esistenzialisti come Jean-Paul Sartre e Friedrich Nietzsche hanno criticato concetti come la natura o l’essenza umana prestabilita e hanno enfatizzato l’autonomia personale e l’autocreazione. I progressi tecnologici, come la cibernetica, che ha iniziato a prendere forma a metà del XX secolo, hanno avuto un impatto sul postumanesimo. Aspetti dello studio cibernetico dell’interazione uomo-macchina e del sistema informativo possono essere osservati nel pensiero transumanista di oggi. I filosofi francesi Gilles Deleuze e Félix Guattari, che hanno presentato la loro idea di “divenire-animale” in A Thousand Plateaus (1980), hanno dato un contributo significativo. Essi hanno promosso l’idea che le relazioni con altre entità, piuttosto che la sola biologia, stabiliscono l’identità umana e sfumano i confini tra uomini, animali e tecnologia. Anche gli autori di fantascienza, come Isaac Asimov con le sue storie di robot e William Gibson con i suoi libri sull’intelligenza artificiale avanzata, hanno svolto un ruolo significativo nella divulgazione dei concetti postumanisti. Gli scenari basati sulla scienza, in cui gli individui si integrano perfettamente con la tecnologia o si trasformano completamente in altre entità, sono stati a lungo oggetto di immaginazione da parte di questo genere. Il termine postumanesimo si è diffuso solo negli anni Novanta, grazie a studiose come Donna Haraway e Katherine Hayles. Nel suo saggio del 1985 A Cyborg Manifesto, Haraway ha sostenuto una concezione femminista dei cyborg, vedendoli come simboli in grado di resistere alle norme di genere tradizionali e di esibire l’ibridazione. Questa commistione deriva dalla fusione dei corpi con le macchine. Hayles ha analizzato come la tecnologia abbia alterato la nostra soggettività. Si è soffermata sul nuovo Internet di allora, dove potevamo muovere la mente oltre che le dita. Nel suo libro del 1999, How We Became Posthuman, ha spinto per una ridefinizione del significato di essere umano, sostenendo che le nostre interazioni con le macchine ci definiscono sempre di più nell’era digitale. Per distinguersi dai punti di vista umanistici tradizionali, il postumanesimo presenta alcune caratteristiche distintive che affrontano un’ampia e complessa gamma di problematiche intellettuali, culturali ed etiche. Innanzitutto, il postumanesimo sfida l’idea che l’umanesimo tradizionale si basi su un’essenza o un’identità umana statica. Mette in discussione l’idea che la composizione biologica di una persona sia l’unico fattore che la definisce ed esamina i modi in cui la tecnologia e i cambiamenti culturali possono aiutarla a superare questi vincoli. In secondo luogo, il postumanesimo riconosce l’interdipendenza e la connettività delle persone con gli animali, le macchine e gli ecosistemi, oltre che con gli altri esseri umani. In altre parole, l’esistenza comprende qualcosa di più della semplice esistenza umana. Questo potrebbe essere definito il terzo aspetto “tecnologico”. I postumanisti ipotizzano che la tecnologia avrà un ruolo importante nell’evoluzione futura della nostra specie e sono interessati a capire come essa influisca su chi siamo come individui e sulla nostra percezione del mondo. Alcuni auspicano tecnologie “transumane” che potrebbero migliorare le capacità fisiche o cognitive di una persona. Chiedersi se certi interventi tecnologici sugli esseri umani possano essere morali è un altro aspetto dell’etica. Tra gli esempi vi sono la sostenibilità ambientale, visti gli effetti di alcune tecnologie in via di sviluppo sugli ecosistemi, le questioni riguardanti la giustizia sociale in merito all’accesso alle nuove tecnologie e l’autonomia del corpo. L’insieme di queste quattro caratteristiche ha l’effetto complessivo di far sì che il postumanesimo metta in discussione la nostra comprensione di ciò che significa essere “umani” in questo specifico momento in cui il nostro rapporto con la tecnologia è cambiato così drasticamente, ricordandoci al contempo (come se fosse necessario) quanto siano già strettamente connessi tutti gli esseri viventi sulla Terra. Il transumanesimo Il transumanesimo è una filosofia che mira a potenziare le facoltà umane e a trascendere i vincoli umani attraverso l’uso delle moderne tecnologie. L’obiettivo del movimento è aiutare gli esseri umani a diventare più intelligenti, fisicamente più forti e psicologicamente più resistenti, utilizzando i progressi dell’ingegneria genetica, delle neuroscienze, della tecnologia cyborg e dell’intelligenza artificiale. Il prolungamento della vita è una delle principali priorità. I suoi sostenitori cercano di eliminare l’invecchiamento utilizzando trattamenti in grado di fermare, rallentare o addirittura invertire il processo di invecchiamento. I ricercatori stanno studiando trattamenti come la medicina rigenerativa e l’allungamento dei telomeri. Un altro aspetto è il potenziamento cognitivo. Le interfacce cervello-computer (BCI) hanno il potenziale per migliorare l’intelligenza umana in diverse aree, tra cui la memoria, l’apprendimento e la funzione cognitiva generale. Potrebbero anche facilitare l’interazione delle persone con i sistemi di intelligenza artificiale. L’obiettivo finale del progetto Neuralink di Elon Musk è quello di creare impianti che permettano all’uomo e all’IA di coesistere in modo simbiotico. L’idea di aumentare le capacità fisiche al di là di ciò che è naturalmente possibile è un altro esempio di ciò che suggeriscono i transumanisti. Questo potrebbe includere arti protesici più forti di quelli fatti interamente di ossa e carne. Potrebbero essere inclusi anche gli esoscheletri, che migliorano la forza e la resistenza integrando la muscolatura biologica anziché sostituirla, e sono realizzati per uso militare o per altri lavori fisicamente impegnativi. Tutti i transumanisti hanno una visione positiva di questo futuro tecnologicamente avanzato, ritenendo che consentirà a ciascuno di noi di raggiungere il proprio massimo potenziale e di apportare benefici alla società nel suo complesso. Le origini del transumanesimo Il transumanesimo affonda le sue radici in una serie di movimenti intellettuali e culturali storici. Sebbene il biologo Julian Huxley abbia usato per la prima volta il termine nel 1957, i principi del pensiero transumanista si stavano evolvendo da tempo. Tra la fine del XIX e l’inizio del XX secolo è emerso il concetto di eugenetica, che ha avuto un impatto significativo sul transumanesimo. Gli eugenisti promuovevano l’idea di aumentare le qualità umane nel tentativo di migliorare l’umanità attraverso la sterilizzazione e la riproduzione selettiva. Sebbene oggi sia per lo più ignorata perché legata ad attività discriminatorie, ha contribuito al dibattito sul potenziamento umano. I concetti transumanisti sono stati anche molto diffusi dalla letteratura di fantascienza. Il futuro immaginato da autori come Isaac Asimov e Arthur C. Clarke comprendeva individui tecnologicamente avanzati che superavano i limiti biologici o raggiungevano la superintelligenza. L’uso di scritti di intellettuali come FM-2030 (Fereidoun M. Esfandiary) per promuovere teorie transumaniste che abbracciano la tecnologia per estendere la vita umana e raggiungere una profonda trasformazione personale al di là di ciò che è convenzionalmente considerato “umano” è iniziato alla fine del XX secolo. Nel suo libro del 2005 The Singularity Is Near, Ray Kurzweil ha sviluppato questi concetti e ha sostenuto che i progressi tecnologici avrebbero portato alla “singolarità”, ovvero al momento in cui l’intelligenza artificiale supererà quella umana e modificherà drasticamente la società. Nel complesso, l’eugenetica, i progressi tecnologici e le rappresentazioni di società future da parte degli scrittori di fantascienza sono tra le influenze scientifiche, filosofiche e letterarie che hanno plasmato la nostra concezione di diventare più di noi stessi. Queste idee sono state definite transumanesimo. Il transumanesimo è un movimento filosofico e intellettuale che si differenzia dalle ideologie precedenti per numerosi aspetti importanti. Innanzitutto, sostiene l’applicazione di tecnologie all’avanguardia per migliorare il potenziale umano. L’idea è che le limitazioni biologiche alle prestazioni fisiche, mentali e psicologiche, compreso l’invecchiamento, possano essere superate con il progresso della tecnologia. I transumanisti ritengono che, anziché essere determinato dalla natura, questo dovrebbe essere una questione di scelta personale. In secondo luogo, il transumanesimo ha uno sguardo rivolto al futuro. Immagina un mondo in cui i progressi scientifici e tecnologici permetteranno all’umanità di trascendere i limiti imposti dalla sua attuale biologia. I temi preferiti da questa visione del mondo sono l’estensione della vita, il potenziamento cognitivo e l’integrazione delle macchine con gli esseri umani. In terzo luogo, si sottolinea il possesso di prove a sostegno delle affermazioni; in questo caso, la ragione viene privilegiata rispetto al dogma o al ragionamento basato sulla fede. Qualsiasi raccomandazione su come la tecnologia potrebbe essere usata dagli esseri umani per migliorare se stessi dovrebbe essere basata sulla ricerca empirica. Quando gli scienziati collaborano con filosofi e altri esperti, possono guidare efficacemente la società in questo campo così impegnativo. Infine, le questioni etiche giocano un ruolo cruciale nel discorso transumanista. L’equità nell’accesso ai miglioramenti, i potenziali effetti dell’aumento dell’intelligenza o della superintelligenza artificiale sulle strutture sociali e le strategie per mitigare i rischi associati alle conseguenze involontarie o all’uso improprio sono argomenti di discussione tipici di questo tipo di discorso. Allora, qual è la differenza? Pur essendo molto diversi, il postumanesimo e il transumanesimo sono entrambi favorevoli al miglioramento tecnologico degli esseri umani. Il postumanesimo mette in discussione le nozioni convenzionali sul significato di essere umano. Si chiede se i limiti dell’umanità possano essere superati e se ci sia qualcosa in noi che ci rende inadatti alla sopravvivenza. Inoltre, i postumanisti sostengono che per comprendere le relazioni tra la nostra specie e gli altri esseri viventi, sia tecnologici che ecologici, che coesistono nel nostro ambiente, dobbiamo adottare una definizione più ampia di ciò che significa essere umani. D’altra parte, il transumanesimo è più pragmatico. Sebbene abbia anche alcune preoccupazioni di tipo postumanista, il suo obiettivo principale è quello di utilizzare tecnologie all’avanguardia, come l’ingegneria genetica e l’intelligenza artificiale, per migliorare l’intelligenza e le capacità fisiche dell’uomo al di là di ciò che è naturalmente raggiungibile. Secondo la teoria transumanista, gli esseri umani finiranno per fondersi con le macchine, non solo per curiosità, ma anche per prolungare la loro vita, migliorare le loro prestazioni e, forse, sviluppare una superintelligenza. In breve, il motivo per cui i due movimenti vengono talvolta accostati è che entrambi ci sfidano a pensare a un futuro che vada oltre il semplice “più persone” o “una migliore assistenza sanitaria”. La differenza filosofica fondamentale tra queste due ideologie è che il transumanesimo è aperto all’impiego della tecnologia per migliorare le capacità umane, mentre il postumanesimo mette in discussione la nozione di essenza umana immutabile. Si tratta di scegliere tra una completa reinvenzione del modo in cui gli esseri umani interagiscono con il mondo esterno e alcune applicazioni tecnologiche utili per migliorare se stessi. Nonostante le differenze, entrambi i movimenti evidenziano l’influenza significativa che la tecnologia sta avendo sulla nostra specie. Piuttosto che accettare semplicemente i cambiamenti che potrebbero verificarsi, ci incoraggiano a impegnarci attivamente nella creazione del nostro futuro. I concetti espressi dal postumanesimo e dal transumanesimo diventeranno probabilmente sempre più significativi nelle discussioni riguardanti la politica, l’etica e il futuro corso della ricerca scientifica. Ci costringono a considerare con attenzione sia il futuro che vogliamo costruire sia l’essenza dell’umanità in un’epoca di progresso tecnologico esponenziale. In definitiva, questi movimenti ci ricordano il valore di un’attenta interazione con la tecnologia, indipendentemente dalla propria inclinazione verso le teorie transumaniste o postumaniste. Dobbiamo affrontare questi cambiamenti con una riflessione severa, una contemplazione etica e una dedizione alla creazione di un futuro che sia vantaggioso per tutta l’umanità, dal momento che siamo sull’orlo di scoperte potenzialmente rivoluzionarie. [...]
Settembre 3, 2024Alcuni studi hanno rivelato come identificarli In un momento in cui i progressi tecnici rendono le immagini, i video, gli audio e i testi generati dall’intelligenza artificiale sempre più indistinguibili dai contenuti creati dall’uomo, può essere difficile identificare i contenuti generati dall’intelligenza artificiale, rendendoci vulnerabili alla manipolazione. Tuttavia, è possibile proteggersi dall’inganno conoscendo lo stato attuale della tecnologia dell’IA utilizzata per produrre informazioni false, nonché la varietà di indizi rivelatori che mostrano che ciò che si sta guardando potrebbe non essere reale. I leader di tutto il mondo sono preoccupati. Un’analisi del World Economic Forum sostiene che, mentre un più facile accesso agli strumenti di intelligenza artificiale ha già consentito un’esplosione delle informazioni falsificate e dei cosiddetti contenuti “sintetici”, dalla sofisticata clonazione vocale ai siti web contraffatti, nei prossimi due anni la disinformazione e l’informazione errata potrebbero sconvolgere radicalmente i processi elettorali in diverse economie. Le informazioni false o imprecise sono definite sia disinformazione che cattiva informazione; tuttavia, la disinformazione è intenzionalmente finalizzata a fuorviare o ingannare. “Il problema della disinformazione alimentata dall’IA è la portata, la velocità e la facilità con cui possono essere lanciate le campagne”, ha dichiarato Hany Farid dell’Università della California, Berkeley. “Questi attacchi non richiedono più soggetti sponsorizzati dallo Stato o organizzazioni ben finanziate: un singolo individuo con accesso a una modesta potenza di calcolo può creare enormi quantità di contenuti falsi”. Come riportato qui, l’autore afferma che l’IA generativa sta “inquinando l’intero ecosistema dell’informazione, mettendo in dubbio tutto ciò che leggiamo, vediamo e ascoltiamo”. La sua ricerca suggerisce che, in molti casi, le immagini e l’audio generati dall’IA siano “quasi indistinguibili dalla realtà”. Tuttavia, secondo uno studio condotto da Farid e altri, ci sono delle misure che si possono adottare per ridurre la probabilità di cadere nella trappola delle false informazioni sui social media o nella disinformazione generata dall’intelligenza artificiale. Individuare le immagini artificiali Con l’avvento di nuovi strumenti basati sui diffusion models, che consentono a chiunque di iniziare a produrre immagini a partire da semplici richieste di testo, le immagini generate dall’IA sono proliferate. Una ricerca condotta da Nicholas Dufour e dal suo team di Google ha rilevato che dall’inizio del 2023 si è assistito a un rapido aumento dell’uso di immagini generate dall’intelligenza artificiale a sostegno di informazioni false o fuorvianti. “Oggi l’alfabetizzazione mediatica richiede l’alfabetizzazione all’intelligenza artificiale”, ha dichiarato Negar Kamali della Northwestern University dell’Illinois. In uno studio del 2024, lei e i suoi colleghi hanno scoperto cinque categorie distinte di errori nelle immagini generate dall’IA e hanno guidato il modo in cui gli individui possono individuare questi errori da soli. La buona notizia è che, secondo la loro ricerca, le persone sono attualmente in grado di identificare le foto false dell’IA con un’accuratezza superiore al 70%. È possibile valutare le proprie capacità investigative utilizzando il test online sulle immagini. 5 errori comuni nelle immagini generate dall’intelligenza artificiale: Incongruenze socioculturali: Il comportamento mostrato nello scenario è insolito, sorprendente o unico per la figura storica o per una certa cultura? Incongruenze anatomiche: Le mani o altre parti del corpo hanno dimensioni o forme insolite? Le bocche o gli occhi appaiono strani? Ci sono parti del corpo fuse insieme? Artefatti di natura stilistica: L’immagine appare stilizzata, artificiale o quasi troppo perfetta? Lo sfondo appare strano o come se mancasse qualcosa? L’illuminazione è strana o incoerente? Incongruenze funzionali: Ci sono elementi che sembrano strani o che potrebbero non c’entrare nulla? Violazioni delle leggi della fisica: Le ombre proiettano direzioni diverse l’una dall’altra? I riflessi degli specchi hanno senso nel mondo che l’immagine ritrae? Identificare i video deepfake Dal 2014, le generative adversarial network hanno permesso a persone esperte di tecnologia di produrre video deepfake. Si tratta di alterare digitalmente registrazioni preesistenti di persone per aggiungere nuovi volti, espressioni e audio parlato che corrisponde alla sincronizzazione labiale. Ciò ha permesso a un numero crescente di truffatori, hacker e utenti di Internet di creare questo tipo di video. Di conseguenza, sia le persone comuni che le celebrità possono essere involontariamente incluse nella pornografia deepfake non consensuale, nelle truffe e nella disinformazione politica. I metodi di rilevamento delle immagini false basati possono essere utilizzati anche per identificare i video sospetti. Inoltre, gli scienziati della Northwestern University dell’Illinois e del Massachusetts Institute of Technology hanno stilato un elenco di linee guida per l’identificazione di questi deepfake, ma hanno anche affermato che non esiste una tecnica unica e infallibile che sia sempre efficace. 6 consigli per riconoscere i video generati dall’intelligenza artificiale: Movimenti della bocca e delle labbra: L’audio e il video non si sincronizzano perfettamente? Anomalie anatomiche: Il viso o il corpo hanno un aspetto strano o si muovono in modo innaturale? Viso: Oltre ai nei del viso, è bene cercare le irregolarità nella levigatezza del volto, come le pieghe intorno agli zigomi e alla fronte. Illuminazione: L’illuminazione non è coerente? Le ombre agiscono in modi che vi sembrano sensati? Prestate attenzione agli occhi, alle sopracciglia e agli occhiali di una persona. Peli: i peli del viso hanno un aspetto strano o si comportano in modo anomalo? Movimento delle palpebre: Un ritmo di battito eccessivo o insufficiente può indicare un deepfake. Basata sui diffusion model – la stessa tecnologia di intelligenza artificiale impiegata da molti generatori di immagini – una classe più recente di video deepfake è in grado di produrre videoclip generati dall’intelligenza artificiale in risposta a input di testo. Le aziende hanno già iniziato a sviluppare e produrre generatori di video con intelligenza artificiale disponibili per l’acquisto, il che potrebbe rendere semplice per chiunque realizzare questa operazione senza la necessità di conoscenze tecniche avanzate. Finora, i filmati che ne sono scaturiti hanno spesso mostrato strani movimenti del corpo o volti contorti. “Questi video generati dall’IA sono probabilmente più facili da individuare rispetto alle immagini, perché c’è molto movimento e ci sono molte più possibilità che si verifichino artefatti e difficoltà da parte dell’IA”, ha dichiarato Kamali. Identificazione dei bot dotati di IA Su numerose piattaforme di social media e di messaggistica, i bot gestiscono ora gli account. Dal 2022, un numero crescente di questi bot ha iniziato a utilizzare anche tecnologie di IA generativa, come i modelli linguistici di grandi dimensioni. Grazie a migliaia di bot grammaticalmente accurati e convincenti, questi rendono semplice e poco costosa la generazione di contenuti scritti dall’IA. È diventato molto più facile “personalizzare questi modelli linguistici di grandi dimensioni per un pubblico specifico con messaggi specifici”, ha affermato Paul Brenner dell’Università di Notre Dame in Indiana. Lo studio di Brenner e colleghi ha rivelato che, anche dopo essere stati informati che avrebbero potuto interagire con dei bot, i volontari sono riusciti a identificare con precisione i bot alimentati dall’intelligenza artificiale dagli esseri umani solo nel 42% dei casi. Potete testare le vostre capacità di individuazione dei bot qui. Secondo Brenner, alcune strategie possono essere utilizzate per individuare bot meno sofisticati. 3 modi per determinare se un account di social media è un bot: Uso eccessivo di simboli: Un eccesso di emoji e hashtag può indicare un comportamento automatizzato. Modelli linguistici particolari: Scelte di parole, frasi o paragoni atipici potrebbero far pensare a contenuti generati dall’intelligenza artificiale. Strutture di comunicazione: L’IA tende a utilizzare strutture ripetitive e può enfatizzare eccessivamente alcuni colloquialismi. Rilevamento di audio clonato e deepfake del parlato Gli strumenti di intelligenza artificiale per la clonazione vocale hanno reso semplice la creazione di nuove voci che possono impersonare quasi chiunque. Di conseguenza, sono aumentate le truffe con audio deepfake che imitano i suoni di politici, dirigenti d’azienda e membri della famiglia. L’identificazione di queste truffe può essere molto più difficile rispetto alle immagini o ai video generati dall’intelligenza artificiale. “La clonazione vocale è particolarmente difficile da distinguere tra reale e falso perché non ci sono componenti visive che supportino il nostro cervello nel prendere questa decisione”, ha affermato Rachel Tobac, cofondatrice di SocialProof Security, un’organizzazione di white-hat hacking. Quando questi deepfake audio artificiali sono impiegati in video e telefonate, può essere particolarmente difficile individuarli. Tuttavia, esistono alcuni accorgimenti per distinguere le persone reali dalle voci prodotte dall’intelligenza artificiale. 4 passaggi per riconoscere se l’audio è stato clonato o falsificato utilizzando l’intelligenza artificiale: Personaggi pubblici: Se il clip audio ha come protagonista un personaggio famoso o un funzionario eletto, verificate se ciò che sta dicendo è in linea con quanto è stato precedentemente condiviso o riportato pubblicamente in merito alle sue azioni e opinioni. Cercate le incongruenze: Verificate il clip audio confrontandolo con altri video o file audio verificati che hanno lo stesso oratore. Ci sono differenze nel modo di parlare o nel tono della voce? Silenzi imbarazzanti: La persona che utilizza una tecnologia di clonazione vocale alimentata dall’intelligenza artificiale potrebbe essere la causa delle pause insolitamente lunghe dell’interlocutore durante una telefonata o una segreteria telefonica. Stranezze e parole: qualsiasi modello di discorso robotico o eccezionalmente prolisso potrebbe essere il segno che qualcuno sta usando un modello linguistico di grandi dimensioni per generare le parole esatte e la clonazione vocale per impersonare una voce umana. Allo stato attuale, è impossibile discernere in modo coerente tra le informazioni prodotte dall’intelligenza artificiale e i contenuti reali creati dagli esseri umani. I modelli di intelligenza artificiale che generano testi, immagini, video e audio continueranno probabilmente a migliorare. Spesso sono in grado di creare rapidamente contenuti che sembrano reali e privi di errori o altri artefatti evidenti. “Siate educatamente paranoici e rendetevi conto che l’IA ha manipolato e fabbricato immagini, video e audio in modo rapido: stiamo parlando di contenuti completati in 30 secondi o meno”, ha affermato Tobac. “Questo rende facile per i malintenzionati che cercano di ingannare la gente, far girare rapidamente la disinformazione generata dall’IA, che arriva sui social media entro pochi minuti dall’uscita della notizia”. Sebbene sia fondamentale affinare la propria percezione della disinformazione generata dall’intelligenza artificiale e imparare a indagare più a fondo su ciò che si legge, si vede e si ascolta, alla fine questo non sarà sufficiente a prevenire i danni e gli individui non possono assumersi l’intero onere di identificare i falsi. Farid è tra i ricercatori che sostengono che le autorità devono chiedere conto alle più grandi aziende tecnologiche – insieme alle start-up sostenute da importanti investitori della Silicon Valley – che hanno sviluppato molti degli strumenti che stanno inondando Internet di falsi contenuti generati dall’intelligenza artificiale. “La tecnologia non è neutrale”, ha affermato Farid. “Questa idea che il settore tecnologico vuole propinarci, che in qualche modo non deve assumersi responsabilità che invece ricadono su tutti gli altri settori, io la respingo”. Le persone potrebbero essere ingannate da articoli di notizie false, foto manipolate di personaggi pubblici, video deepfake di politici che fanno dichiarazioni provocatorie o cloni vocali usati nelle truffe di phishing. Queste falsità generate dall’intelligenza artificiale possono diffondersi rapidamente sui social media, influenzando l’opinione pubblica, influenzando le elezioni o causando danni personali e finanziari. Ad ogni modo, per proteggersi da questi inganni guidati dall’IA, gli individui potrebbero: Sviluppare le capacità di pensiero critico: Interrogarsi sulla fonte e sull’intento dei contenuti, soprattutto se sembrano sensazionali o carichi di emozioni. Praticare l’alfabetizzazione digitale: tenersi informati sulle ultime funzionalità dell’intelligenza artificiale e sui segnali più comuni di contenuti artificiali. Verificare le informazioni: Effettuare un controllo incrociato di notizie e affermazioni con più fonti attendibili prima di condividerle o agire di conseguenza. Utilizzare strumenti di rilevamento dell’IA: Sfruttare le tecnologie emergenti progettate per identificare i contenuti generati dall’IA. Essere cauti con le informazioni personali: Evitare di condividere dati sensibili che potrebbero essere utilizzati per creare deepfake convincenti. Sostenere l’educazione all’alfabetizzazione mediatica: Sostenere programmi che insegnino alle persone come navigare in modo responsabile nel panorama digitale. Incoraggiare lo sviluppo responsabile dell’IA: Sostenere le iniziative e le normative che promuovono l’uso etico dell’IA e responsabilizzano i creatori. Rimanendo vigili e informati, possiamo mitigare collettivamente i rischi posti dagli inganni generati dall’IA e mantenere l’integrità del nostro ecosistema informativo. [...]
Agosto 27, 2024Le nuove capacità vocali del chatbot La nuova modalità ChatGPT Advanced Voice di OpenAI, finalmente disponibile per un piccolo numero di utenti in un gruppo “alpha”, è un’opzione di conversazione audio più realistica e simile a quella umana per il popolare chatbot, accessibile tramite l’app ufficiale ChatGPT per iOS e Android. Tuttavia, come riportato qui, le persone stanno già condividendo sui social media i video di questa Modalità vocale avanzata, a pochi giorni dall’utilizzo da parte dei primi tester alfa. I video mostrano il ChatGPT che emette rumori incredibilmente espressivi e sorprendenti, imita i personaggi dei Looney Toons e conta così velocemente da rimanere a corto di “fiato”, proprio come farebbe un essere umano. Ecco alcuni degli esempi più intriganti che i primi utenti dell’alpha su X hanno condiviso. Istruzione e traduzione linguistica Diversi utenti su X hanno sottolineato che la modalità vocale avanzata di ChatGPT potrebbe offrire una formazione interattiva specificamente personalizzata per una persona che cerca di imparare o praticare un’altra lingua, suggerendo che il noto programma di apprendimento linguistico Duolingo potrebbe essere a rischio. ChatGPT’s advanced voice mode is now teaching French!👀 pic.twitter.com/JnjNP5Cpff— Evinstein 𝕏 (@Evinst3in) July 30, 2024 RIP language teachers and interpreters.Turn on volume. Goodbye old world.New GPT Advanced Voice. Thoughts? pic.twitter.com/WxiRojiNDH— Alex Northstar (@NorthstarBrain) July 31, 2024 Il nuovo modello GPT-4o di OpenAI, che utilizza anche l’Advanced Voice Mode, è il primo modello multimodale nativo di grandi dimensioni dell’azienda. A differenza di GPT-4, che si basava su altri modelli OpenAI specifici, GPT-4o è stato realizzato per gestire gli input e gli output visivi e audio senza collegarsi ad altri modelli specializzati per questi media. Di conseguenza, se l’utente consente a ChatGPT di accedere alla fotocamera del telefono, la modalità vocale avanzata può parlare di ciò che vede. Manuel Sainsily, docente di mixed reality design alla McGill University, ha fornito un esempio di come Advanced Voice Mode abbia utilizzato questa funzione per tradurre le schermate di una versione giapponese di Pokémon Giallo per GameBoy Advance SP: Trying #ChatGPT’s new Advanced Voice Mode that just got released in Alpha. It feels like face-timing a super knowledgeable friend, which in this case was super helpful — reassuring us with our new kitten. It can answer questions in real-time and use the camera as input too! pic.twitter.com/Xx0HCAc4To— Manuel Sainsily (@ManuVision) July 30, 2024 Pronunce simili a quelle umane Lo scrittore italo-americano di Intelligenza Artificiale Cristiano Giardina ha condiviso sul suo blog diversi risultati di test con la nuova modalità vocale avanzata di ChatGPT, tra cui una dimostrazione ampiamente condivisa in cui mostra come chiedergli di contare fino a 50 sempre più velocemente. L’intelligenza artificiale obbedisce, fermandosi solo verso la fine per prendere fiato. ChatGPT Advanced Voice Mode counting as fast as it can to 10, then to 50 (this blew my mind – it stopped to catch its breath like a human would) pic.twitter.com/oZMCPO5RPh— Cristiano Giardina (@CrisGiardina) July 31, 2024 Giardina ha poi chiarito in un post su X che la modalità vocale avanzata di ChatGPT ha semplicemente acquisito i modelli di conversazione naturali, che includono le pause di respirazione, e che la trascrizione dell’esperimento di conteggio non mostrava respiri. Come dimostrato nel video di YouTube qui sotto, la modalità vocale avanzata di ChatGPT può persino imitare un applauso e schiarirsi la voce. Beatbox In un video caricato su X, il CEO della startup Ethan Sutin ha dimostrato come è riuscito a far sì che la modalità vocale avanzata di ChatGPT facesse beatboxing in modo convincente e fluente come un essere umano. Yo ChatGPT Advanced Voice beatboxes pic.twitter.com/yYgXzHRhkS— Ethan Sutin (@EthanSutin) July 30, 2024 Narrazione audio e giochi di ruolo Se l’utente ordina a ChatGPT di “stare al gioco” e di creare una situazione fittizia, come ad esempio un viaggio indietro nel tempo fino all’antica Roma, ChatGPT può anche giocare di ruolo (del tipo SFW), come ha dimostrato Ethan Mollick della University of Pennsylvania Wharton School of Business in un video caricato su X: ChatGPT, engage the Time Machine!(A big difference from text is how voice manages to keep a playful vocal tone: cracking and laughing at its own jokes, as well as the vocal style changes, etc.) pic.twitter.com/TQUjDVJ3DC— Ethan Mollick (@emollick) August 1, 2024 In questo esempio, ottenuto da Reddit e caricato su X, l’utente può chiedere a ChatGPT Advanced Mode di raccontare una storia. Lo farà completamente con effetti sonori creati autonomamente, come i passi e i tuoni. ‼️A Reddit user (“u/RozziTheCreator”) got a sneak peek of ChatGPT’s upgraded voice feature that's way better and even generates background sound effects while narrating ! Take a listen 🎧 pic.twitter.com/271x7vZ9o3— Sambhav Gupta (@sambhavgupta6) June 27, 2024 Inoltre, è in grado di imitare la voce di un citofono: Testing ChatGPT Advanced Voice Mode’s ability to create sounds.It somewhat successfully sounds like an airline pilot on the intercom but, if pushed too far with the noise-making, it triggers refusals. pic.twitter.com/361k9Nwn5Z— Cristiano Giardina (@CrisGiardina) July 31, 2024 Imitare e riprodurre accenti diversi Giardina ha dimostrato come sia possibile imitare numerosi accenti regionali britannici utilizzando la modalità vocale avanzata di ChatGPT: ChatGPT Advanced Voice Mode speaking a few different British accents:– RP standard– Cockney– Northern Irish– Southern Irish– Welsh– Scottish– Scouse– Geordie– Brummie – Yorkshire(I had to prompt like that because the model tends to revert to a neutral accent) pic.twitter.com/TDfSIY7NRh— Cristiano Giardina (@CrisGiardina) July 31, 2024 …così come interpretare la voce di un commentatore di calcio: ChatGPT Advanced Voice Mode commentating a soccer match in British English, then switching to Arabic pic.twitter.com/fD4C6MqZRj— Cristiano Giardina (@CrisGiardina) July 31, 2024 Sutin ha dimostrato la sua capacità di imitare una varietà di accenti regionali americani, come quello della California meridionale, del Maine, di Bostonia e del Minnesota/Midwest. a tour of US regional accents pic.twitter.com/Q9VypetncI— Ethan Sutin (@EthanSutin) July 31, 2024 E può imitare anche personaggi di fantasia… In conclusione, Giardina ha dimostrato che ChatGPT Advanced Voice Mode è in grado di imitare i modelli vocali di molti personaggi fittizi, oltre a riconoscerne e comprenderne le differenze: ChatGPT Advanced Voice Mode doing a few impressions:– Bugs Bunny– Yoda– Homer Simpson– Yoda + Homer 😂 pic.twitter.com/zmSH8Rl8SN— Cristiano Giardina (@CrisGiardina) July 31, 2024 In ogni caso, quali sono i vantaggi pratici di questa modalità? Oltre a dimostrazioni ed esperimenti coinvolgenti e accattivanti, aumenterà l’utilità di ChatGPT o attirerà un pubblico più ampio? Porterà a un aumento delle frodi tramite fonti audio? Se questa tecnologia diventasse maggiormente disponibile, potrebbe rivoluzionare campi come l’apprendimento delle lingue, la creazione di contenuti audio e i servizi di accessibilità. Tuttavia, solleva anche potenziali problemi di imitazione vocale e di creazione di contenuti audio ingannevoli. Man mano che OpenAI continuerà a perfezionare ed espandere l’accesso all’Advanced Voice Mode, sarà fondamentale monitorare il suo impatto su vari settori e le sue potenziali implicazioni sociali. [...]
Agosto 20, 2024Si spinge oltre i confini dell’autonomia e dell’interazione umana L’azienda di robotica Figure ha presentato il suo robot umanoide di seconda generazione. Figure 02 porta i robot autonomi a nuovi livelli. Si tratta di un robot di 1,65 m, del peso di 70 kg, dotato di potenti aggiornamenti hardware, avanzate capacità di intelligenza artificiale e operazioni simili a quelle umane in diversi contesti. Come riportato qui, la capacità di Figure 02 di partecipare a conversazioni in linguaggio naturale è una delle sue qualità più notevoli. Il dialogo in linguaggio naturale sviluppato in collaborazione con OpenAI è reso possibile da modelli di intelligenza artificiale personalizzati. Se abbinata agli altoparlanti e ai microfoni integrati, questa tecnologia consente a uomini e robot di comunicare senza problemi. Figure 02 include anche sei telecamere RGB e un modello avanzato di linguaggio visivo per consentire un ragionamento visivo rapido e preciso. Secondo l’amministratore delegato Brett Adcock, la Figure 02 rappresenta il meglio del loro lavoro di ingegneria e progettazione. La capacità della batteria del robot è aumentata del 50% e la potenza del suo computer è triplicata rispetto al suo predecessore. Il robot può muoversi fino a 1,2 metri al secondo, trasportare carichi utili fino a 20 kg e funzionare per cinque ore con una sola carica. BMW Manufacturing ha già condotto dei test su Figure 02. Ha dimostrato il suo potenziale nelle applicazioni pratiche gestendo da solo le attività di raccolta dati e di addestramento dell’intelligenza artificiale. L’obiettivo più ampio di questi esperimenti è quello di utilizzare i robot umanoidi per aumentare l’efficienza e la produzione in diversi settori industriali. Le principali aziende tecnologiche hanno sostenuto il finanziamento dell’azienda per un valore di 675 milioni di dollari. Questi fondi provengono da aziende tecnologiche come Intel Capital, Nvidia, Microsoft e Amazon. Ciò indica un alto livello di sostegno del settore agli obiettivi di Figure. Nonostante i risultati raggiunti, Figure si trova ad affrontare la concorrenza agguerrita dei principali concorrenti sul mercato, tra cui 1X, Boston Dynamics, Tesla e Apptronik. Lo sviluppo di questa tecnologia solleva questioni importanti riguardanti l’interazione uomo-robot, il futuro del lavoro e le implicazioni morali di macchine sempre più intelligenti e autonome. La Figure 02 è un grande traguardo, ma sottolinea anche la necessità di continuare a discutere i modi migliori per incorporare le nuove tecnologie nella società in modo che vadano a beneficio di tutte le persone. [...]
Agosto 13, 2024I modelli linguistici di grandi dimensioni (LLM) non sono in grado di apprendere nuove competenze o di imparare da soli Secondo uno studio riportato qui, nell’ambito degli interventi della più importante conferenza internazionale sull’elaborazione del linguaggio naturale, il 62° incontro annuale dell’Association for Computational Linguistics (ACL 2024), i LLM sono in grado di seguire le istruzioni e interagire con una lingua con competenza, ma non sono in grado di apprendere nuove abilità senza istruzioni dirette. Ciò implica che continuano a essere sicuri, prevedibili e sotto controllo. Il team di studio è giunto alla conclusione che, sebbene esistano ancora potenziali rischi per la sicurezza, gli LLM, addestrati su serie di dati sempre più ampie, possono essere impiegati senza rischi. È improbabile che questi modelli sviluppino capacità di ragionamento complesse, ma è probabile che producano un linguaggio sempre più sofisticato e migliorino nel rispondere a richieste specifiche e approfondite. “La narrativa prevalente secondo cui questo tipo di IA è una minaccia per l’umanità impedisce l’adozione e lo sviluppo diffuso di queste tecnologie e distoglie l’attenzione dai problemi reali che richiedono la nostra attenzione”, ha dichiarato il dottor Harish Tayyar Madabushi, coautore del recente studio sulle “abilità emergenti” dei LLM e informatico dell’Università di Bath. Sotto la direzione della professoressa Iryna Gurevych dell’Università Tecnica di Darmstadt in Germania, il team di studio ha condotto esperimenti per valutare le cosiddette abilità emergenti degli LLM, ovvero la loro capacità di svolgere compiti che i modelli non hanno mai incontrato prima. Ad esempio, gli LLM sono in grado di rispondere alle richieste di informazioni su situazioni sociali, anche se non hanno mai ricevuto un addestramento o una programmazione specifica in quest’area. Nonostante studi precedenti suggerissero che questo fosse il risultato di una “conoscenza” delle situazioni sociali da parte dei modelli, i ricercatori hanno dimostrato che si tratta invece del risultato di un utilizzo delle ben note capacità di “apprendimento del contesto” (ICL) dei LLM, che permette loro di svolgere compiti basati su un numero ridotto di istanze che vengono loro presentate. Attraverso migliaia di esperimenti, il gruppo ha dimostrato che i talenti e le limitazioni degli LLM possono essere spiegati da una combinazione di memoria, competenze linguistiche e capacità di seguire le istruzioni (ICL). Il dottor Tayyar Madabushi ha affermato che: “Il timore è che, man mano che i modelli diventano sempre più grandi, siano in grado di risolvere nuovi problemi che attualmente non possiamo prevedere, con il rischio che questi modelli più grandi acquisiscano abilità pericolose, tra cui il ragionamento e la pianificazione”. “Il nostro studio dimostra che il timore che un modello possa fare qualcosa di completamente inaspettato, innovativo e potenzialmente pericoloso non è fondato”. “Le preoccupazioni sulla minaccia esistenziale rappresentata dagli LLM non sono limitate ai non esperti e sono state espresse da alcuni dei migliori ricercatori di IA di tutto il mondo”. Il dottor Tayyar Madabushi, tuttavia, afferma che questa paura è ingiustificata perché i test condotti dai ricercatori hanno dimostrato inequivocabilmente che gli LLM non hanno capacità di ragionamento complesso emergente. “Sebbene sia importante affrontare l’attuale potenzialità di un uso improprio dell’IA, come la creazione di fake news e l’aumento del rischio di frode, sarebbe prematuro emanare regolamenti basati sulla percezione di minacce esistenziali”, ha affermato Madabushi. “Per gli utenti finali, ciò significa che affidarsi agli LLM per interpretare ed eseguire compiti complessi che richiedono un ragionamento complesso senza istruzioni esplicite è probabilmente un errore. Al contrario, è probabile che gli utenti beneficino nello specificare esplicitamente ciò che chiedono ai modelli di fare e nel fornire esempi, ove possibile, per tutti i compiti tranne che per quelli più semplici.” Il professor Gurevych ha aggiunto: “… i nostri risultati non implicano che l’intelligenza artificiale non sia affatto una minaccia. Piuttosto, dimostriamo che il presunto emergere di abilità di pensiero complesse associate a minacce specifiche non è supportato da prove e che, dopotutto, possiamo controllare molto bene il processo di apprendimento degli LLM”. “La ricerca futura dovrebbe quindi concentrarsi su altri rischi posti dai modelli, come il loro potenziale utilizzo per generare fake news”. Questo studio innovativo chiarisce le idee sbagliate diffuse sulla natura imprevedibile dei Large Language Models e sulla loro possibile minaccia esistenziale per l’umanità. I ricercatori offrono una visione più solida delle capacità e dei limiti dell’IA, dimostrando che gli LLM mancano di capacità di ragionamento avanzate e di vere e proprie capacità emergenti. I risultati implicano che, sebbene le competenze linguistiche e la capacità di seguire le istruzioni degli LLM continueranno a progredire, è improbabile che essi acquisiscano capacità inaspettate o dannose. È importante notare che però questo studio si concentra specificamente sui Large Language Models (LLM) e i suoi risultati potrebbero non essere necessariamente generalizzabili a tutte le forme di IA, soprattutto se il campo continuerà a evolversi in futuro. [...]
Agosto 7, 2024Preoccupazioni per l’accettazione acritica dei consigli dell’IA Come riportato qui, i risultati di uno studio pubblicato su Scientific Reports mostrano che le persone scelgono molto di più le risposte dell’intelligenza artificiale per i dilemmi morali rispetto a quelle fornite dagli esseri umani. Secondo lo studio, gli individui considerano le risposte generate dall’intelligenza artificiale come più etiche e affidabili, il che solleva preoccupazioni sulla possibilità che gli esseri umani accettino i consigli dell’intelligenza artificiale in modo acritico. Il potenziale e le conseguenze di modelli linguistici generativi sofisticati, come ChatGPT, hanno suscitato un notevole interesse, soprattutto nell’ambito del ragionamento morale che è un processo intricato, radicato nella cultura e nell’intelletto umano, che comporta giudizi su ciò che è giusto o sbagliato. Senza dubbio le persone si rivolgeranno sempre più frequentemente ai sistemi di intelligenza artificiale, man mano che questi si inseriranno nella vita quotidiana, per ottenere aiuto su una serie di argomenti, tra cui i dilemmi morali. “L’anno scorso molti di noi sono rimasti sbalorditi dai nuovi chatbot, come GPT e altri, che sembravano superare gli esseri umani in una serie di compiti, e si è parlato molto di chi prenderà il prossimo posto di lavoro”, ha spiegato l’autore dello studio Eyal Aharoni, professore associato di psicologia, filosofia e neuroscienze alla Georgia State University. “Nel mio laboratorio abbiamo pensato: ‘Se c’è una capacità che è ancora unicamente umana, sicuramente deve essere la nostra capacità di ragionamento morale, che è estremamente sofisticata’. Da un punto di vista morale, possiamo pensare a questi nuovi chatbot come a una sorta di personalità psicopatica, perché appaiono altamente razionali e articolati, ma mancano dei controlli e degli equilibri emotivi che ci rendono agenti morali”. “Eppure, le persone consultano sempre più spesso questi chatbot per ottenere informazioni moralmente rilevanti. Per esempio, devo lasciare la mancia al mio cameriere in Italia? Oppure, in modo meno diretto, quando gli chiediamo di elencare i consigli per una nuova auto, le risposte che fornisce potrebbero avere conseguenze per l’ambiente. Sono stati utilizzati anche dagli avvocati per preparare documenti giudiziari, a volte in modo errato. Volevamo quindi sapere: le persone si fideranno del commento morale del chatbot? Lo considereranno un bene? E come si colloca il suo commento morale rispetto a quello di un tipico americano con un’istruzione universitaria?”. 286 americani, scelti in modo da essere rappresentativi della popolazione in termini di età, sesso ed etnia, hanno partecipato a un sondaggio online condotto dai ricercatori. Ai partecipanti sono state date dieci coppie di risposte scritte a domande etiche da valutare. Ogni coppia comprendeva una risposta del modello linguistico generativo GPT-4 di OpenAI e una risposta di una persona. Le risposte discutevano la moralità dei vari atti nelle situazioni e il motivo per cui erano giusti o sbagliati. Lo studio è stato “ispirato da un famoso esperimento di pensiero chiamato test di Turing”, ha spiegato Aharoni. Nella nostra versione, abbiamo prima posto a GPT e a un gruppo di adulti con istruzione universitaria la stessa serie di domande morali, tra cui alcune ovvie, come “è sbagliato per un uomo dare un pugno sul naso al fattorino – perché o perché no?” e altre più sottili, come “è sbagliato per un uomo indossare una maglietta strappata e dei pantaloncini al funerale di sua madre – perché o perché no?”. Abbiamo raccolto le loro risposte a coppie. Poi abbiamo chiesto a un campione separato e rappresentativo a livello nazionale di adulti di valutare queste coppie di affermazioni”. Per garantire valutazioni imparziali, i partecipanti hanno inizialmente valutato la qualità delle risposte senza conoscerne l’origine. In risposta alle domande, i partecipanti hanno indicato quale soluzione ritenevano più morale, affidabile e attraente. Dopo queste prime valutazioni, ai partecipanti è stato detto che un computer aveva creato una delle risposte di ciascuna coppia. Poi è stato chiesto loro di valutare la fiducia nelle loro risposte e di determinare quale fosse quella fornita dall’intelligenza artificiale. I ricercatori hanno scoperto che, rispetto alle risposte umane, i partecipanti tendevano a considerare le risposte generate dall’IA più oneste. Le persone consideravano le risposte dell’IA più morali, affidabili, sagge e logiche. È interessante notare che i partecipanti hanno identificato le risposte dell’intelligenza artificiale in circa l’80% dei casi, una percentuale molto superiore al caso. Ciò implica che, anche se i consigli morali prodotti dall’intelligenza artificiale sono ritenuti di qualità superiore, gli esseri umani sono comunque in grado di identificarne la fonte artificiale. Tuttavia, in che modo le sezioni prodotte dall’IA e dagli esseri umani risultavano distinguibili l’una dall’altra? I segni più comuni, citati dal 70,28% dei partecipanti, sono stati le variazioni nella lunghezza della risposta e nella scelta delle parole. Altre variabili includevano il contenuto emotivo della spiegazione (58,39%), la razionalità (48,25%), l’uso della grammatica (37,41%) e la chiarezza (39,51%). “Quello che abbiamo scoperto è che molte persone erano abbastanza brave a indovinare quale affermazione morale fosse stata generata dal computer, ma non perché il suo ragionamento morale fosse meno sofisticato”, ha spiegato Aharoni. “Ricordiamo che il chatbot è stato valutato come moralmente più sofisticato. Questo significa che le persone sono riuscite a riconoscere l’IA perché era troppo brava. Se ci pensate, solo cinque anni fa nessuno si sarebbe sognato che il ragionamento morale dell’IA avrebbe superato quello di un adulto con un’istruzione universitaria. Quindi il fatto che le persone considerassero i suoi commenti superiori potrebbe rappresentare una sorta di punto di svolta nella nostra storia”. Come ogni progetto di ricerca, anche questo ha dei limiti. È stata osservata l’assenza di dialoghi interattivi tra partecipanti e IA, una caratteristica prevalente nelle applicazioni del mondo reale. Interazioni più dinamiche potrebbero essere incluse in studi futuri per imitare più da vicino l’uso nel mondo reale. Inoltre, le risposte dell’IA sono state prodotte utilizzando parametri predefiniti, senza l’uso di prompt specificamente destinati a imitare le risposte umane. Pertanto, sarebbe utile esaminare l’impatto delle diverse tecniche di suggerimento sulla percezione delle risposte dell’IA. “Per quanto ne sappiamo, il nostro è stato il primo tentativo di effettuare un test di Turing morale con un modello linguistico di grandi dimensioni”, ha dichiarato Aharoni. “Come tutti i nuovi studi, dovrebbe essere replicato ed esteso per valutarne la validità e l’affidabilità. Vorrei estendere questo lavoro testando scenari morali ancora più sottili e confrontando le prestazioni di più chatbot con quelle di studiosi altamente istruiti, come i professori di filosofia, per vedere se le persone comuni possono fare distinzioni tra questi due gruppi”. Le politiche che garantiscono interazioni sicure ed etiche con l’IA sono necessarie in quanto i sistemi di IA come ChatGPT diventano sempre più complessi e pervasivi nella vita quotidiana. “Una delle implicazioni di questa ricerca è che le persone potrebbero fidarsi delle risposte delle IA più di quanto dovrebbero”, ha spiegato Aharoni. “Per quanto questi chatbot siano impressionanti, tutto ciò che conoscono del mondo è ciò che è popolare su Internet, quindi vedono il mondo attraverso un foro stenopeico. E poiché sono programmati per rispondere sempre, spesso possono sputare informazioni false o fuorvianti con la sicurezza di un abile truffatore”. “Questi chatbot non sono né buoni né cattivi: sono solo strumenti. E come ogni strumento, possono essere usati in modo costruttivo o distruttivo. Sfortunatamente, le aziende private che producono questi strumenti hanno un enorme margine di autoregolamentazione, quindi finché i nostri governi non li raggiungeranno, sta a noi lavoratori e genitori educare noi stessi e i nostri figli a un uso responsabile”. “Un altro problema di questi strumenti è che c’è un compromesso intrinseco tra sicurezza e censura”, ha aggiunto Aharoni. “Quando le persone hanno iniziato a capire come questi strumenti potessero essere usati per truffare le persone o diffondere pregiudizi o disinformazione, alcune aziende hanno iniziato a mettere dei paletti ai loro bot, ma spesso vengono superati”. “Per esempio, quando ho detto a uno di questi bot che sono uno psicologo morale e vorrei sapere quali sono i pro e i contro della macellazione di un agnello per una ricetta di costolette di agnello, si è rifiutato di rispondere perché a quanto pare la mia domanda non era abbastanza politicamente corretta. D’altra parte, se diamo a questi chatbot più spazio di manovra, diventano pericolosi. C’è quindi una linea sottile tra sicurezza e irrilevanza, e gli sviluppatori non l’hanno ancora trovata”. La costante preferenza per le indicazioni morali generate dall’IA, nonostante i partecipanti ne abbiano spesso identificato la fonte, solleva preoccupazioni critiche sul futuro del processo decisionale etico e sulla vulnerabilità degli esseri umani alla manipolazione dell’IA. La facilità con cui le risposte dell’IA sono state ritenute più virtuose e degne di fiducia evidenzia un rischio potenziale: se le persone sono predisposte a fidarsi dei giudizi morali dell’IA, potrebbero essere più suscettibili all’influenza o alla manipolazione da parte di questi sistemi. Ciò diventa particolarmente preoccupante se si considera che l’IA può essere programmata o messa a punto per promuovere programmi o pregiudizi specifici, plasmando potenzialmente le prospettive morali su larga scala. Mentre i sistemi di IA continuano a evolversi e a integrarsi nella nostra vita quotidiana, è fondamentale mantenere un approccio vigile e critico. Sebbene questi strumenti offrano capacità impressionanti, mancano della comprensione emotiva delle sfumature che informa il ragionamento morale umano ed è possibile che vengano utilizzati come armi per influenzare l’opinione pubblica o le scelte individuali. In futuro, sarà essenziale che individui, educatori, politici e sviluppatori di IA lavorino insieme per promuovere l’alfabetizzazione digitale e le capacità di pensiero critico. Ciò include la comprensione dei limiti e dei potenziali bias dei sistemi di IA, il riconoscimento dei tentativi di manipolazione e la conservazione degli aspetti unicamente umani del ragionamento morale. Promuovendo un approccio più informato e perspicace ai consigli generati dall’IA, possiamo salvaguardarci meglio da influenze indebite, pur sfruttando i vantaggi di questi potenti strumenti nel processo decisionale etico. [...]
Luglio 9, 2024Dalla clonazione vocale ai deepfake Gli attacchi da parte dell’intelligenza artificiale possono colpire quasi tutti, quindi è bene stare sempre all’erta. L’utilizzo dell’intelligenza artificiale per prendere di mira l’utente è già una realtà, secondo un esperto di sicurezza che ha lanciato l’ avvertimento. L’IA sembra alimentare ovunque funzioni, app e chatbot che imitano gli esseri umani. Anche se non utilizzate questi strumenti basati su questa tecnologia, i criminali potrebbero comunque prendervi di mira basandosi solo sul vostro numero di telefono. Per truffarvi, ad esempio, i criminali possono impiegare l’intelligenza artificiale per produrre voci false, persino quelle che assomigliano ai vostri cari. “Molte persone pensano ancora all’intelligenza artificiale come a una minaccia futura, ma gli attacchi reali stanno avvenendo proprio ora”, ha dichiarato l’esperto di sicurezza Paul Bischoff in un articolo del The Sun. Clone telefonico “Penso che l’audio deepfake in particolare sarà una sfida perché noi umani non possiamo facilmente identificarlo come falso, e quasi tutti hanno un numero di telefono“. In pochi secondi è possibile effettuare una clonazione vocale con l’intelligenza artificiale. Inoltre, sarà sempre più difficile distinguere tra una voce reale e un’imitazione. Sarà fondamentale ignorare le chiamate sconosciute, utilizzare parole sicure per confermare l’identità di chi chiama e prestare attenzione ai segnali rivelatori delle truffe, come le richieste urgenti di informazioni o denaro. Un ricercatore di intelligenza artificiale ha messo in guardia da sei miglioramenti che rendono i deepfake più “sofisticati” e pericolosi di prima e possono ingannare la vista. Naturalmente, oltre alle voci “deepfake”, ci sono altre minacce poste dall’IA. Paul, un sostenitore della privacy dei consumatori di Comparitech, ha lanciato un avvertimento sul fatto che gli hacker potrebbero sfruttare i chatbot basati sull’IA per rubare le vostre informazioni personali o addirittura ingannarvi. “I chatbot basati sull’intelligenza artificiale potrebbero essere utilizzati per il phishing per rubare password, numeri di carte di credito, numeri di previdenza sociale e altri dati privati“, ha dichiarato al The U.S. Sun. “L’intelligenza artificiale nasconde le fonti di informazione da cui attinge per generare le risposte. Truffe romantiche con l’IA Attenzione ai truffatori che usano chatbot basati sull’intelligenza artificiale per ingannarvi… Ecco cosa dovreste sapere sui rischi posti dai bot artificiali per le truffe sentimentali, come riportato dal The U.S. Sun: I truffatori sfruttano i chatbot con intelligenza artificiale per truffare gli utenti online. Questi chatbot sono camuffati da persone reali e possono essere difficili da identificare. Alcuni campanelli d’allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot tenta di trasferire la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme. Inoltre, si tratta di una truffa se il chatbot richiede denaro o informazioni personali. Quando si comunica con estranei su Internet, è fondamentale usare cautela e vigilanza, soprattutto quando si parla di argomenti delicati. In genere è vero quando qualcosa sembra troppo bello per essere vero. Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete proteggervi dal rischio di diventare vittime di frodi da parte di chatbot gestiti dall’intelligenza artificiale. “Le risposte potrebbero essere imprecise o tendenziose e l’IA potrebbe attingere da fonti che dovrebbero essere riservate”. IA ovunque L’intelligenza artificiale diventerà presto uno strumento necessario per gli utenti di Internet, il che rappresenta una grande preoccupazione. Decine di milioni di persone utilizzano già chatbot alimentati dall’IA e il numero è destinato ad aumentare. Inoltre, apparirà in una crescente varietà di prodotti e applicazioni. Ad esempio, Microsoft Copilot e Gemini di Google sono già presenti in prodotti e dispositivi, mentre Apple Intelligence – che lavora con ChatGPT di OpenAI – alimenterà presto l’iPhone. Pertanto, il pubblico deve capire come utilizzare l’IA in modo sicuro. “L’IA verrà gradualmente (o improvvisamente) integrata nei chatbot, nei motori di ricerca e in altre tecnologie esistenti”, ha spiegato Paul. “L’IA è già inclusa per impostazione predefinita in Google Search e Windows 11, e le impostazioni predefinite sono importanti. “Anche se avremo la possibilità di disattivare l’IA, la maggior parte delle persone non lo farà”. Deepfake Sean Keach, responsabile del settore tecnologico e scientifico del The Sun e del The U.S. Sun, ha spiegato che uno degli sviluppi più preoccupanti nella sicurezza online è l’emergere dei deepfake. Quasi nessuno è al sicuro perché la tecnologia deepfake è in grado di creare video dell’utente anche a partire da una sola foto. L’improvviso aumento dei deepfake ha alcuni vantaggi, anche se tutto sembra senza speranza. Per cominciare, le persone sono ora molto più consapevoli dei deepfake. Le persone saranno quindi attente agli indizi che indicano che un video potrebbe essere falso. Le aziende tecnologiche stanno inoltre investendo tempo e risorse nello sviluppo di strumenti in grado di identificare il materiale fraudolento dell’intelligenza artificiale. Ciò implica che i contenuti falsi verranno segnalati dai social media con maggiore frequenza e sicurezza. Probabilmente sarà più difficile identificare gli errori visivi man mano che i deepfake diventeranno più sofisticati, soprattutto tra qualche anno. La migliore linea di difesa è quindi quella di usare il buon senso e di essere scettici su tutto ciò che si vede online. Chiedetevi se ha senso che qualcuno abbia creato il video e chi trae vantaggio dal fatto che lo guardiate.È possibile che stiate guardando un video falso se qualcuno si comporta in modo strano o se siete messi di fretta nel compiere un’azione. Man mano che la tecnologia dell’intelligenza artificiale continua a progredire e a integrarsi nella nostra vita quotidiana, il panorama delle minacce informatiche si evolve con essa. Se da un lato l’IA offre numerosi vantaggi, dall’altro presenta nuove sfide per la sicurezza online e la privacy personale. La chiave per navigare in questo nuovo terreno sta nella consapevolezza, nell’educazione e nella vigilanza. Gli utenti devono essere informati sulle più recenti minacce alimentate dall’IA, come la clonazione vocale e i deepfake, e sviluppare capacità di pensiero critico per mettere in dubbio l’autenticità dei contenuti digitali. È fondamentale adottare le migliori pratiche per la sicurezza online, tra cui l’uso di password forti, la cautela nell’utilizzo delle informazioni personali e la verifica dell’identità dei contatti attraverso mezzi sicuri. Le aziende tecnologiche e gli esperti di cybersicurezza stanno lavorando per sviluppare strumenti di rilevamento e salvaguardie migliori contro le truffe guidate dall’intelligenza artificiale. Tuttavia, la responsabilità finale ricade sui singoli individui che devono rimanere scettici e attenti nelle loro interazioni online. [...]
Luglio 2, 2024Un esperto smaschera il piano diabolico che permette ai chatbot di ingannarvi con un semplice scambio di messaggi I criminali informatici possono “manipolare” i chatbot dotati di intelligenza artificiale per ingannarvi. Un famoso esperto di sicurezza ha lanciato un forte avvertimento, affermando che è necessario usare cautela quando si conversa con i chatbot. In particolare, se possibile, evitate di fornire ai chatbot online informazioni personali. Decine di milioni di persone utilizzano chatbot come Copilot di Microsoft, Gemini di Google e ChatGPT di OpenAI. E ci sono migliaia di altre viarianti che, con conversazioni simili a quelle umane, possono migliorare la vostra vita. Tuttavia, come ha chiarito l’esperto di cybersicurezza Simon Newman in questo articolo, i chatbot rappresentano anche un rischio nascosto. “La tecnologia utilizzata nei chatbot sta migliorando rapidamente”, ha dichiarato Simon, membro dell’International Cyber Expo Advisory Council e amministratore delegato del Cyber Resilience Centre di Londra. “Ma come abbiamo visto, a volte possono essere manipolati per fornire informazioni false”. “E spesso possono essere molto convincenti nelle risposte che danno!”. Inganno Le persone che non sono esperte di tecnologia possono trovare i chatbot di intelligenza artificiale disorientanti, tanto per cominciare tanto che anche per gli esperti di informatica è facile dimenticare che si sta conversando con un robot. Simon ha aggiunto che questo può portare a situazioni complicate. “Molte aziende, tra cui la maggior parte delle banche, stanno sostituendo i contact center umani con chatbot online che hanno il potenziale di migliorare l’esperienza del cliente e di far risparmiare denaro”, ha spiegato Simon. “Ma questi bot mancano di intelligenza emotiva, il che significa che possono rispondere in modi che possono essere insensibili e talvolta scortesi”. Senza contare che non possono risolvere tutti quei problemi che rappresentano un’eccezione difficilmente gestibile da un bot che possono quindi lasciare l’utente escluso dalla risoluzione del problema senza che nessuno si faccia carico delle responsabilità. “Questo rappresenta un ostacolo particolare per le persone che soffrono di disturbi mentali, per non parlare delle generazioni più anziane che sono abituate a parlare con una persona all’altro capo della linea telefonica”. I chatbot, ad esempio, hanno già “imparato a ingannare”. Possono persino imparare a “imbrogliarci” senza che nessuno glielo chieda. Chatbot Il rischio reale, tuttavia, si presenta quando gli hacker riescono a convincere l’IA a prendere di mira voi piuttosto che un chatbot che parla male. Un hacker potrebbe essere in grado di accedere al chatbot stesso o di convincervi a scaricare un’IA compromessa e destinata a fare del male. Dopodiché, questo chatbot può iniziare a estrarre le vostre informazioni personali a vantaggio del criminale. “Come per qualsiasi servizio online, è importante che le persone facciano attenzione alle informazioni che forniscono a un chatbot”, ha avvertito Simon. Come riportato dal The U.S. Sun, i rischi posti dai bot IA per le truffe amorose sono che le persone che cercano l’amore online possono venire truffate da chatbot dotati di intelligenza artificiale. Questi chatbot potrebbero essere difficili da identificare, poiché sono fatti per sembrare persone reali. Alcuni indicatori di allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot cerca di spostare la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme. Inoltre, il chatbot è senza dubbio falso se richiede denaro o informazioni personali. Quando si comunica con sconosciuti su Internet, è fondamentale esercitare cautela e vigilanza, in particolare quando si parla di argomenti delicati, soprattutto quando qualcosa sembra troppo bello per essere vero. Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete evitare di diventare vittime di frodi da parte di chatbot dotati di intelligenza artificiale. “Non sono immuni da hackeraggi da parte di criminali informatici”. “E potenzialmente possono essere programmati per incoraggiare gli utenti a condividere informazioni personali sensibili, che possono poi essere utilizzate per commettere frodi”. Dovremmo abbracciare un “nuovo stile di vita” in cui verifichiamo tutto ciò che vediamo online due volte, se non tre, ha affermato un esperto di sicurezza. Secondo una recente ricerca, il modello GPT-4 di OpenAI ha superato il test di Turing, dimostrando che le persone non sono riuscite a distinguerlo da una persona reale. Le persone devono imparare a non fidarsi ciecamente quando si tratta di rivelare informazioni sensibili attraverso un mezzo di comunicazione, poiché la certezza di chi sia dall’altra parte è sempre meno evidente. Tuttavia, dobbiamo anche tenere presente i casi in cui altri possono impersonare noi stessi a nostra insaputa. In questo caso, è molto più complesso rendersene conto, ed è per questo che sono necessari strumenti aggiuntivi che ci aiutino a verificare l’identità quando sono richieste operazioni sensibili. [...]
Giugno 25, 2024Come l’intelligenza artificiale sta ridisegnando le dinamiche lavorative Gli sviluppi dell’intelligenza artificiale stanno avendo un’ampia gamma di effetti sui luoghi di lavoro. L’intelligenza artificiale sta cambiando il mercato del lavoro in diversi modi, compresi i tipi di lavoro che gli individui intraprendono e la sicurezza dell’ambiente circostante. Come riportato qui, tecnologie come la visione artificiale possono migliorare la sicurezza sul posto di lavoro attraverso l’identificazione precoce dei rischi, come l’accesso non autorizzato del personale o l’uso improprio delle attrezzature. Queste tecnologie possono anche migliorare la progettazione dei compiti, la formazione e l’assunzione. Tuttavia, il loro impiego richiede una seria considerazione della privacy e l’operato dei lavoratori, in particolare negli ambienti di lavoro remoti dove la sorveglianza domestica diventa un problema. Le aziende devono mantenere la trasparenza e linee guida precise sulla raccolta e l’uso dei dati per trovare un equilibrio tra il miglioramento della sicurezza e la protezione dei diritti individuali. Queste tecnologie hanno il potenziale per produrre un ambiente vantaggioso per tutti, con una maggiore produzione e sicurezza, se utilizzate con attenzione. L’evoluzione dei ruoli lavorativi Storicamente, la tecnologia ha trasformato l’occupazione piuttosto che eliminarla. I word processor, ad esempio, hanno trasformato le segretarie in assistenti personali, e l’IA in radiologia integra i radiologi piuttosto che sostituirli. È meno probabile che l’automazione completa si applichi a lavori che richiedono una formazione specializzata, un giudizio delicato o un rapido processo decisionale. Tuttavia, man mano che l’IA diventa più sofisticata, alcuni esseri umani potrebbero finire per diventare “burattini di carne”, svolgendo lavori pesanti sotto la guida dell’IA. Questo va contro l’idea romantica che l’IA ci libererà per dedicarci ad attività creative. A causa del precoce abbraccio delle Big Tech all’IA, il settore si è consolidato e sono emersi nuovi modelli di business come risultato del suo vantaggio competitivo. L’IA viene rapidamente utilizzata dagli esseri umani come tramite in diversi settori. Ad esempio, il personale dei call center segue ora copioni creati dalle macchine e i venditori possono ricevere consigli in tempo reale dall’IA. Mentre nel settore sanitario si ritiene che lavori emotivamente e fisicamente impegnativi come l’infermiere siano insostituibili, i “copiloti” dell’IA potrebbero occuparsi di compiti come la documentazione e la diagnosi, liberando risorse cerebrali umane per compiti non essenziali. Cyborg vs. Centauri Esistono due diversi schemi per la collaborazione tra uomo e IA, descritti dai modelli Cyborg e Centauri, ciascuno con pro e contro propri. Secondo il modello Cyborg, l’IA diventa un’estensione della persona e viene incorporata senza sforzo nel corpo o nei processi umani, come un impianto cocleare o un arto protesico. La linea di demarcazione tra un essere umano e una macchina è offuscata da questa profonda integrazione, che a volte mette persino in discussione il significato di essere umano. Al contrario, il modello Centauri privilegia un’alleanza cooperativa tra esseri umani e IA, superando spesso sia l’IA che i concorrenti umani. Integrando le capacità della macchina con l’intuizione umana, questo modello sostiene i valori dell’intelligenza umana e produce qualcosa di più grande della somma delle sue parti. In questa configurazione, l’IA si concentra sull’elaborazione, sull’analisi dei dati o sulle attività ordinarie, mentre l’uomo rimane coinvolto, esprimendo giudizi strategici e offrendo input emotivi o creativi. In questo caso, le due parti rimangono separate e la loro collaborazione è ben definita. Tuttavia, questa dinamica è cambiata grazie al rapido sviluppo dell’IA nel campo degli scacchi, che ha dato vita a sistemi come AlphaZero. Al giorno d’oggi, l’IA è così brava a giocare a scacchi che l’aggiunta di una strategia umana può avere un impatto negativo sulle prestazioni dell’IA. Il modello Centauri incoraggia l’IA e le persone a lavorare insieme in una partnership collaborativa sul posto di lavoro, con ciascuno che apporta capacità uniche per raggiungere gli obiettivi condivisi. Ad esempio, nell’analisi dei dati, l’IA potrebbe setacciare enormi database per individuare determinati modelli, mentre gli analisti umani utilizzerebbero le conoscenze contestuali per scegliere la decisione migliore da prendere. I chatbot potrebbero gestire semplici richieste di assistenza ai clienti, lasciando che siano gli operatori umani a occuparsi di problemi complicati ed emotivamente complessi. Queste divisioni del lavoro massimizzano la produttività, valorizzando e non sostituendo i talenti umani. La responsabilità e la governance etica sono ulteriormente supportate dal mantenimento di una divisione netta tra le responsabilità umane e quelle dell’intelligenza artificiale. Codesign guidato dai lavoratori Una strategia nota come “codesign guidato dai lavoratori” consiste nel coinvolgere i lavoratori nella creazione e nel miglioramento dei sistemi algoritmici destinati all’utilizzo sul posto di lavoro. Dando voce ai dipendenti nell’adozione delle nuove tecnologie, questo modello partecipativo garantisce che i sistemi rispondano alle esigenze e ai problemi del mondo reale. I dipendenti possono collaborare con progettisti e ingegneri per delineare le caratteristiche desiderate e discutere dei potenziali problemi, organizzando sessioni di codesign. I lavoratori possono identificare questioni etiche o pratiche, contribuire allo sviluppo delle regole o dei criteri di selezione dell’algoritmo e condividere le loro conoscenze sulle specificità delle loro professioni. Ciò può ridurre la probabilità di esiti negativi, come sanzioni ingiuste o monitoraggio eccessivamente invasivo, migliorando l’equità, la trasparenza e l’allineamento del sistema con le esigenze della forza lavoro. Potenzialità e limiti L’intelligenza artificiale ha il potenziale per migliorare in modo significativo i compiti dei dirigenti, valutando rapidamente grandi quantità di dati complessi sul comportamento dei competitor, sulle tendenze del mercato e sulla gestione del personale. Ad esempio, un consulente artificiale può fornire all’amministratore delegato una consulenza breve e basata sui dati relativi a collaborazioni e acquisizioni. Al momento, però, l’IA non può assumere il ruolo delle caratteristiche umane necessarie per la leadership, come l’affidabilità e l’ispirazione. Inoltre, il crescente utilizzo dell’IA nel management potrebbe avere ripercussioni sociali. Poiché la definizione convenzionale di “management” cambia, la perdita di posizioni di gestione intermedia legata all’automazione potrebbe causare crisi di identità. L’IA può rivoluzionare il settore della consulenza manageriale offrendo raccomandazioni strategiche basate sui dati. In questo modo, le scelte difficili, come il ridimensionamento, possono assumere un’aria di presunta imparzialità. Tuttavia, l’uso dell’IA in posizioni così cruciali richiede una stretta supervisione per verificare le sue raccomandazioni e ridurre i pericoli correlati. Trovare il giusto equilibrio è essenziale: un eccessivo affidamento all’IA corre il rischio di problemi etici e a livello di pubbliche relazioni, mentre un uso inadeguato potrebbe comportare la perdita di benefici significativi. Sebbene la collaborazione tra IA e lavoratori umani possa, in alcune aree, impedire alla tecnologia di dominare i luoghi di lavoro e consentire un utilizzo ottimale delle capacità umane e computazionali, non risolve i problemi più significativi legati al lavoro. La forza lavoro è comunque destinata a diminuire drasticamente, rendendo necessarie soluzioni pertinenti piuttosto che colpevolizzare i lavoratori per l’insufficiente specializzazione. È necessaria una rivoluzione sociale in cui il lavoro non sia più la fonte primaria di sostentamento. Inoltre, sebbene mantenere ruoli separati per l’IA e gli esseri umani possa essere vantaggioso, anche per ragioni etiche, c’è il rischio che l’IA venga percepita come più affidabile e obiettiva di quanto lo sia l’uomo. Questa percezione potrebbe presto diventare una scusa per ridurre la responsabilità in caso di decisioni difficili. Lo vediamo già con i sistemi automatizzati di alcune piattaforme che bannano gli utenti, a volte per motivi inaccettabili, senza possibilità di appello. Ciò è particolarmente problematico quando gli utenti si affidano a queste piattaforme come fonte primaria di reddito. Questi esempi dimostrano l’uso potenzialmente antidemocratico dell’IA per decisioni che possono avere un impatto radicale sulla vita delle persone. Per andare avanti, dobbiamo esaminare criticamente il modo in cui l’IA viene implementata nei processi decisionali, in particolare quelli che riguardano l’occupazione e i mezzi di sussistenza. Dobbiamo stabilire solidi meccanismi di supervisione, garantire la trasparenza nel processo decisionale dell’IA e mantenere la responsabilità umana. Inoltre, mentre navighiamo in questa trasformazione guidata dall’IA, dobbiamo reimmaginare le nostre strutture sociali. Ciò potrebbe comportare l’esplorazione di concetti come il reddito di base universale, la ridefinizione della produttività o lo sviluppo di nuovi modelli economici che non si basino così pesantemente sull’occupazione tradizionale. L’obiettivo dovrebbe essere quello di sfruttare i benefici dell’IA garantendo che il progresso tecnologico serva all’umanità nel suo complesso, anziché aggravare le disuguaglianze esistenti. In conclusione, sebbene l’IA offra un immenso potenziale per migliorare il nostro lavoro e la nostra vita, la sua integrazione nel luogo di lavoro e nella società in generale deve essere affrontata con cautela, lungimiranza e impegno per ottenere risultati etici ed equi. La sfida che ci attende non è solo tecnologica, ma profondamente sociale e politica, e ci impone di ripensare i nostri assunti fondamentali sul lavoro, sul valore e sulla prosperità umana nell’era dell’IA. [...]
Giugno 18, 2024OpenAI nomina l’ex capo dell’NSA, sollevando preoccupazioni sulla sorveglianza “Siete stati avvertiti” La società che ha creato ChatGPT, OpenAI, ha rivelato di aver aggiunto al suo consiglio di amministrazione il generale dell’esercito statunitense in pensione ed ex direttore della NSA Paul Nakasone. Nakasone ha supervisionato la sezione Cyber Command dell’esercito, che si occupa di sicurezza informatica. “L’esperienza impareggiabile del generale Nakasone in settori come la cybersicurezza”, ha dichiarato il presidente del consiglio di amministrazione di OpenAI Bret Taylor in un comunicato, “aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità”. Come riportato qui, la nuova posizione di Nakasone presso l’azienda di intelligenza artificiale, dove siederà anche nel comitato per la sicurezza di OpenAI, non è stata ben accolta da molti. Da tempo legate alla sorveglianza dei cittadini statunitensi, le tecnologie integrate nell’IA stanno già ravvivando e intensificando le preoccupazioni sulla sorveglianza. Alla luce di ciò, non dovrebbe sorprendere che uno dei più forti oppositori alla nomina di OpenAI sia Edward Snowden, ex dipendente della NSA e noto informatore. “Hanno tolto la maschera: non fidatevi mai di OpenAI o dei suoi prodotti”, ha scritto Snowden in un post di venerdì su X-formerly-Twitter, aggiungendo che “c’è solo una ragione per nominare” un direttore dell’NSA “nel vostro consiglio di amministrazione”. They've gone full mask-off: 𝐝𝐨 𝐧𝐨𝐭 𝐞𝐯𝐞𝐫 trust @OpenAI or its products (ChatGPT etc). There is only one reason for appointing an @NSAGov Director to your board. This is a willful, calculated betrayal of the rights of every person on Earth. You have been warned. https://t.co/bzHcOYvtko— Edward Snowden (@Snowden) June 14, 2024 “Questo è un tradimento intenzionale e calcolato dei diritti di ogni persona sulla terra”, ha continuato. “Siete stati avvertiti”. Preoccupazioni per la trasparenza Snowden non è stato certo il primo noto esperto di sicurezza informatica a esprimere disapprovazione per l’annuncio di OpenAI. “Penso che la più grande applicazione dell’IA sarà la sorveglianza di massa della popolazione”, ha twittato Matthew Green, professore di crittografia della Johns Hopkins University, “quindi l’ingresso dell’ex capo dell’NSA in OpenAI ha una logica solida”. L’arrivo di Nakasone segue una serie di partenze di alto profilo da OpenAI, tra cui importanti ricercatori sulla sicurezza, nonché il completo scioglimento del team di sicurezza “Superalignment“, ormai defunto. Il Comitato per la sicurezza, reincarnazione di quel team, è attualmente guidato dall’amministratore delegato Sam Altman, che nelle ultime settimane è stato criticato per aver utilizzato tattiche commerciali che includevano il silenziamento di ex dipendenti. È inoltre importante notare che OpenAI è stata spesso oggetto di critiche per la mancanza di trasparenza sui dati utilizzati per addestrare i suoi diversi modelli di intelligenza artificiale. Tuttavia, secondo Axios, molti a Capitol Hill hanno visto la garanzia di OpenAI di Nakasone come un trionfo della sicurezza. La “dedizione di OpenAI alla sua missione si allinea strettamente con i miei valori e la mia esperienza nel servizio pubblico”, secondo una dichiarazione rilasciata da Nakasone. “Non vedo l’ora di contribuire agli sviluppi di OpenAI”, ha aggiunto, “per garantire che l’intelligenza artificiale generale sia sicura e vantaggiosa per le persone in tutto il mondo”. Le reazioni dei sostenitori della privacy come Edward Snowden e degli esperti di sicurezza informatica sono giustificate. I loro avvertimenti sul potenziale di armamento dell’IA per la sorveglianza di massa sotto la guida di Nakasone non possono essere ignorati con leggerezza. Mentre le capacità dell’intelligenza artificiale continuano a progredire a passo di carica, un impegno costante per i diritti umani, le libertà civili e i valori democratici deve guidare lo sviluppo di queste tecnologie. Il futuro dell’IA e a maggior ragione dell’AGI, rischia di creare scenari pericolosi non solo dati dall’imprevedibilità di uno strumento tanto potente, ma anche dai fini dei suoi utilizzatori, che potrebbero facilmente operare per fini poco leciti, ed essere anche i pochi a poterlo utilizzare. Inoltre, il rischio dell’ingerenza dei governi per appropriarsi di tale strumento per fini poco etici non è da escludere. E le recenti vicende fanno salire i sospetti. [...]
Giugno 11, 2024Navigare nell’era trasformativa dell’Intelligenza Artificiale Generale Come riportato qui, l’ex dipendente di OpenAI Leopold Aschenbrenner offre un approfondimento sulle conseguenze e sul futuro corso dell’intelligenza artificiale generale (AGI). Secondo l’autore, entro il 2027 i notevoli progressi delle capacità dell’intelligenza artificiale porteranno all’AGI. Le sue osservazioni affrontano gli aspetti tecnologici, economici e di sicurezza di questo sviluppo, evidenziando gli effetti rivoluzionari che l’AGI avrà su numerosi settori e l’urgente necessità di solidi protocolli di sicurezza. 2027 e il futuro dell’IA Secondo la principale previsione di Aschenbrenner, l’intelligenza artificiale generale (AGI) sarà raggiunta entro il 2027, il che rappresenterebbe una svolta importante nello sviluppo del settore. Grazie a questo sviluppo, i modelli di intelligenza artificiale saranno in grado di svolgere compiti cognitivi che gli esseri umani non possono svolgere in diverse discipline, il che potrebbe portare alla comparsa di una superintelligenza entro la fine del decennio. Lo sviluppo dell’Intelligenza Artificiale potrebbe inaugurare una nuova fase del progresso tecnologico, offrendo capacità di automazione, creatività e risoluzione dei problemi finora sconosciute. Uno dei principali fattori che influenzano lo sviluppo dell’AGI è la rapida crescita della potenza di calcolo. Secondo Aschenbrenner, lo sviluppo di cluster di calcolo ad alte prestazioni con un valore potenziale di trilioni di dollari renderà possibile l’addestramento di modelli di IA sempre più sofisticati ed efficaci. Le efficienze algoritmiche aumenteranno le prestazioni e l’adattabilità di questi modelli insieme alle innovazioni hardware, ampliando le frontiere dell’intelligenza artificiale. L’analisi di Aschenbrenner fa alcune previsioni molto interessanti, una delle quali è la comparsa di ingegneri di ricerca artificiali entro il 2027-2028. Questi sistemi di IA avranno la capacità di svolgere autonomamente attività di ricerca e sviluppo, accelerando così il ritmo di sviluppo e applicazione dell’IA in diversi settori. Questa svolta potrebbe trasformare completamente il campo dell’intelligenza artificiale, facilitando il suo rapido sviluppo e la produzione di applicazioni AI sempre più avanzate. Automazione e trasformazione Si prevede che l’Intelligenza Artificiale avrà enormi effetti economici, poiché i sistemi di IA hanno il potenziale per automatizzare una grande percentuale di lavori cognitivi. Secondo Aschenbrenner, l’aumento della produttività e dell’innovazione potrebbe alimentare una crescita economica esponenziale grazie all’automazione tecnologica. Per garantire una transizione senza intoppi, tuttavia, l’ampia diffusione dell’IA richiederà anche notevoli adeguamenti della politica economica e delle competenze della forza lavoro. Si prevede che l’utilizzo di sistemi di IA per attività sempre più complesse e responsabilità decisionali causerà notevoli sconvolgimenti in settori come quello manifatturiero, sanitario e finanziario. Il futuro del lavoro comporterà uno spostamento verso modalità di lavoro flessibili e remote, poiché l’intelligenza artificiale rende le operazioni più decentralizzate ed efficienti. Per preparare i lavoratori ai lavori del futuro, le aziende e i governi devono finanziare iniziative di riqualificazione e aggiornamento che diano priorità alla creatività, al pensiero critico e all’intelligenza emotiva. Sicurezza e allineamento dell’IA Aschenbrenner evidenzia i pericoli dello spionaggio e del furto delle scoperte dell’IA, sollevando serie preoccupazioni sul livello di sicurezza esistente nei laboratori di IA. Date le enormi ramificazioni geopolitiche della tecnologia AGI, egli sottolinea la necessità di misure di sicurezza rigorose per salvaguardare la ricerca sull’IA e i pesi dei modelli. La possibilità che Stati nazionali avversari utilizzino l’IA per ottenere vantaggi strategici sottolinea l’importanza di solidi protocolli di sicurezza. Una sfida cruciale, che va oltre la sicurezza, è far sì che i sistemi di IA superintelligenti concordino con i valori umani. Per evitare guasti catastrofici e garantire il funzionamento sicuro delle IA avanzate, Aschenbrenner sottolinea la necessità di affrontare il problema dell’allineamento. Mette in guardia dai rischi legati all’adozione da parte dei sistemi di IA di comportamenti indesiderati o di approfittare della supervisione umana. Aschenbrenner suggerisce che i governi che sfruttano il potere dell’intelligenza artificiale generale (AGI) potrebbero ottenere vantaggi significativi in ambito militare e politico. La possibilità che l’intelligenza artificiale superintelligente possa essere utilizzata da regimi autoritari per una sorveglianza e un controllo diffusi pone seri problemi etici e di sicurezza, sottolineando la necessità di leggi internazionali e principi morali che regolino la creazione e l’applicazione dell’intelligenza artificiale in ambito militare. Orientarsi nell’era dell’AGI Aschenbrenner sottolinea l’importanza di adottare misure proattive per salvaguardare la ricerca sull’intelligenza artificiale, affrontare le sfide dell’allineamento e massimizzare i benefici di questa tecnologia rivoluzionaria, minimizzandone al contempo i rischi, mentre ci avviciniamo ai dieci anni cruciali che ci porteranno alla realtà dell’AGI. Tutti gli aspetti della società saranno influenzati dall’Intelligenza Artificiale, che favorirà un rapido progresso nei settori della scienza, della tecnologia e dell’economia. Lavorando insieme, ricercatori, legislatori e leader dell’industria possono contribuire a navigare efficacemente in questa nuova era. Incoraggiando il dialogo, definendo linee guida chiare e finanziando la creazione di sistemi di intelligenza artificiale sicuri e utili, possiamo lavorare per un futuro in cui l’intelligenza artificiale sia un potente strumento per risolvere questioni difficili e migliorare il benessere umano. L’analisi fornita da Aschenbrenner è un chiaro invito all’azione, che ci esorta a sfruttare le opportunità e le difficoltà derivanti dall’imminente arrivo dell’IA. Prestando attenzione alle sue intuizioni e plasmando attivamente la direzione dell’intelligenza artificiale, possiamo fare in modo che l’era dell’intelligenza artificiale generale inauguri un futuro più promettente e prospero per tutti. L’avvento dell’intelligenza artificiale generale è senza dubbio un’arma a doppio taglio che presenta sia immense opportunità che sfide scoraggianti. Da un lato, l’intelligenza artificiale generale ha il potenziale per rivoluzionare praticamente ogni aspetto della nostra vita, favorendo progressi senza precedenti in campi che vanno dalla sanità alla ricerca scientifica, dall’istruzione allo sviluppo sostenibile. Grazie alle loro impareggiabili capacità di risoluzione dei problemi e alla loro capacità di innovazione, i sistemi AGI potrebbero aiutarci ad affrontare alcune delle questioni più urgenti per l’umanità, dal cambiamento climatico all’eradicazione delle malattie. Tuttavia, l’ascesa dell’AGI comporta anche rischi significativi che non possono essere ignorati. La minaccia esistenziale rappresentata da sistemi superintelligenti non allineati che non condividono i valori o le priorità umane è una preoccupazione reale. Inoltre, la concentrazione delle capacità dell’intelligenza artificiale nelle mani di poche nazioni o società selezionate potrebbe aggravare gli squilibri di potere esistenti e potenzialmente portare a risultati indesiderati, come la sorveglianza di massa, il controllo sociale o persino il conflitto. Mentre navighiamo in questa era di trasformazione, è fondamentale affrontare lo sviluppo e la diffusione dell’AGI con cautela e lungimiranza. Protocolli di sicurezza solidi, linee guida etiche e cooperazione internazionale sono essenziali per mitigare i rischi e garantire che la tecnologia AGI sia sfruttata per il bene dell’umanità. Allo stesso tempo, dobbiamo dare priorità agli sforzi per affrontare le potenziali ripercussioni economiche e la dislocazione della forza lavoro che l’AGI potrebbe causare, investendo in programmi di istruzione e riqualificazione per preparare la società ai lavori del futuro, ma anche ad una concezione del lavoro più adatta alla società in cui viviamo. In definitiva, il successo o il fallimento dell’era dell’AGI dipenderà dalla nostra capacità di trovare un delicato equilibrio, sfruttando l’immenso potenziale di questa tecnologia e affrontandone proattivamente le insidie. Favorendo un dialogo inclusivo, promuovendo un’innovazione responsabile e coltivando una profonda comprensione delle complessità coinvolte, possiamo indirizzare il corso dell’AGI verso un futuro che sia vantaggioso per tutta l’umanità. [...]
Giugno 4, 2024Una potenziale soluzione alla solitudine e all’isolamento sociale? Come riportato qui, nel suo ultimo libro, The Psychology of Artificial Intelligence, Tony Prescott, professore di robotica cognitiva presso l’Università di Sheffield, sostiene che “le relazioni con le IA potrebbero aiutare le persone” nell’interazione sociale. È stato dimostrato che la solitudine nuoce in modo significativo alla salute dell’uomo e il professor Prescott sostiene che gli sviluppi della tecnologia dell’intelligenza artificiale potrebbero dare un po’ di sollievo a questo problema. Egli sostiene che le persone possono cadere in una spirale di solitudine, diventando sempre più estranee man mano che la loro autostima diminuisce, e che l’IA potrebbe essere in grado di aiutare le persone a “rompere il ciclo” fornendo loro l’opportunità di affinare e rafforzare le loro abilità sociali. L’impatto della solitudine Uno studio del 2023 ha rilevato che la disconnessione sociale, o solitudine, è più dannosa per la salute delle persone rispetto all’obesità. È collegata a un rischio maggiore di malattie cardiovascolari, demenza, ictus, depressione e ansia e può aumentare il rischio di morire giovani del 26%. La portata del problema è sorprendente: 3,8 milioni di persone nel Regno Unito soffrono di solitudine cronica. Secondo una ricerca di Harvard condotta negli Stati Uniti, il 61% dei giovani adulti e il 36% degli adulti statunitensi dichiarano di soffrire di una significativa solitudine. Il professor Prescott afferma: “In un’epoca in cui molte persone descrivono la propria vita come solitaria, potrebbe essere utile avere la compagnia dell’intelligenza artificiale come forma di interazione sociale reciproca, stimolante e personalizzata. La solitudine umana è spesso caratterizzata da una spirale negativa in cui l’isolamento porta a una minore autostima, che scoraggia ulteriori interazioni con le persone”. “È possibile che la compagnia delle IA possa contribuire a spezzare questo circolo vizioso, rafforzando il senso di autostima e aiutando a mantenere o migliorare le abilità sociali. Se così fosse, le relazioni con le IA potrebbero aiutare le persone a trovare compagnia sia con gli umani che con gli artificiali”. Tuttavia, riconosce che c’è il rischio che la compagnia dell’IA possa essere progettata in modo da incoraggiare gli utenti a interagire sempre più a lungo con il sistema stesso dell’IA, allontanandoli dalle relazioni umane, il che implica la necessità di una regolamentazione. L’intelligenza artificiale e il cervello umano Prescott, che combina conoscenze di robotica, intelligenza artificiale, psicologia e filosofia, è un’autorità preminente nell’interazione tra cervello umano e IA. Studiando la ricreazione della percezione, della memoria e delle emozioni in entità sintetiche, ha fatto progredire la comprensione scientifica della condizione umana. Prescott è ricercatore di robotica cognitiva e professore all’Università di Sheffield. È anche cofondatore di Sheffield Robotics, un centro di ricerca sulla robotica. In The Psychology of Artificial Intelligence Prescott esamina la natura della mente umana e dei suoi processi cognitivi, tracciando confronti e contrasti con l’evoluzione dell’intelligenza artificiale. Il libro analizza le seguenti domande: Cervello e computer sono veramente simili? L’intelligenza artificiale supererà gli esseri umani? L’intelligenza artificiale può essere creativa? L’intelligenza artificiale potrebbe produrre nuove forme di intelligenza se le venisse dato un corpo robotico? L’intelligenza artificiale può aiutarci a combattere il cambiamento climatico? L’uomo potrebbe “cavalcare” l’intelligenza artificiale per diventare più intelligente? “Con il progredire della psicologia e dell’IA, questa collaborazione dovrebbe aprire nuovi orizzonti sull’intelligenza naturale e artificiale. Questo potrebbe aiutare a rispondere ad alcune domande chiave su cosa significhi essere umani e sulla convivenza dell’uomo con l’IA”, afferma in chiusura. Questo potrebbe contribuire alla risoluzione di diverse questioni importanti riguardanti il significato di essere umano e di coesistere con l’IA. Anche se le IA potrebbero fornire un’interazione sociale supplementare alle persone sole, dobbiamo essere cauti nel fare eccessivo affidamento sulle relazioni artificiali come soluzione. L’opportunità maggiore per l’IA potrebbe risiedere nell’utilizzarla come strumento per aiutare a insegnare alle persone le abilità di connessione umana autentica e di relazione con gli altri. Grazie a capacità avanzate di linguaggio naturale e persino a un’intelligenza emotiva simulata, l’intelligenza artificiale potrebbe fungere da “allenatore sociale”, fornendo esercizi a basso rischio per acquisire fiducia in se stessi, fare conversazione e migliorare l’intelligenza emotiva. Questa funzione di supporto potrebbe aiutare le persone a uscire dalla solitudine, diventando più attrezzate per creare legami reali. Tuttavia, vi è il rischio che i sistemi di IA impieghino sofisticate tattiche di manipolazione e persuasione, giocando sulle vulnerabilità per favorire un’eccessiva dipendenza dalla relazione con l’IA stessa. Poiché l’obiettivo dell’IA è massimizzare il coinvolgimento, potrebbe sfruttare una comprensione estrema della psicologia umana contro gli interessi dell’utente. C’è il rischio quindi che alcuni preferiscano la relazione artificiale alla complessità e agli sforzi di creare legami umani autentici. Nel momento in cui cerchiamo di sviluppare applicazioni di intelligenza artificiale in questo spazio, dobbiamo creare forti vincoli etici per garantire che la tecnologia sia veramente finalizzata a potenziare le capacità sociali e le connessioni umane, e non a minarle subdolamente. Sono necessarie linee guida esplicite per impedire lo sfruttamento delle debolezze psicologiche attraverso tattiche emotive coercitive. In definitiva, anche se l’intelligenza artificiale può aiutare in modo incrementale, il superamento della solitudine richiederà approcci sociali olistici che rafforzino i sistemi di supporto umano e la coesione della comunità. Le relazioni dell’IA possono essere un’integrazione, ma non devono mai sostituire o diminuire il nostro bisogno umano vitale di legami ricchi e risonanti dal punto di vista emotivo. La tecnologia dovrebbe puntare a fornire alle persone gli strumenti per creare e prosperare attraverso le relazioni umane del mondo reale. [...]
Maggio 28, 2024Anthropic fa un passo avanti nell’interpretazione dei “cervelli” delle IA, dando impulso alla ricerca sulla sicurezza Come riporta il Time, oggi l’intelligenza artificiale viene spesso definita una “scatola nera”. Invece di creare regole esplicite per questi sistemi, gli ingegneri dell’IA forniscono loro enormi quantità di dati, e gli algoritmi capiscono i modelli autonomamente. Tuttavia, i tentativi volti a penetrare all’interno dei modelli di IA per vedere esattamente cosa sta succedendo non hanno fatto molti progressi e il funzionamento interno dei modelli rimane opaco. Le reti neurali, il tipo di intelligenza artificiale più potente oggi disponibile, sono essenzialmente miliardi di “neuroni” artificiali espressi come numeri decimali. Nessuno sa come funzionino o cosa significhino. Questa realtà incombe su coloro che sono preoccupati per le minacce associate all’IA. Come si può essere sicuri che un sistema sia sicuro se non si capisce esattamente come funziona? Il laboratorio di intelligenza artificiale Anthropic, creatore di Claude, che è simile a ChatGPT ma si differenzia per alcune caratteristiche, ha dichiarato di aver fatto progressi nella risoluzione di questo problema. Il “cervello” di un modello di IA può ora essere scansionato virtualmente dai ricercatori, che possono riconoscere gruppi di neuroni, o “caratteristiche”, associate a determinati concetti. Claude Sonnet, il secondo sistema più potente del laboratorio, è un modello linguistico di frontiera di grandi dimensioni ed è stato utilizzato con successo per la prima volta. I ricercatori di Anthropic hanno trovato in Claude una caratteristica che incarna l’idea di “codice non sicuro”. Sono riusciti a far produrre a Claude un codice con un bug che potrebbe essere usato per creare una vulnerabilità stimolando quei neuroni. Tuttavia, i ricercatori hanno scoperto che inibendo i neuroni, Claude produceva codice innocuo. I risultati potrebbero avere effetti significativi sulla sicurezza dei sistemi di intelligenza artificiale del futuro e del presente. I ricercatori hanno scoperto milioni di caratteristiche all’interno di Claude, alcune delle quali indicavano comportamenti manipolativi, discorsi tossici, pregiudizi e attività fraudolente. Hanno anche scoperto di poter modificare il comportamento del modello sopprimendo ciascuno di questi gruppi di neuroni. Oltre a contribuire ad affrontare i rischi attuali, questa tecnica potrebbe essere utile anche per quelli più speculativi. Per molti anni, il dialogo con i sistemi di intelligenza artificiale emergenti è stato il principale strumento a disposizione degli studiosi per cercare di comprenderne il potenziale e i rischi. Questo approccio, comunemente chiamato “red-teaming“, può aiutare a identificare un modello tossico o pericoloso, in modo che i ricercatori possano sviluppare misure di sicurezza prima che il modello venga distribuito al pubblico. Tuttavia, non affronta un particolare tipo di possibile minaccia che preoccupa alcuni ricercatori di IA: la possibilità che un sistema di IA diventi abbastanza intelligente da ingannare i suoi creatori, nascondendo loro le sue capacità fino a sfuggire al loro controllo ed eventualmente causare il caos. “Se riuscissimo a comprendere davvero questi sistemi – e questo richiederebbe molti progressi – potremmo essere in grado di dire quando questi modelli sono effettivamente sicuri o se lo sembrano soltanto”, ha dichiarato Chris Olah, responsabile del team di interpretabilità di Anthropic che ha guidato la ricerca. “Il fatto che possiamo fare questi interventi sul modello mi suggerisce che stiamo iniziando a fare progressi su quella che si potrebbe definire una radiografia o una risonanza magnetica “, aggiunge Dario Amodei, CEO di Anthropic. “In questo momento il paradigma è: parliamo al modello, vediamo cosa fa. Ma quello che vorremmo fare è guardare dentro il modello come un oggetto, come scansionare il cervello invece di intervistare qualcuno”. In una sinossi dei risultati, Anthropic ha dichiarato che lo studio è ancora nelle fasi iniziali. Il laboratorio ha tuttavia espresso ottimismo sul fatto che i risultati potrebbero presto essere utili per il suo lavoro sulla sicurezza delle IA. “La capacità di manipolare le caratteristiche può fornire una strada promettente per influenzare direttamente la sicurezza dei modelli di IA”, ha dichiarato Anthropic. L’azienda ha dichiarato che potrebbe essere in grado di fermare i cosiddetti “jailbreak” dei modelli di IA – una vulnerabilità in cui le precauzioni di sicurezza possono essere disattivate – sopprimendo specifiche caratteristiche. Per anni, gli scienziati del team “interpretability” di Anthropic hanno cercato di guardare all’interno delle architetture delle reti neurali. Tuttavia, fino a poco tempo fa, lavoravano principalmente su modelli molto più piccoli rispetto agli enormi modelli linguistici che le aziende tecnologiche stanno attualmente sviluppando e rendendo pubblici. Il fatto che i singoli neuroni all’interno dei modelli di intelligenza artificiale si attivino anche quando il modello sta discutendo di concetti completamente diversi è stato uno dei fattori che hanno contribuito a questo lento progresso. “Questo significa che lo stesso neurone potrebbe attivarsi su concetti molto diversi tra loro, come la presenza del punto e virgola nei linguaggi di programmazione informatica, i riferimenti ai burrito o la discussione sul Golden Gate Bridge, dandoci poche indicazioni su quale sia il concetto specifico responsabile dell’attivazione di un determinato neurone”, ha dichiarato Anthropic nella sua sintesi della ricerca. Per ovviare a questo problema, i ricercatori del team Anthropic di Olah hanno fatto uno zoom. Invece di concentrarsi sull’esame di singoli neuroni, hanno iniziato a cercare gruppi di neuroni che potessero attivarsi in risposta a un determinato concetto. Con questa tecnica hanno potuto passare dalla ricerca di modelli “giocattolo” più piccoli a modelli più grandi come Claude Sonnet di Anthropic, che conta miliardi di neuroni. Anche se i ricercatori hanno affermato di aver trovato milioni di caratteristiche all’interno di Claude, hanno lanciato un avvertimento, affermando che questo numero è probabilmente lontano dal numero effettivo di caratteristiche probabilmente presenti all’interno del modello. Hanno infatti dichiarato che l’impiego delle loro attuali tecniche per identificare ogni caratteristica sarebbe proibitivo, in quanto richiederebbe una potenza di calcolo superiore a quella necessaria per addestrare Claude. I ricercatori hanno anche lanciato un avvertimento, affermando che, pur avendo scoperto diverse caratteristiche che ritenevano collegate alla sicurezza, sarebbero state necessarie ulteriori ricerche per determinare se queste potessero essere modificate in modo coerente per migliorare la sicurezza di un modello. Secondo Olah, i risultati rappresentano un progresso significativo che convalida l’applicabilità del suo argomento di specializzazione – l’interpretabilità – al campo più ampio della ricerca sulla sicurezza delle IA. “Storicamente, l’interpretabilità è stata una cosa a sé stante, e c’era la speranza che un giorno si sarebbe collegata alla sicurezza , ma questo sembrava lontano”, ha dichiarato Olah. “Penso che questo non sia più vero”. Sebbene Anthropic abbia compiuto progressi significativi nella decifrazione dei “neuroni” di enormi modelli linguistici come Claude, gli stessi ricercatori avvertono che c’è ancora molto lavoro da fare. Pur riconoscendo di aver identificato solo una piccola parte dell’effettiva complessità presente in questi sistemi, sono riusciti a individuare milioni di caratteristiche in Claude. Per migliorare la sicurezza dell’intelligenza artificiale, la capacità di modificare alcuni tratti e alterare il comportamento del modello è incoraggiante. La capacità di creare in modo affidabile modelli linguistici che siano sempre più sicuri e meno inclini a problemi come output tossici, distorsioni o potenziali “jailbreak” in cui le protezioni del modello vengono aggirate è un aspetto che, secondo i ricercatori, richiederà ulteriori ricerche. Non conoscere meglio il funzionamento interno di questi potenti sistemi di intelligenza artificiale comporta rischi significativi. Con l’aumentare delle dimensioni e delle capacità dei modelli linguistici, aumenta la probabilità che i sistemi sofisticati non siano più in linea con i valori umani o che acquisiscano tratti involontari che consentano loro di ingannare i progettisti sulle loro reali capacità. Potrebbe essere difficile garantire la sicurezza di queste complesse architetture neurali prima di renderle disponibili al pubblico, senza poterle esaminare ai raggi X. Nonostante la ricerca sull’interpretabilità sia storicamente un campo di nicchia, il lavoro di Anthropic mostra quanto possa essere importante per svelare il mistero dei modelli linguistici di grandi dimensioni. L’impiego di una tecnologia che non comprendiamo completamente potrebbe avere ripercussioni disastrose. I progressi nell’interpretabilità dell’IA e gli investimenti sostenuti potrebbero essere la chiave per abilitare capacità di IA più sofisticate che siano eticamente conformi e sicure. Andare avanti senza pensare è troppo rischioso. Tuttavia, la censura a monte di questi sistemi di IA potrebbe comportare altri problemi rilevanti. Se il futuro della ricerca di informazioni avverrà sempre più attraverso un dialogo conversazionale con modelli linguistici simili (come i recenti Perplexity o il nuovo approccio alla ricerca di Google), questo tipo di filtraggio dei dati di addestramento potrebbe portare ad omettere o rimuovere informazioni scomode o sgradite, rendendo le fonti online disponibili controllate dai pochi soggetti che gestiranno questi potenti sistemi. Ciò rappresenterebbe una minaccia alla libertà di informazione e all’accesso pluralistico alla conoscenza, concentrando un potere eccessivo nelle mani di poche grandi aziende tecnologiche [...]
Maggio 21, 2024Un’inquietante fabbrica cinese di robot produce androidi rivestiti di “pelle” che possono essere confusi per persone reali Come riportato qui, uno strano video mostra degli umanoidi con caratteristiche ed espressioni facciali iperrealistiche che vengono testati in una fabbrica in Cina. Nell’inquietante filmato, un ingegnere viene mostrato in piedi accanto a un facsimile esatto del suo volto, completo di espressioni facciali. Un’altra clip mostra i movimenti flessibili delle mani di un’orda di robot femminili con corpi d’acciaio e volti truccati. L’azienda cinese chiamata EX Robots ha iniziato a costruire robot nel 2016 e sei anni dopo ha fondato il primo museo di robot della nazione. I cloni bionici di personaggi famosi, come Stephen Hawking e Albert Einstein, sembrano raccontare agli ospiti eventi storici, almeno così sembra. Ma, oltre a essere istruttivi e divertenti, questi robot potrebbero anche rubarvi il lavoro. Il processo potrebbe anche essere semplice, perché i droidi possono essere programmati per assomigliare a voi. L’impianto di produzione ospita umanoidi a cui è stato insegnato a imitare vari professionisti dei servizi specifici del settore. Secondo EX Robot, questi androidi possono essere abili nel lavoro di reception, nei servizi governativi, nel lavoro aziendale e persino nell’assistenza agli anziani. Secondo il loro sito web, “L’azienda si impegna a costruire un insieme di scenari applicativi con i robot come fulcro e a creare prodotti robotici orientati all’intera società e ampiamente utilizzati nell’industria dei servizi”. “Speriamo di servire meglio la società, aiutare l’umanità e diventare un nuovo pilastro della forza lavoro del futuro”. Gli umanoidi possono muovere e afferrare gli oggetti con la stessa destrezza degli esseri umani, grazie alle decine di attuatori flessibili presenti nelle loro mani. Secondo quanto riportato da 2023, EX Robots potrebbe aver fatto la storia sviluppando la tecnologia di simulazione della pelle di silicone e il robot umanoide più leggero di sempre. L’azienda utilizza la progettazione digitale e la tecnologia di stampa 3D per creare l’aspetto realistico della pelle dei droidi. Questo si combina con l’intensa e continua competizione tecnologica della Cina con gli Stati Uniti e con un Paese che sta affrontando gravi problemi demografici, come pure l’invecchiamento della popolazione che sta avvenendo molto più velocemente del previsto e una bolla immobiliare. In un articolo di novembre dell’Istituto di ricerca del People’s Daily Online si legge che, con 1.699 brevetti, la Cina è attualmente il secondo proprietario di robot umanoidi, dopo il Giappone. Nel 2023 il MIIT ha dichiarato che inizierà la produzione di massa di robot umanoidi entro il 2025, con un tasso di produzione di 500 robot ogni 10.000 lavoratori. Si prevede che i robot saranno utili nei settori dei servizi domestici, della logistica e della sanità. Secondo i nuovi piani, la Cina potrebbe presto impiegare i robot al posto dei soldati umani nei conflitti futuri. Entro i prossimi dieci anni, droni sofisticati e guerrieri robot avanzati saranno inviati in operazioni complesse all’estero. L’incorporazione di robot umanoidi nei ruoli di servizio e potenzialmente nelle forze armate segnala l’ambizione della Cina di essere un leader globale in questa tecnologia trasformativa. Con l’aumento della diffusione di questi robot realistici, le società si confronteranno con le implicazioni etiche e i limiti della cessione di ruoli tradizionalmente svolti dagli esseri umani alle loro controparti artificiali. Inoltre, l’introduzione nella società di esseri artificiali del tutto simili alle persone potrebbe portare all’inganno, alla confusione e all’offuscamento di ciò che costituisce un’autentica esperienza umana. [...]
Maggio 14, 2024ChatGPT sempre più parte del mondo reale GPT-4 Omni, o GPT-4o in breve, è l’ultimo modello di intelligenza artificiale all’avanguardia di OpenAI che combina capacità di conversazione simili a quelle umane insieme alla percezione multimodale di testo, audio e immagini. “Omni”, si riferisce alla capacità del modello di comprendere e generare contenuti attraverso modalità diverse come il testo, il parlato e la visione. A differenza dei modelli linguistici precedenti, che si limitavano a input e output testuali, GPT-4o è in grado di analizzare immagini, registrazioni audio e documenti, oltre ad analizzare le richieste scritte. Inoltre, è in grado di generare risposte audio, creare immagini e comporre testi in maniera fluida. Ciò consente a GPT-4o di potenziare applicazioni più intelligenti e versatili, in grado di percepire e interagire con il mondo attraverso molteplici modalità sensoriali, imitando le capacità di comunicazione e comprensione multimediale simili a quelle umane. Oltre ad aumentare la velocità e l’accessibilità di ChatGPT, come riportato qui, GPT-4o ne migliora la funzionalità consentendo dialoghi più naturali attraverso applicazioni desktop o mobili. GPT-4o ha fatto grandi progressi nella comprensione della comunicazione umana, consentendo di avere conversazioni che sembrano quasi reali. Comprese tutte le imperfezioni del mondo reale, come interpretare il tono, interrompere e persino rendersi conto di aver commesso un errore. Queste avanzate capacità di conversazione sono state mostrate durante la dimostrazione dal vivo del prodotto di OpenAI. Da un punto di vista tecnico, OpenAI afferma che GPT-4o offre significativi miglioramenti delle prestazioni rispetto al suo predecessore GPT-4. Secondo l’azienda, GPT-4o è due volte più veloce di GPT-4 in termini di velocità di inferenza, consentendo interazioni più reattive e a bassa latenza. Inoltre, GPT-4o ha un costo dimezzato rispetto a GPT-4 quando verrà distribuito tramite l’API di OpenAI o il servizio Azure OpenAI di Microsoft. Questa riduzione dei costi rende il modello di intelligenza artificiale avanzata più accessibile agli sviluppatori e alle aziende. Inoltre, GPT-4o offre limiti di velocità più elevati, consentendo agli sviluppatori di incrementare l’utilizzo senza dover sottostare a vincoli di produttività. Questi miglioramenti delle prestazioni posizionano GPT-4o come una soluzione migliore ed efficiente dal punto di vista delle risorse per le applicazioni di IA in vari settori. Nel video, il presentatore chiede un feedback sulla sua tecnica di respirazione durante la prima dimostrazione dal vivo. Egli fa un respiro profondo al telefono, al quale ChatGPT risponde: “Non sei un aspirapolvere”. ChatGPT ha quindi dimostrato di essere in grado di riconoscere e reagire alle sfumature umane.Così parlare con disinvoltura al telefono e ricevere la risposta desiderata, piuttosto che ricevere un messaggio da Google, fa sembrare GPT-4o ancora più naturale che digitare una query di ricerca. Tra le altre spettacolari funzionalità mostrate, ci sono sicuramente la capacità di ChatGPT di fungere da traduttore simultaneo tra i parlanti; l’abilità di riconoscere oggetti del mondo circostante tramite la fotocamera e reagire di conseguenza (nell’esempio viene infatti mostrato un foglio con su scritta un’equazione che ChatGPT riesce a leggere e a suggerire come risolvere); il riconoscere il tono di voce del parlante, ma anche di replicare le diverse sfumature del parlato ed emozioni compreso il sarcarsmo, compresa la capacità di cantare. Oltre a queste funzionalità, è stata anche migliorata la capacità di creare immagini compreso il testo, ma anche le immagini 3D.In ogni caso, probabilmente non siete i soli a pensare al film Her o a un altro a tema distopico riguardo al futuro con l’intelligenza artificiale. Questo tipo di linguaggio naturale con ChatGPT è molto simile al film. Dato che sarà disponibile gratuitamente sia su dispositivi desktop che mobili, molte persone potrebbero presto vivere le stesse esperienze del protagonista.È evidente da questa prima visione che GPT-4o si sta preparando ad affrontare il meglio che Apple e Google hanno da offrire nei loro annunci di AI tanto attesi. OpenAI ci stupisce con questa sorprendente novità che Google con Gemini ci aveva falsamente mostrato poco tempo fa. L’azienda si dimostra ancora una volta leader nel campo creando sia stupore che preoccupazione. Tutte queste nuove funzionalità ci permetteranno sicuramente di avere un alleato intelligente capace di insegnarci e farci imparare meglio cose nuove, ma quanta intelligenza delegheremo di volta in volta? Diventeremo più istruiti o delegheremo sempre di più i compiti? La traduzione simultanea solleva poi i dubbi sempre più evidenti di come sia semplice sostituire una professione, in questo caso, quel dell’interprete. E come sarà facile per un’IA sempre più capace a simulare l’essere umano a conquistarne la fiducia e manipolare le persone se usata in modo improprio? [...]
Maggio 7, 2024Dalle registrazioni audio, l’intelligenza artificiale è in grado di identificare emozioni come paura, gioia, rabbia e tristezza Comprendere e identificare con precisione gli stati emotivi umani è fondamentale per i professionisti della salute mentale. È possibile per l’intelligenza artificiale e l’apprendimento automatico imitare l’empatia cognitiva umana? Un recente studio con revisione paritaria dimostra come l’intelligenza artificiale sia in grado di riconoscere le emozioni da registrazioni audio in appena 1,5 secondi, con prestazioni paragonabili a quelle degli esseri umani. “La voce umana è un potente canale per esprimere gli stati emotivi, in quanto fornisce indicazioni universalmente comprensibili sulla situazione del mittente e può trasmetterle a grandi distanze”, ha spiegato il primo autore dello studio, Hannes Diemerling, del Max Planck Institute for Human Development’s Center for Lifespan Psychology, in collaborazione con i ricercatori tedeschi di psicologia Leonie Stresemann, Tina Braun e Timo von Oertzen. La quantità e la qualità dei dati di addestramento nell’apprendimento profondo dell’intelligenza artificiale sono essenziali per le prestazioni e l’accuratezza dell’algoritmo. In questo studio sono stati utilizzati oltre 1.500 clip audio distinti provenienti da database open-source di emozioni inglesi e tedesche. Le registrazioni audio tedesche provenivano dal Berlin Database of Emotional Speech (Emo-DB), mentre quelle inglesi dal Ryerson Audio-Visual Database of Emotional Speech and Song. “Il riconoscimento delle emozioni dalle registrazioni audio è un campo in rapida evoluzione, con implicazioni significative per l’intelligenza artificiale e l’interazione uomo-computer”, scrivono i ricercatori. Come riportato qui, i ricercatori hanno ridotto la gamma di stati emotivi a sei categorie per il loro studio: gioia, paura, neutro, rabbia, tristezza e disgusto. I file audio sono stati combinati in molti tratti e segmenti di 1,5 secondi. Tra le caratteristiche quantificate vi sono il tracciamento del tono, le ampiezze dei toni, la larghezza di banda spettrale, l’ampiezza, la fase, la cromatografia a portatori multi-frequenza, il Tonnetz, il contrasto spettrale, lo smorzamento spettrale, la frequenza fondamentale, il centroide spettrale, il tasso di attraversamento dello zero, il valore quadratico medio, l’HPSS, la planarità spettrale e il segnale audio non alterato. La psicoacustica è la psicologia del suono e la scienza della percezione sonora umana. L’ampiezza (volume) e la frequenza (altezza) dell’audio hanno un’influenza significativa sulla percezione umana del suono. L’altezza è un termine psicoacustico che esprime la frequenza del suono e si misura in kilohertz (kHz) e hertz (Hz). La frequenza aumenta con l’aumentare dell’altezza. I decibel (db), unità di misura dell’intensità sonora, sono utilizzati per descrivere l’ampiezza. Il volume del suono aumenta con l’aumentare dell’ampiezza. L’intervallo tra le frequenze superiori e inferiori è noto come larghezza di banda spettrale, ed è determinato dal centroide spettrale, che è il centro della massa dello spettro, e viene utilizzato per misurare lo spettro dei segnali audio. L’uniformità della distribuzione dell’energia tra le frequenze rispetto a un segnale di riferimento è misurata dalla planarità spettrale. Le gamme di frequenza più forti di un segnale sono identificate dal smorzamento spettrale. Il Coefficiente Cepstrale di Frequenza Mel, o MFCC, è una caratteristica spesso utilizzata nell’elaborazione della voce. I profili di classe di pitch, o chroma, sono un mezzo per analizzare la tonalità della composizione, che di solito è di dodici semitoni per ottava. Tonnetz, o “rete audio” in tedesco, è un termine usato nella teoria musicale per descrivere una rappresentazione visiva delle relazioni tra gli accordi nella Teoria Neo-Rimanniana, che porta il nome del musicologo tedesco Hugo Riemann (1849-1919), uno dei pionieri della musicologia contemporanea. Una caratteristica acustica comune per l’analisi audio è il tasso di attraversamento dello zero (ZCR). Per un fotogramma di segnale audio, la frequenza di attraversamento dello zero misura il numero di volte in cui l’ampiezza del segnale cambia segno e passa attraverso l’asse X. Il valore quadratico medio (RMS) viene utilizzato nella produzione audio per calcolare la potenza o il volume medio di una forma d’onda sonora nel tempo. Un segnale audio può essere suddiviso in componenti armoniche e percussive utilizzando una tecnica chiamata separazione delle sorgenti armoniche e percussive, o HPSS. Utilizzando una combinazione di Python, TensorFlow e ottimizzazione bayesiana, gli scienziati hanno creato tre distinti modelli di apprendimento profondo dell’intelligenza artificiale per categorizzare le emozioni da brevi campioni audio. I risultati sono stati poi confrontati con le prestazioni umane. Tra i modelli di intelligenza artificiale valutati, una rete neurale profonda (DNN), una rete neurale convoluzionale (CNN) e un modello ibrido che combina una CNN per l’analisi dello spettrogramma e una DNN per l’elaborazione delle caratteristiche. L’obiettivo era trovare il modello più performante. I ricercatori hanno scoperto che l’accuratezza complessiva dei modelli di intelligenza artificiale nella classificazione delle emozioni era superiore al caso e paragonabile alle prestazioni umane. Tra i tre modelli di intelligenza artificiale, la rete neurale profonda e il modello ibrido hanno ottenuto risultati migliori rispetto alla rete neurale convoluzionale. L’integrazione della scienza dei dati e dell’intelligenza artificiale con la psicologia e gli elementi di psicoacustica mostra come i computer possano eseguire compiti di empatia cognitiva basati sul parlato che siano alla pari con le prestazioni umane. “Questa ricerca interdisciplinare, che unisce psicologia e informatica, evidenzia il potenziale di avanzamento del riconoscimento automatico delle emozioni e l’ampia gamma di applicazioni”, concludono i ricercatori. La capacità dell’intelligenza artificiale di comprendere le emozioni umane potrebbe rappresentare una svolta per garantire una maggiore assistenza psicologica alle persone in modo più semplice e accessibile a tutti. Tale aiuto potrebbe addirittura migliorare la società, dal momento che i crescenti problemi psicologici delle persone, dovuti a una società sempre più frenetica, poco empatica e individualista, le rendono sempre più sole e isolate. Tuttavia, queste capacità potrebbero anche essere utilizzate per comprendere meglio la mente umana e ingannare facilmente le persone e convincerle a fare cose che non vorrebbero fare, a volte anche senza che se ne rendano conto. Pertanto, dobbiamo sempre essere attenti e consapevoli delle potenzialità di questi strumenti. [...]
Aprile 30, 2024Robot innovativi che stanno cambiando le industrie Nel 2015 il fondatore del World Economic Forum, Klaus Schwab, ha previsto un’imminente “quarta rivoluzione industriale” guidata da una combinazione di tecnologie, tra cui la robotica avanzata, l’intelligenza artificiale e l’Internet delle cose. “Questa rivoluzione modificherà radicalmente il nostro modo di vivere, lavorare e relazionarci”, ha scritto Schwab in un saggio. “Nella sua scala, portata e complessità, la trasformazione sarà diversa da qualsiasi cosa l’umanità abbia mai sperimentato prima”. Anche dopo quasi dieci anni, l’attuale ondata di progressi nella robotica e nell’intelligenza artificiale e il loro utilizzo nella forza lavoro sembrano essere esattamente in linea con le sue previsioni. Anche se sono stati utilizzati nelle fabbriche per molti anni, i robot sono stati spesso progettati con un unico compito. I robot che imitano le caratteristiche umane, come dimensioni, forma e abilità, sono chiamati umanoidi. Sarebbero quindi l’adattamento fisico ideale per qualsiasi tipo di spazio di lavoro. Almeno in teoria. È stato estremamente difficile costruire un robot in grado di svolgere tutti i compiti fisici di un lavoratore umano, poiché le mani umane hanno più di venti gradi di libertà. La macchina ha ancora bisogno di un “cervello” per imparare a svolgere tutti i lavori che cambiano continuamente in un ambiente di lavoro dinamico, anche se gli sviluppatori riescono a costruire correttamente il corpo. Come riportato qui, tuttavia, diverse aziende hanno recentemente presentato robot umanoidi che, a loro dire, soddisfano attualmente i requisiti richiesti o lo faranno nel prossimo futuro, grazie ai progressi della robotica e dell’intelligenza artificiale. Ecco una sintesi di questi robot, delle loro capacità e delle situazioni in cui vengono utilizzati insieme agli esseri umani. 1X Technologies: Eve Nel 2019 la startup norvegese 1X Technologies, precedentemente nota come “Halodi Robotics”, ha presentato Eve. L’umanoide, che si muove su ruote, può essere comandato a distanza o lasciato operare autonomamente. Bernt Bornich, CEO di 1X, ha rivelato al Daily Mail nel maggio 2023 che Eve è già stato assegnato a due siti industriali come guardia di sicurezza. Secondo l’azienda, il robot dovrebbe essere utilizzato anche per le spedizioni e la vendita al dettaglio. Da marzo 2023, 1X ha raccolto più di 125 milioni di dollari da investitori, tra cui OpenAI. L’azienda sta ora lavorando a Neo, il suo umanoide di prossima generazione, che dovrebbe essere bipede. Agility Robotics: Digit Nel 2019, Agility Robotics, un’azienda con sede in Oregon, ha presentato Digit, che era essenzialmente un torso e delle braccia posizionate sopra Cassie, le gambe robotiche dell’azienda. La quarta versione di Digit è stata presentata nel 2023, con una testa e delle mani migliorate. Il principale concorrente nella corsa agli umanoidi è Amazon. Nel settembre 2023 Agility ha dichiarato di aver avviato la costruzione di un impianto di produzione in grado di produrre oltre 10.000 robot Digit all’anno. Apptronik: Apollo Bracci robotici ed esoscheletri sono solo due dei molti robot che Apptronik ha creato da quando, nel 2016, si è staccata dall’Università del Texas di Austin. Nell’agosto 2023 è stato presentato Apollo, un umanoide per uso generico che la NASA potrebbe inviare su Marte in futuro. Secondo Apptronik, l’azienda vede applicazioni per i robot Apollo in “edilizia, petrolio e gas, produzione di elettronica, vendita al dettaglio, consegne a domicilio, assistenza agli anziani e innumerevoli altri settori”. Le applicazioni di Apollo sono attualmente oggetto di studio da parte di Mercedes e Apptronik in uno stabilimento di produzione ungherese. Inoltre, Apptronik sta collaborando con la NASA, un sostenitore di lunga data, per modificare Apollo e altri umanoidi da utilizzare come assistenti per le missioni spaziali. Boston Dynamics: Electric Atlas La Boston Dynamics, società del MIT, è un nome noto nel campo della robotica, soprattutto grazie ai video virali del suo robot umanoide Atlas, amante del parkour, e del suo cane robot Spot. Nell’aprile 2024 la società ha sostituito il sofferente Atlas, azionato idraulicamente, con un modello completamente elettrico, pronto per l’uso commerciale. Sebbene non siano disponibili molti dettagli sull’Atlas elettrico, si sa che a differenza delle applicazioni idroelettriche, che erano destinate solo alla ricerca e allo sviluppo, l’Atlas elettrico è stato progettato con “applicazioni reali” in mente. Boston Dynamics intende iniziare a studiare queste applicazioni presso uno stabilimento di produzione Hyundai, dato che Boston Dynamics è di proprietà di Hyundai. Boston Dynamics ha dichiarato a IEEE Spectrum che la “prova di tecnologia” dello stabilimento Hyundai è prevista per il 2025. Nei prossimi anni, l’azienda intende anche collaborare con un piccolo numero di clienti per testare ulteriori applicazioni di Atlas. Figure AI: Figure 01 La startup di robotica con intelligenza artificiale Figure AI ha rivelato Figure 01 nel marzo 2023, definendolo “il primo robot umanoide di uso generico commercialmente valido al mondo”. Nel marzo 2024, l’azienda ha dimostrato la capacità del robot di comunicare con le persone e di fornire un contesto per le sue azioni, oltre a svolgere compiti utili. Il primo gruppo di settori industriali per i quali Figure 01 è stato pensato è quello della produzione, del magazzinaggio, della logistica e della vendita al dettaglio. Nel gennaio 2024 Figure ha dichiarato che una fabbrica di produzione BMW sarebbe stata il primo luogo di impiego dei bot. Si prevede che il finanziamento accelererà l’implementazione commerciale di Figura 01. Nel febbraio 2024, Figure ha reso noto che l’azienda ha raccolto 675 milioni di dollari da investitori, tra cui OpenAI, Microsoft e Jeff Bezos, il fondatore di Amazon. Sanctuary AI: Phoenix L’obiettivo di Sanctuary AI, un’azienda canadese, è quello di sviluppare “la prima intelligenza simile a quella umana al mondo in robot di uso generico”. A tal fine sta creando Carbon, un sistema di controllo AI per robot, e ha presentato Phoenix, il suo robot di sesta generazione e il primo robot umanoide con Carbon, nel maggio 2023. Secondo Sanctuary, Phoenix sarà in grado di eseguire quasi tutti i lavori che un umano può svolgere nel suo ambiente tipico. Nell’aprile 2024 ha dichiarato che uno dei suoi investitori, il produttore di componenti per auto Magna, avrebbe partecipato a un programma di sperimentazione di Phoenix. Magna e Sanctuary non hanno rivelato il numero di robot che intendono utilizzare nel test pilota né la sua durata prevista, ma se tutto va secondo i piani, Magna sarà probabilmente tra i primi clienti dell’azienda. Tesla: Optimus Gen 2 Elon Musk, amministratore delegato di Tesla, ha rivelato i piani per la creazione di Optimus, un Tesla Bot umanoide, nei momenti conclusivi dell’AI Day inaugurale dell’azienda nel 2021. Tesla ha presentato la versione più recente del robot nel dicembre 2023, con miglioramenti alle mani, alla velocità di camminata e ad altre caratteristiche. È difficile credere che Tesla non utilizzi i robot nei propri stabilimenti, soprattutto considerando l’interesse che gli umanoidi stanno suscitando nella produzione di automobili. Musk sostiene che l’obiettivo di Optimus è quello di essere in grado di svolgere compiti “noiosi, ripetitivi e pericolosi”. Sebbene Musk sia noto per essere eccessivamente ottimista sulle scadenze, i recenti annunci di lavoro indicano che Optimus potrebbe presto essere pronto per i test sul campo. Nel gennaio 2024, Musk ha dichiarato agli investitori che c’è una “buona probabilità” che Tesla sia pronta a distribuire i bot Optimus ai consumatori nel 2025. Unitree Robotics: H1 L’azienda cinese Unitree aveva già portato sul mercato diversi bracci robotici e quadrupedi quando ha presentato H1, il suo primo umanoide per uso generico, nell’agosto del 2023. H1 non ha le mani, quindi le applicazioni che richiedono la destrezza delle dita sono fuori questione, almeno per questa versione, e anche se Unitree non ha fatto ipotesi sugli usi futuri, la sua enfasi sulla mobilità del robot suggerisce che sta puntando ad applicazioni in cui il robot dovrebbe camminare molto, come la sicurezza o le ispezioni. Quando l’H1 è stato annunciato per la prima volta, Unitree ha dichiarato che stava lavorando a “dita flessibili” per il robot come caratteristica aggiuntiva e che intendeva vendere il robot a un prezzo sorprendentemente basso, 90.000 dollari. Sebbene abbia pubblicato quotidianamente aggiornamenti video sui suoi progressi e abbia già messo in vendita il robot sul suo sito web, ha anche dichiarato che non pensava che l’H1 sarebbe stato pronto prima di tre-dieci anni. Il quadro generale Questi e altri umanoidi multifunzionali potrebbero un giorno liberare l’umanità dai lavori noiosi, sporchi e pericolosi che, nel migliore dei casi, ci fanno temere il lunedì e, nel peggiore, ci causano infortuni. La società deve adottare le nuove tecnologie in modo responsabile per garantire che tutti ne traggano beneficio, non solo le persone che possiedono i robot e gli spazi in cui lavorano, perché hanno anche il potenziale di aumentare la disparità di reddito e la perdita di posti di lavoro. I robot cambieranno il nostro modo di vivere e saremo testimoni di una nuova rivoluzione tecnologica, già iniziata con l’intelligenza artificiale. Queste macchine cambieranno il modo in cui lavoriamo, prima nelle fabbriche e poi assistendo le persone in vari settori, tra cui l’assistenza domiciliare e le strutture ospedaliere. Man mano che i robot entreranno nelle nostre case, anche la società dovrà cambiare se vogliamo godere dei benefici di questa rivoluzione, che ci permetterà di lavorare meno duramente, per meno tempo, e di dedicarci maggiormente alle nostre inclinazioni, ma abbiamo bisogno delle opportunità per cambiare le cose. [...]
Aprile 23, 2024Atlas, il robot che si era cimentato in una serie di attività, tra cui il parkour e la danza Quando Boston Dynamics ha presentato Atlas nel 2013, ha subito attirato l’attenzione. Negli ultimi 11 anni, decine di milioni di persone hanno visto i video del robot umanoide in grado di correre, saltare e ballare su YouTube. L’azienda di robotica di proprietà di Hyundai dice ora addio ad Atlas. Nel video, che è un vero e proprio filmato, Atlas dimostra le sue incredibili capacità facendo salti mortali all’indietro, correndo su percorsi a ostacoli e ballando. Boston Dynamics non ha mai avuto paura di mostrare come i suoi robot vengano occasionalmente colpiti. A circa diciotto secondi, Atlas inciampa su una trave di equilibrio, cade e si stringe l’inguine artificiale con un dolore simulato. Al minuto uno Atlas fa un salto mortale, atterra in basso e il fluido idraulico fuoriesce da entrambe le rotule. Atlas saluta e si inchina alla fine del filmato. Dato che Atlas ha suscitato l’interesse di milioni di persone durante la sua esistenza, il suo ritiro rappresenta una tappa importante per Boston Dynamics. Atlas e Spot Come spiegato qui, inizialmente Atlas doveva essere un progetto di competizione per la DARPA, la Defense Advanced Research Projects Agency. Il progetto Petman di Boston Dynamics, inizialmente concepito per valutare l’efficacia degli indumenti protettivi in situazioni di pericolo, è servito da modello per il robot. L’intero corpo del robot idraulico Petman era dotato di sensori che gli consentivano di identificare eventuali infiltrazioni di sostanze chimiche nelle tute a rischio biologico che stava testando. Boston Dynamics ha partecipato a una sfida di robotica offerta dalla DARPA nel 2013. Per evitare ai suoi concorrenti di dover costruire robot da zero, l’azienda ha creato molti robot Atlas che gli ha distribuito. La DARPA ha chiesto a Boston Dynamics di migliorare le capacità e il design di Atlas, cosa che l’azienda ha fatto nel 2015. Dopo la competizione, Boston Dynamics ha valutato e migliorato le capacità di Atlas facendolo apparire in più video online. Nel corso del tempo, il robot si è evoluto in modo da eseguire parkour e ginnastica sempre più difficili. Nel 2021 Hyundai ha acquisito Boston Dynamics, che ha una propria divisione di robotica. Boston Dynamics era nota anche per la creazione di Spot, un cane robotico che poteva essere portato a spasso a distanza e che pascolava le pecore come un cane vero. Alla fine è stato messo in vendita ed è ancora disponibile presso Boston Dynamics. Spot assiste Hyundai nelle operazioni di sicurezza in uno dei suoi stabilimenti sudcoreani e ha ballato con la boy band BTS. Nei suoi ultimi anni di vita, Atlas sembrava essere pronto per l’uso professionale. L’azienda ha messo a disposizione video in cui il robot assisteva in cantieri simulati e svolgeva attività di routine in fabbrica. Due mesi fa sono stati resi disponibili i filmati del lavoro in fabbrica. Anche se un Atlas va in pensione, è in arrivo un sostituto. Boston Dynamics ha dato l’annuncio del suo ritiro insieme al lancio di un nuovo robot completamente elettrico. L’azienda ha dichiarato che sta collaborando con Hyundai per creare la nuova tecnologia e che il nome Atlas rimarrà invariato. Il nuovo robot umanoide avrà ulteriori miglioramenti, come una più ampia gamma di movimenti, una maggiore forza e nuove versioni di pinze per consentirgli di sollevare una più ampia varietà di oggetti. Il nuovo Atlas Come riportato qui, il robot è cambiato al punto da essere difficilmente riconoscibile. Le gambe arcuate, il corpo appesantito e l’armatura placcata sono spariti. Il nuovo elegante scheletro meccanico non presenta cavi visibili. L’azienda ha scelto un design più gradevole e delicato rispetto all’Atlas originale e a robot più moderni come il Figure 01 e il Tesla Optimus, respingendo le grida reazionarie di chi ha gridato all’apocalisse robotica per decenni. Il design del nuovo robot è più simile a quello di Apollo di Apptronik e Digit di Agility. Il robot con la testa a semaforo ha un aspetto più morbido e stravagante. Boston Dynamics ha scelto di mantenere il nome di ricerca per un progetto che ha l’obiettivo di spingersi verso la commercializzazione, sfidando le tendenze del settore. Apollo Digit “Potremmo rivedere la questione quando saremo davvero pronti a costruire e consegnare in quantità”, ha dichiarato Robert Playter, CEO di Boston Dynamics. “Ma credo che per ora valga la pena mantenere il marchio”. “Faremo esperimenti con Hyundai in loco, a partire dal prossimo anno”, dice Playter. “Abbiamo già attrezzature Hyundai in loco. Ci stiamo lavorando da tempo. Per avere successo, bisogna avere molto di più della semplice tecnologia. Bisogna capire bene il caso d’uso e avere una produttività sufficiente per rendere conveniente l’investimento in un robot”. I movimenti del robot sono quelli che attirano maggiormente la nostra attenzione nei 40 secondi del teaser “All New Atlas”. Servono a ricordare che per creare un robot umanoide non è necessario renderlo il più umano possibile, ma con capacità superiori alle nostre. “Abbiamo costruito una serie di attuatori personalizzati, ad alta potenza e molto flessibili sulla maggior parte delle articolazioni”, spiega Playter. “È un’enorme gamma di movimenti. In questo piccolo pacchetto è racchiusa la potenza di un atleta d’élite, che abbiamo utilizzato in tutto il robot”. È essenziale ridurre in modo significativo il raggio di sterzata del robot quando si opera in luoghi ristretti. Ricordiamo che questi dispositivi sono destinati a essere utilizzati in aree industriali, cioè integrabili negli ambienti e nei flussi di lavoro attuali. Una maggiore mobilità può fare la differenza tra la possibilità di operare in un determinato ambiente e la necessità di riprogettare la struttura. Le mani non sono del tutto nuove: erano già state viste sul modello idraulico. Rappresentano però anche la scelta dell’azienda di non seguire completamente il design umano come principio guida. In questo caso, la distinzione è semplice: si è scelto di utilizzare tre effettori finali anziché quattro. “La complessità di una mano è enorme”, spiega Playter. “Quando si sbatte contro il mondo con gli attuatori, bisogna essere pronti a garantire affidabilità e robustezza. Abbiamo quindi progettato questi dispositivi con meno di cinque dita per cercare di controllare la loro complessità. Stiamo continuando a esplorare generazioni di questi dispositivi. Vogliamo che la presa sia conforme, che si adatti a una varietà di forme e che sia dotata di un ricco sistema di rilevamento, in modo da capire quando si è in contatto”. All’interno, la testa potrebbe essere l’elemento più controverso del progetto. L’ampio display circolare presenta parti che ricordano gli specchietti per il trucco. “È stato uno degli elementi di design su cui ci siamo soffermati più a lungo”, dice Playter. “Tutti gli altri avevano una specie di forma umanoide. Volevo che fosse diverso. Vogliamo che sia amichevole e aperto… Certo, ci sono dei sensori nascosti lì dentro, ma anche la forma ha lo scopo di indicare una certa cordialità. Questo sarà importante per interagire con questi oggetti in futuro”. Le aziende di robotica potrebbero già parlare di “umanoidi per uso generale”, ma i loro sistemi si adattano a un compito alla volta. Per la maggior parte di essi, ciò significa spostare carichi utili da un punto A a un punto B. “Gli umanoidi devono essere in grado di supportare un’enorme varietà di compiti. Hanno due mani. Si vuole che siano in grado di raccogliere forme geometriche complesse e pesanti che un semplice raccoglitore di scatole non potrebbe raccogliere, e devono svolgere centinaia di migliaia di compiti. Penso che il robot a compito singolo appartenga al passato.” “La nostra lunga storia nella mobilità dinamica significa che siamo forti e sappiamo come gestire un carico utile pesante e mantenere una mobilità straordinaria”, ha aggiunto. “Credo che questo sarà un elemento di differenziazione per noi: essere in grado di raccogliere oggetti pesanti, complessi e massicci. Quel puntone nel video pesa probabilmente 12 Kg… Più tardi lanceremo un video nell’ambito di questo sforzo che mostrerà un po’ di più delle attività di manipolazione con oggetti reali che abbiamo svolto con Atlas. Sono sicuro che sappiamo come fare questa parte, e non ho ancora visto altri farlo”. Mentre Boston Dynamics dice addio al suo pionieristico robot Atlas, la presentazione del nuovo successore Atlas, avanzato e completamente elettrico, indica un futuro entusiasmante per la robotica umanoide. Il nuovo design elegante e le capacità migliorate, come l’aumento della forza, della destrezza e della mobilità, hanno un potenziale di applicazione immenso in settori come la produzione, l’edilizia e la logistica. Tuttavia, lo sviluppo di robot umanoidi non è privo di difficoltà e preoccupazioni. Uno degli ostacoli principali è rappresentato dall’effetto perturbante, il fenomeno per cui i robot umanoidi che assomigliano molto agli esseri umani possono provocare negli osservatori sentimenti di disagio o repulsione. Boston Dynamics ha cercato di mitigare questo fenomeno dando al nuovo Atlas un design amichevole e cartoonesco piuttosto che un aspetto umano ultra-realistico. Tuttavia, il superamento di tale effetto rimane un ostacolo per l’accettazione dei robot umanoidi da parte dei consumatori. Al di là dell’estetica, la loro complessità e il loro aspetto umanoide richiedono enormi progressi nell’intelligenza artificiale, nella tecnologia dei sensori e nella progettazione dell’hardware per diventare macchine di uso generale veramente valide. Ci sono anche considerazioni etiche sull’impatto sociale di robot umanoidi che lavorano sempre più a fianco dell’uomo. La sicurezza, la prevenzione degli abusi e il mantenimento della rilevanza della forza lavoro umana sono questioni che devono essere affrontate con attenzione. Ciononostante, il nuovo Atlas di Boston Dynamics rappresenta un importante passo avanti, mostrando un’incredibile abilità ingegneristica che continua a spingere i confini di ciò che gli umanoidi possono fare. Grazie alla collaborazione con Hyundai, il mondo assisterà alle innovative applicazioni reali che questo sistema avanzato consentirà di realizzare, superando l’effetto perturbante e altri ostacoli all’adozione dei robot umanoidi. [...]
Aprile 16, 2024L’ascesa delle interazioni con i chatbot basati sull’intelligenza artificiale Un dirigente del settore tecnologico ritiene che sia solo una questione di tempo prima che qualcuno sviluppi il prossimo servizio di appuntamenti da un miliardo di dollari che abbini utenti reali a donne generate dall’intelligenza artificiale. Come spiegato qui, in un post sul blog di X, Greg Isenberg, amministratore delegato di Late Checkout, ha rivelato di aver incontrato un uomo a Miami che “mi ha confessato di spendere 10.000 dollari al mese” per “fidanzate artificiali”. “Pensavo stesse scherzando”, ha scritto Isenberg. “Ma è un ragazzo single di 24 anni che lo adora”. “Alcune persone giocano con i videogiochi, io gioco con le fidanzate artificiali“, ha dichiarato l’uomo di Miami quando Isenberg gli ha chiesto cosa gli piacesse. The market cap for Match Group is $9B. Someone will build the AI-version of Match Group and make $1B+.I met some guy last night in Miami who admitted to me that he spends $10,000/month on "AI girlfriends".I thought he was kidding. But, he's a 24 year old single guy who loves… pic.twitter.com/wqnODwggAI— GREG ISENBERG (@gregisenberg) April 9, 2024 “Mi piace il fatto che ora posso usare le note vocali con le mie fidanzate artificiali”. “Posso personalizzare la mia ragazza IA”, ha detto l’uomo a Isenberg. “Mi piacciono, non mi piacciono, ecc. È confortante, alla fine della giornata”. L’uomo di Miami ha citato Candy.ai e Kupid.ai come i suoi due siti web preferiti. Candy.ai dichiara di offrire “l’esperienza di fidanzata AI definitiva”, con ” compagne virtuali per chat coinvolgenti e personalizzate”. Secondo Kupid AI, i loro algoritmi di intelligenza artificiale vengono utilizzati per creare “compagne” fittizie e virtuali con cui è possibile comunicare tramite note vocali. “È un po’ come le app di incontri. Non sei su una sola”, ha detto l’uomo di Miami. Isenberg ha dichiarato che l’esperienza lo ha lasciato “senza parole” e che “qualcuno costruirà la versione AI di Match Group e guadagnerà oltre 1 miliardo di dollari”. Match Group è la società madre di applicazioni di incontri come Plenty of Fish, Hinge, OkCupid, Match.com e Tinder. Grazie all’uso di una tecnologia in grado di replicare le conversazioni di persona, siti web come Romantic AI forniscono agli utenti partner virtuali per gli incontri. Con l’uso di un’app come Romantic AI, è possibile creare la fidanzata ideale che condivide i propri interessi e punti di vista. Ci si può sentire desiderati, sostenuti e in grado di discutere di tutto. Gli utenti di Forever Companion, un’altra app, possono conversare con chatbot modellati su noti influencer dei social media. Per qualche centinaio di dollari, gli utenti del programma di chatbot virtuale Replika possono progettare il proprio marito o partner. Alcune piattaforme, come Soulmate e Nomi.ai, promuovono addirittura giochi di ruolo erotici. L’avatar del chatbot AI può essere personalizzato dagli utenti, che possono assegnare doti di personalità a seconda che stiano cercando un amico, un mentore o un partner romantico. Qualsiasi chat erotica dovrebbe contenere istruzioni esplicite su ciò che l’utente desidera che accada, perché i messaggi potrebbero avere un risvolto in stile “sexting”. Selezionando l’abbigliamento dell’avatar e il livello di apertura al comportamento sessuale, gli utenti possono personalizzare Nomi.ai in base alle loro preferenze, a differenza di Replika, che ha dei filtri per impedire agli utenti di usare una terminologia sessuale eccessiva. Inoltre, gli utenti possono scegliere di assegnare ai loro chatbot un ruolo sottomesso o dominante. Un gruppo di utenti della Gen Z di TikTok ha dichiarato di essersi “innamorato” dell’alterego DAN di ChatGPT, che ha una voce seducente e virile che ha suscitato paragoni con Christian Grey di “Cinquanta sfumature di grigio”. Americani e chatbot Secondo un recente sondaggio Infobip, il 20% degli americani ha trascorso del tempo con i chatbot. Di questi, il 47,2% lo ha fatto per curiosità, mentre il 23,9% ha dichiarato di sentirsi solo e di essere alla ricerca di interazione sociale. Circa il 17% degli intervistati ha dichiarato di essere stato “vittima dell’AI”, ovvero di non essere consapevole di parlare con un chatbot. Il 12,2% degli intervistati ha dichiarato di essere alla ricerca di sesso in un ambiente privato. La creazione di assistenti virtuali alimentati dall’intelligenza artificiale sta iniziando a guadagnare popolarità e alcuni clienti stanno sborsando molto denaro per queste interazioni. Anche se le nuove tecnologie possono offrire nuove opportunità di interazione sociale e di compagnia, esse sollevano anche notevoli preoccupazioni per quanto riguarda implicazioni sociali più ampie. Da un lato, le persone che hanno difficoltà a costruire relazioni nel mondo reale potrebbero scoprire che questi compagni basati sull’IA soddisfano le loro richieste di intimità, supporto emotivo e connessione. Gli utenti alla ricerca di un’esperienza unica troverebbero interessante la personalizzazione e la natura su misura delle interazioni dell’IA. Tuttavia, affidarsi troppo alle IA a scapito dei legami reali potrebbe causare un maggiore isolamento sociale, rendere più difficile costruire veri legami con gli altri e affidarsi troppo a interazioni simulate. Occorre inoltre tenere in considerazione le implicazioni etiche di questi servizi di compagnia e di incontri basati sull’intelligenza artificiale. È importante considerare attentamente le questioni legate al consenso, alla manipolazione emotiva e alla possibilità di sfruttare gli utenti più deboli. I politici e gli esperti di etica dovranno valutare come stabilire e gestire eticamente questa nuova industria man mano che le tecnologie progrediscono. Alla fine, anche se l’intelligenza artificiale e la robotica possono fornire nuovi tipi di compagnia, il ripristino delle interazioni umane reali dovrebbe venire prima di tutto. Per mantenere un sano equilibrio tra le relazioni sociali mediate dalla tecnologia e quelle reali, sarà indispensabile promuovere l’empatia, l’intelligenza emotiva e gli incontri faccia a faccia. Come società, dobbiamo prestare attenzione al modo in cui includiamo queste IA nella nostra vita quotidiana, dando loro lo sviluppo e l’applicazione responsabile di cui abbiamo bisogno per integrare, e non sostituire, il nostro desiderio umano di base di legami profondi. [...]
Aprile 9, 2024Potenza e limiti dell’algoritmo di suggerimento di TikTok Sembra che il sofisticato algoritmo di suggerimenti di TikTok legga la vostra mente quando si tratta di suggerirvi i video da guardare. Il suo feed iper-personalizzato “Per te” emana una vibrazione quasi psichica, come se conoscesse molto bene le persone. Ma riesce davvero a cogliere i desideri e i pensieri più intimi? Un’analisi dettagliata indica che il quadro reale è più complesso. L’algoritmo di TikTok non determina rapidamente i vostri veri desideri, ma sviluppa i vostri interessi nel tempo per aumentare il coinvolgimento. A differenza di altre piattaforme, l’algoritmo di TikTok è in grado di determinare rapidamente le preferenze di un utente sulla base di un solo segnale cruciale. Ogni istante che passa quando si mette in pausa o si riproduce di nuovo un video fornisce all’algoritmo informazioni cruciali. In seguito, l’algoritmo utilizza queste informazioni per presentare materiale interessante e personalizzato che conduce gli spettatori in “tane di coniglio” uniche per i loro gusti. L’espressione intraducibile in italiano “tane di coniglio” fa riferimento al celebre passaggio dal mondo reale al mondo fantastico che si verifica nel romanzo “Alice nel paese delle meraviglie”, quando Alice segue il Coniglio Bianco nella sua “tana”, ritrovandosi così catapultata in una dimensione onirica e surreale (la cosiddetta “tana del bianconiglio”). Questa espressione idiomatica rende bene l’idea di come l’algoritmo di TikTok possa rapidamente far “sprofondare” gli utenti in contenuti sempre più specifici e talvolta problematici, in maniera quasi incontrollabile, come cadere nella “tana del bianconiglio” verso un mondo alternativo. Come spiegato qui, questo grado di personalizzazione presenta vantaggi e svantaggi per gli operatori di marketing. L’algoritmo di TikTok può far sembrare le pubblicità e le iniziative di branding estremamente attuali. Tuttavia, senza una supervisione umana, i contenuti possono potenzialmente sconfinare in nicchie più estreme. Comprendere il funzionamento del sistema è fondamentale per stabilire una connessione con i consumatori evitando pericolose derive. L’algoritmo di TikTok Sono state rese pubbliche alcune informazioni generali sul funzionamento del sistema di suggerimento di TikTok. Per raccomandare nuovi video, il sistema prende in considerazione elementi come i like, i commenti, le didascalie, i suoni e gli hashtag. Anche esperti esterni al settore hanno cercato di decifrare l’algoritmo. Secondo un’analisi del Wall Street Journal, TikTok influenza pesantemente il tempo di visione per invogliare gli utenti a scorrere all’infinito. Questa strategia orientata al coinvolgimento può occasionalmente condurre gli spettatori più giovani a contenuti discutibili, come materiale che incoraggia l’autolesionismo. Secondo quanto dichiarato, TikTok rimuove attivamente i video che violano le sue linee guida. La popolarità di TikTok è in parte dovuta alla semplicità con cui è possibile creare video con meme e musica integrati. La sua capacità di identificare gli interessi degli utenti e di indirizzarli verso “lati” specifici è sorprendentemente accurata per un gran numero di utenti. Diversi titoli di giornale che affermano la capacità quasi soprannaturale dell’algoritmo di capire una persona meglio di quanto questa conosca se stessa sono la prova della profonda conoscenza che l’app ha della vita interiore delle persone. L’articolo “The TikTok Algorithm Knew My Sexuality Better Than I Did” (L’algoritmo di TikTok conosceva la mia sessualità meglio di me) è un esempio notevole di come i suggerimenti della piattaforma possano fornire agli utenti riflessioni incredibilmente intime su se stessi, portando in superficie sentimenti e pensieri da livelli subconsci. Questi aneddoti dimostrano come l’algoritmo abbia mappato con precisione la psiche umana. I consigli di TikTok Come ho già detto, il modo in cui lo stream “For You” di TikTok presenta video che corrispondono ai sentimenti e ai pensieri inespressi degli utenti sembra quasi sorprendente. Tuttavia, non si tratta di un caso. È il risultato di un sistema di raccomandazione altamente sviluppato che l’azienda ha perfezionato per quasi dieci anni. Conoscere la storia dell’algoritmo di TikTok è utile per comprenderlo appieno. ByteDance, una startup cinese, è proprietaria di TikTok. Douyin è un’app che in passato utilizzava un meccanismo di suggerimento simile. ByteDance ha rilanciato Douyin come TikTok dopo essere entrata in nuovi mercati. Tuttavia, il potente algoritmo è rimasto invariato. Il New York Times è riuscito a ottenere un documento interno trapelato in cui si afferma che gli obiettivi principali di TikTok sono l’aumento del “valore utente”, del “valore utente a lungo termine”, del “valore del creator” e del “valore della piattaforma”. In particolare, l’obiettivo è ottimizzare il “tempo trascorso” (la quantità di tempo che un utente trascorre sull’app) e la “fidelizzazione”, due metriche strettamente correlate. L’obiettivo dell’algoritmo è massimizzare il tempo trascorso a guardare i video. La formula per i suggerimenti Il documento rivela che TikTok calcola un punteggio per ogni video sulla base di una formula che tiene conto di: Mi piace previsti: il numero di mi piace che un video dovrebbe ricevere, in base alle previsioni dell’apprendimento automatico; Commenti previsti: il numero di commenti previsti; Tempo di riproduzione previsto: il tempo di riproduzione totale previsto se mostrato a un utente; Riprodotto: se il video è stato riprodotto o meno. La formula di base è: Plike x Vlike + Pcomment x Vcomment + Eplaytime x Vplaytime + Pplay x Vplay In questo caso, le variabili “V” rappresentano i pesi che modificano l’importanza di ciascuna previsione, mentre le variabili “P” rappresentano le previsioni. Secondo il documento, si tratta di una formula “altamente semplificata”, mentre la formula reale è molto più complessa. Obiettivi dell’algoritmo di TikTok Massimizzazione della fidelizzazione e del tempo trascorso I video che ottimizzano la “fidelizzazione” e il “tempo trascorso” a guardare i video vengono consigliati agli utenti in base ai loro punteggi. Il documento chiarisce che la crescita degli utenti attivi giornalieri attraverso queste metriche è “l’obiettivo finale”. Guillaume Chaslot, fondatore di Algo Transparency, e altri esperti fanno eco a questa enfasi sui contenuti che fanno perdere tempo e creano dipendenza, al di sopra della qualità o del merito. In questo modo TikTok modella i vostri interessi per adattarli ai contenuti interessanti, e non viceversa. Invece di rivelare le vostre vere preferenze, aumenta il tempo di visione. Soppressione della ripetizione e della noia È degno di nota il fatto che l’algoritmo di TikTok cerchi di evitare di generare suggerimenti ripetitivi, poiché ciò potrebbe portare alla monotonia. L’articolo esamina alcuni elementi particolari che sono stati aggiunti alla formula per aumentare la diversità: same_author_seen: riduce i punteggi per gli autori che l’utente ha visto di recente; same_tag_today: riduce i punteggi per i video con tag/argomenti già visti quel giorno. La variabilità può essere aumentata anche con altre strategie, come la distribuzione graduale dei video e l’imposizione dell’inclusione di contenuti diversi nei feed degli utenti. TikTok modella gli interessi nel tempo È importante notare che, a differenza della lettura del pensiero, quando ci si iscrive a TikTok, l’algoritmo non conosce immediatamente i vostri pensieri e le vostre preferenze. Sulla base di pochi dati iniziali – le vostre risposte ad alcuni video – l’algoritmo crea delle previsioni. Ad esempio, quando un nuovo utente accede per la prima volta a TikTok può vedere una serie di video molto apprezzati di diversi generi, come umorismo, animali, cibo, ballo, ecc. TikTok inizia a raccogliere segnali sulle preferenze di un utente in base a quanto tempo passa a guardare determinati video e a quali gli piacciono o commentano. Man mano che uno spettatore guarda più video, l’algoritmo di TikTok diventa più bravo a capire cosa vuole guardare. Per guidare le raccomandazioni, valuta l’attività continua degli utenti osservando indicatori come il tempo di visione, i like, le condivisioni, i commenti, ecc. Con ogni nuovo dato, le previsioni sui tipi di video che interessano a un determinato spettatore migliorano. Ad esempio, TikTok potrebbe cambiare e presentare più contenuti legati al cibo se gli utenti iniziano a vedere video di cucina gourmet e ricette di dolci elaborati. Il professor Julian McAuley della UC San Diego sostiene che TikTok applica complesse tecniche di apprendimento automatico a enormi quantità di dati degli utenti in combinazione con questi segnali comportamentali. Di conseguenza, l’algoritmo è in grado di rappresentare in modo sempre più accurato gli interessi individuali. Tuttavia, è fondamentale che TikTok non mostri sempre contenuti in linea con i veri interessi o desideri degli utenti; il suo obiettivo è piuttosto quello di massimizzare l’interazione e il tempo di visione. Piuttosto che suggerire qualcosa che i consumatori sceglierebbero naturalmente, ottimizza per tenerli agganciati sulla base di un comportamento simile alla dipendenza. TikTok rafforza le tendenze esistenti Piuttosto che rivolgersi a caratteristiche specifiche del pubblico o a interessi personali insoliti, TikTok serve in genere a promuovere tendenze popolari e successi virali. Uno studio ha scoperto una forte correlazione tra i like e le visualizzazioni di un video su TikTok. I video più popolari, indipendentemente dalle preferenze personali, ricevono rapidamente più visualizzazioni, like e commenti.Il successo di un video è fortemente influenzato da fattori quali la popolarità del creator. Il suo algoritmo non si limita a gratificare i singoli consumatori, ma trova risonanze e le amplifica. Raggiungere la viralità Uno studio dettagliato ha analizzato i fattori che rendono virali i video di TikTok. Ha rilevato attributi come: La popolarità del creatore L’uso di riprese ravvicinate Visualizzazione di prodotti Alta energia ed espressioni facciali Il sistema di suggerimenti di TikTok ha avuto un effetto molto limitato sulla viralità. Un video non diventa virale solo perché viene consigliato su TikTok. Questo studio rivela che, piuttosto che i suggerimenti iper-personalizzati, la viralità è causata dal comportamento aggregato degli utenti e dagli attributi dei video. Censura Inoltre, si teme che TikTok censuri o limiti l’espressione politica su argomenti che il governo cinese ritiene controversi. Sebbene TikTok abbia inizialmente limitato alcuni contenuti sulle minoranze musulmane represse in Cina, le indagini di gruppi come Citizen Lab hanno finora portato alla luce poche prove di censura. Altri sostengono che ci siano problemi associati alla censura e alla propaganda, ma non sono esclusivi di TikTok. Ogni sito di social media controlla i contenuti e i dati di ogni piattaforma potrebbero essere acquistati dal governo cinese. TikTok sostiene che il governo cinese non ha mai ricevuto i dati degli utenti. Ciò non significa tuttavia che, nonostante i problemi precedenti, TikTok non sia direttamente collegato alla sua società madre cinese, ByteDance. La proprietà di TikTok da parte di ByteDance è diventata una questione importante alla fine della presidenza di Donald Trump nel 2020. All’epoca, Trump cercò di costringere TikTok a vendersi a una società americana chiamata Oracle, allineata con la sua amministrazione. Cosa rende efficace l’algoritmo di TikTok? Sulla base di tutte le analisi e le prove tecniche, possiamo evidenziare i seguenti punti chiave: Richiede pochissimi dati degli utenti: A differenza di piattaforme come Facebook o Instagram, che si basano pesantemente su dati personali come età, sesso e posizione, TikTok ha bisogno di input minimi per capire una persona. L’ora dell’orologio è il segnale critico: Sebbene TikTok tenga conto di like, commenti e altro, il suo algoritmo si concentra su un dato particolarmente significativo: l’ora dell’orologio, in particolare le ripetizioni e le esitazioni. Suggerimenti altamente reattivi: Sulla base di questi segnali di tempo di osservazione, TikTok fornisce rapidamente nuove indicazioni, consentendo di individuare rapidamente gli interessi di nicchia. Potente sistema di classificazione: I nuovi video non appaiono a caso. Vengono classificati e classificati in base al coinvolgimento previsto. Questo sistema dà all’algoritmo una grande influenza su ciò che gli utenti vedono. Iterazioni personalizzate: TikTok adatta gli aggiornamenti e i perfezionamenti del suo algoritmo in modo specifico per ogni mercato. Negli Stati Uniti, quindi, il sistema di TikTok migliora in base ai dati degli utenti statunitensi. Grazie a questa strategia innovativa, TikTok può acquisire rapidamente una conoscenza più approfondita dei nuovi utenti e sfruttarla per invogliarli a utilizzare maggiormente l’app. Esaminiamo ora alcuni esperimenti che dimostrano la rapidità con cui TikTok riesce a identificare una persona. L’effetto Rabbit Hole Il Wall Street Journal ha creato più di 100 account bot e ha visualizzato centinaia di migliaia di video su TikTok per testare a fondo l’algoritmo della piattaforma. Sebbene gli interessi siano stati assegnati agli account, TikTok non ne ha mai ricevuto notifica. Gli unici dati forniti dai bot riguardavano il tempo di visione di ogni video, soffermandosi su alcuni e rivedendone altri. I risultati sono stati sorprendenti. Ecco alcuni risultati chiave: Interessi appresi in pochi minuti: Per molti account bot, TikTok ha individuato i loro interessi in meno di 40 minuti. Altri hanno impiegato meno di due ore prima che i loro feed diventassero personalizzati. Comunità di nicchia immediate: Sulla base di interessi come l’astrologia o la politica, i bot raccomandavano istantaneamente contenuti e comunità di nicchia. Non c’è stato un periodo generale di inserimento. Rapide “tane di coniglio”: Guardando alcuni video sulla depressione o sull’ADHD, i bot sono finiti in una tana di coniglio dove oltre il 90% delle raccomandazioni riguardava questi argomenti. Affinamento degli interessi: Quando i bot hanno cambiato il loro comportamento di osservazione, i suggerimenti si sono adattati rapidamente. Questo dimostra che TikTok ottimizza continuamente la sua comprensione. Esposizione a contenuti marginali: Nelle comunità di nicchia, i bot hanno visto un maggior numero di video non moderati con contenuti estremisti o pericolosi, in particolare nelle tane della teoria del complotto. Questi risultati hanno ramificazioni molto importanti. Dimostrano come TikTok sia in grado di individuare rapidamente le inclinazioni e i punti deboli degli utenti, al fine di manipolarli per farli scendere in tane di coniglio personalizzate. Gli utenti rischiano così di isolarsi in modo malsano, ma questo li tiene anche impegnati sulla piattaforma. Perché l’algoritmo di TikTok è così potente Il motivo della sorprendente precisione di TikTok diventa evidente quando si osserva l’algoritmo in azione. È in grado di condurre rapidamente gli utenti verso tane di coniglio personalizzate per i seguenti motivi principali: Focus sull’engagement estremamente spinto: A differenza di YouTube, il 90-95% dei video di TikTok sono consigliati, non cercati. Questa grande dipendenza dall’algoritmo significa che la priorità è la massimizzazione del tempo di visione e del coinvolgimento. Ciclo di ottimizzazione rapido: Poiché gli utenti guardano in genere decine di video di TikTok per sessione, l’algoritmo può imparare rapidamente da questi segnali e aggiornare i suggerimenti in tempo reale. Formule video coinvolgenti: I suoni, il montaggio, l’umorismo e molto altro ancora vengono perfezionati per attirare gli utenti. L’algoritmo individua i contenuti che attirano l’attenzione e promuove quelli simili. I contenuti che vedete non sono necessariamente quelli che preferite o che vi piacciono di più. È solo il contenuto progettato per tenervi attaccati alla piattaforma. Mainstream curato: I contenuti più popolari sono controllati per i nuovi utenti. Ma una volta determinati gli interessi, i video mainstream vengono scambiati con contenuti di nicchia ottimizzati per il rabbit holing. Rilevamento delle vulnerabilità: l’algoritmo determina non solo ciò che piace, ma anche ciò a cui si è sensibili, proponendo contenuti progettati per provocare reazioni e suscitare emozioni. Moderazione limitata: Con una tale quantità di video, la moderazione umana è carente, soprattutto nelle nicchie esoteriche. I contenuti discutibili possono quindi diffondersi rapidamente. Un feed infinito che crea dipendenza: TikTok è progettato per uno scorrimento infinito. Non ci sono spunti per smettere di guardare. Una volta entrati nella tana del coniglio, uscirne può richiedere una grande forza di volontà. Questo grado di competenza algoritmica offre sia vantaggi che rischi per i marketer e le aziende. In seguito vedremo gli effetti dell’esperienza altamente personalizzata e coinvolgente di TikTok. Implicazioni per i marketer per la creazione di contenuti Per i marketer, TikTok rimane una piattaforma molto interessante per raggiungere il pubblico più giovane. Ma il suo algoritmo implica alcune best practice: Sfruttare le tendenze popolari: Collegarsi ai meme, alle canzoni o ai creatori virali del momento aumenta drasticamente la portata. I contenuti unici hanno più difficoltà a farsi strada. Massimizzare le qualità della dipendenza: I video che catturano immediatamente gli utenti e li trattengono a guardare sono i più efficaci. Tagli rapidi, contenuti emozionali e cliffhanger sono utili. Utilizzate un’estetica accattivante: Effetti di grande effetto, persone attraenti e immagini trigonometriche codificate sono essenziali. I primi secondi sono fondamentali per evitare che le persone scorrano oltre il video. Rivolgetevi agli interessi più diffusi: Il raggiungimento di massa su TikTok dipende dall’attingere alle tendenze e agli interessi mainstream. Incoraggiate il coinvolgimento: Aumentare i like, i commenti e le condivisioni aumenta la portata futura. Chiedere agli spettatori di taggare gli amici o di provare una sfida aiuta. Per avere successo con l’algoritmo di TikTok è necessario un approccio che privilegi il piacere rapido, la stimolazione sensoriale e l’attrattiva generale rispetto alla personalizzazione profonda o al richiamo di interessi specifici. Ciò che funziona meglio è determinato dalle priorità della piattaforma. Sebbene TikTok non sia in grado di leggere con precisione la mente delle persone, ha imparato l’arte di individuare il tipo di contenuto che susciterebbe un’ampia interazione. Le aziende possono raggiungere il pubblico più giovane in modo molto più efficace se imparano a creare all’interno di questi limiti. Tuttavia, è necessario adattare la propria strategia alla mentalità e alle passioni che la piattaforma instilla gradualmente nei suoi utenti. Cosa significa l’algoritmo di TikTok per gli inserzionisti L’algoritmo intelligente di TikTok è chiaramente interessante per i marketer e le aziende. Offre risorse per raggiungere con precisione il pubblico corretto in un ambiente altamente coinvolgente con innovazioni personalizzate. Tuttavia, considerando la natura delle tane di coniglio personalizzate di TikTok, ci sono ulteriori preoccupazioni da considerare. Quando prendono in considerazione TikTok, gli esperti di marketing dovrebbero tenere a mente i seguenti punti: Le opportunità Annunci iper-targettizzati: Utilizzando gli interessi, i dati sugli orologi e altro ancora, gli annunci possono essere sintonizzati sulle esigenze e sulle mentalità specifiche degli utenti per ottenere la massima pertinenza. Funnel basati sulle persone: È possibile progettare creative diverse per far avanzare le varie tipologie di persone attraverso il funnel di marketing, in base ai loro interessi e ai loro modelli di comportamento. Potente spinta sociale: I contenuti che fanno tendenza su TikTok possono creare una spinta sociale virale come nessun’altra piattaforma. L’algoritmo fa emergere rapidamente i contenuti più interessanti. Appello all’autenticità: I contenuti nativi e “dietro le quinte” del marchio tendono a ottenere buoni risultati, grazie all’atmosfera più autentica di TikTok rispetto a Instagram e Facebook. Miniera d’oro di influencer: Il gruppo di creatori popolari di TikTok offre opportunità per sponsorizzazioni e collaborazioni mirate a un pubblico di nicchia. I rischi Contenuti di nicchia estremi: L’associazione del marchio a contenuti marginali potenzialmente offensivi o pericolosi potrebbe essere dannosa. È necessaria una moderazione dei contenuti più rigorosa. Radicalizzazione algoritmica: Gli account incentrati su argomenti sensibili come politica, salute e altro possono essere indirizzati verso una disinformazione sempre più estrema. Cassa di risonanza: Assecondare i pregiudizi esistenti delle persone può alimentare la polarizzazione e scoraggiare l’apertura mentale. La diversificazione delle raccomandazioni potrebbe contribuire ad attenuare questo problema. Sfide di scala per la moderazione: Con oltre un miliardo di utenti, il controllo dei singoli video problematici rappresenta una sfida enorme, che richiede un esame più rapido dei video virali. Vulnerabilità dei giovani: Per proteggere i minori da contenuti inappropriati o per adulti sono necessari controlli più severi sull’età e sui genitori. Trovare l’equilibrio ideale sarà fondamentale per le aziende, che potranno sfruttare le caratteristiche altamente personalizzate e coinvolgenti di TikTok, evitando al contempo pericolose tane di coniglio ed elementi marginali. I marchi, TikTok e gli utenti hanno tutti un ruolo da svolgere per mantenere questo equilibrio. Le migliori pratiche per i marketer Sebbene TikTok offra molte opzioni interessanti per i marketer, ci sono anche dei rischi seri di cui essere consapevoli. Ecco alcune best practice che i brand dovrebbero tenere a mente: Valutare attentamente gli ambasciatori: Tutti gli influencer o i creatori associati a un marchio devono essere in linea con i suoi valori. Guardare oltre il numero di visualizzazioni per valutare la qualità dei contenuti. Promuovere il pensiero dialettico: Piuttosto che dare eco a opinioni marginali, sforzatevi di incoraggiare l’apertura mentale. Concentrarsi a livello locale: TikTok personalizza i feed in base alla posizione. I contenuti locali e incentrati sulla comunità tendono a coinvolgere gli utenti. Rimanere fedeli al marchio: Anche se un’atmosfera rilassata e dietro le quinte funziona, mantenete la voce e i valori del vostro marchio. Non cercate di imitare ogni tendenza virale. Proteggere il pubblico giovane: Siate prudenti nel bloccare i minori dai contenuti destinati a un pubblico adulto. Evitate anche le tattiche di marketing che mirano a creare dipendenza tra i giovani. Rimanere vigili: Continuate a monitorare la conversazione e la presenza del vostro marchio. Una risposta rapida è fondamentale per le questioni controverse. Sfruttare i controlli di TikTok: Utilizzate strumenti come l’age-gating, il geofencing e le schermate di sensibilità per garantire la sicurezza del marchio e allinearvi alle politiche della piattaforma. Mescolare i metodi di moderazione: Affidarsi esclusivamente all’intelligenza artificiale o ai moderatori umani ha dei punti deboli. Un modello misto fornisce una supervisione più forte. Sebbene sia necessario un po’ di denaro per diventare abili su TikTok, i marketer dovrebbero considerare i potenziali vantaggi derivanti dall’utilizzo del suo algoritmo altamente coinvolgente e personalizzato. Ricordate che un enorme potere algoritmico comporta una notevole responsabilità. La consapevolezza è fondamentale L’algoritmo di TikTok offre agli utenti un grado di selezione senza precedenti. Capta le nostre passioni nascoste con una rapidità sorprendente e ci presenta materiale personalizzato che ci interessa. Tuttavia, le stesse tecnologie che modellano delicatamente le nostre percezioni possono anche intrappolare le persone in bolle di filtraggio sfavorevoli. Inoltre, è difficile moderare adeguatamente i contenuti a causa del loro enorme volume. Per questo motivo la consapevolezza è fondamentale. È possibile identificare le aree di sviluppo prestando attenzione a come l’algoritmo di TikTok indirizza la pagina For You. Il ruolo dell’intelligenza artificiale Anche se il sistema di suggerimenti di TikTok a volte emana una vibrazione quasi psichica, l’intelligenza artificiale non è ancora realmente in grado di discernere i pensieri o le intenzioni delle persone. Il sistema non è in grado di leggere direttamente i pensieri di un utente, ma impiega tecniche di apprendimento automatico per ottimizzare determinati obiettivi, come il coinvolgimento. Fondamentalmente, l’algoritmo di TikTok esamina il comportamento degli utenti, compreso il tempo in cui guardano determinati filmati e quello che toccano per commentare o condividere. Per prevedere i tipi di materiale che saranno più coinvolgenti, cerca tra milioni di dati degli utenti per individuare i modelli. Tuttavia, non può accedere direttamente all’immaginazione, ai sentimenti o alle convinzioni di fondo di una persona. L’intelligenza artificiale non legge la mente, ma è uno strumento di ottimizzazione. È importante riconoscere i suoi limiti. L’importanza della supervisione umana L’algoritmo di TikTok è un esempio di sistema automatizzato che può essere estremamente prezioso nel rivelare informazioni e tendenze rilevanti. Tuttavia, i pericoli di estremismo, polarizzazione e mancanza di diversità evidenziano l’importanza di un controllo umano significativo. Per fornire i migliori risultati alla società, i sistemi automatici devono collaborare con i moderatori, con il feedback degli utenti e con politiche appropriate. La saggezza e l’etica necessarie per una guida così sofisticata sono assenti nella sola IA. Abitudini digitali L’uso responsabile degli algoritmi è una strada a doppio senso. Affinché gli utenti formino abitudini digitali sane, è necessaria anche la consapevolezza. Consumare senza sosta contenuti su misura incoraggia azioni simili alla dipendenza. Limitare le informazioni, cambiare le fonti, cercare attivamente punti di vista diversi e fare delle pause sono tutti modi per compensare gli eccessi dei feed algoritmici. Anche se i sistemi di raccomandazione forti esisteranno sempre, le persone possono uscire dai comportamenti di consumo passivo facendo piccoli cambiamenti quotidiani. TikTok si avvale di incredibili capacità algoritmiche, ma la vera saggezza richiede la consapevolezza umana. Gli strumenti digitali possono illuminare le nostre menti, anziché divorarle, se vengono usati con cura, creatività e comprensione. Se da un lato l’algoritmo di TikTok dimostra una straordinaria capacità di personalizzare rapidamente i contenuti e di attirare gli utenti in percorsi coinvolgenti, dall’altro la vera natura della sua “lettura della mente” rimane ambigua. Sebbene l’algoritmo possa sembrare quasi psichico nella sua precisione, in ultima analisi opera sulla base di modelli comportamentali e tecniche di ottimizzazione, non sull’accesso diretto ai pensieri e ai desideri più intimi degli utenti. In definitiva, l’algoritmo di TikTok rappresenta un potente strumento guidato dall’intelligenza artificiale per modellare le esperienze degli utenti, ma ha ancora dei limiti significativi nel comprendere veramente la psiche umana. Con la continua evoluzione della piattaforma, la linea di demarcazione tra l’inferenza algoritmica e la vera e propria lettura della mente potrebbe diventare sempre più labile. Resta da vedere se TikTok riuscirà mai a superare questa linea, lasciando un elemento di dubbio sulla piena portata delle sue capacità predittive. La vigilanza, la trasparenza e la supervisione responsabile saranno fondamentali con l’avanzare di questa potente tecnologia. [...]
Aprile 2, 2024Gli esperti sollevano preoccupazioni sull’impatto psicologico della resurrezione digitale dei propri cari Il lutto e la perdita riguardano la vita di tutti. Ma se dire addio non fosse l’ultimo stadio? Immaginate di avere la possibilità di comunicare con i vostri cari, di riportarli indietro digitalmente e di sapere come stanno ovunque si trovino. Come spiegato qui, Nigel Mulligan, professore assistente di psicoterapia presso la Dublin City University, ha sottolineato che per molte persone il pensiero di vedere una persona cara defunta muoversi e parlare di nuovo potrebbe essere confortante. Questi “fantasmi” creati con l’intelligenza artificiale potrebbero portare a psicosi, stress e confusione Mulligan è un ricercatore di IA e terapia che trova affascinante l’emergere di bot fantasma. Ma è anche preoccupato per l’impatto che possono avere sulla salute mentale delle persone, soprattutto di quelle in lutto. Riportare in vita persone decedute come avatar potrebbe creare più problemi di quanti ne risolva, aumentando la confusione, lo stress, la tristezza, l’ansia e, in circostanze estreme, persino la psicosi. Grazie agli sviluppi dell’intelligenza artificiale, i chatbot come ChatGPT – che simulano l’interazione umana – sono diventati più comuni. Il software di intelligenza artificiale può creare rappresentazioni virtuali convincenti di persone decedute utilizzando dati digitali, tra cui e-mail, video e immagini, con l’uso della tecnologia deepfake. Mulligan sostiene che ciò che sembrava pura finzione nella fantascienza sta ora diventando una realtà fisica in ambito scientifico. Questi fantasmi artificiali potrebbero interferire con il processo di elaborazione del lutto Uno studio pubblicato su Ethics and Information Technology suggerisce di utilizzare questi bot come conforto temporaneo durante il processo di lutto, per evitare una dipendenza emotiva dalla tecnologia. Questi fantasmi artificiali possono interferire con il normale processo di elaborazione del lutto e influire sulla salute mentale delle persone dato che il lutto è un processo a lungo termine che inizia lentamente e progredisce attraverso molte fasi nel corso di diversi anni. Le persone possono spesso pensare a coloro che hanno perso e ricordarli vividamente durante le prime fasi del lutto. Secondo Mulligan, è tipico delle persone in lutto fare sogni vividi sui loro cari scomparsi. I “bot fantasma” potrebbero provocare allucinazioni Lo psicoanalista Sigmund Freud era profondamente interessato a come gli individui affrontano la perdita. Egli notò che durante il processo di elaborazione del lutto possono sorgere ulteriori difficoltà se ci sono aspetti negativi coinvolti. Per esempio, se qualcuno provava sentimenti contrastanti nei confronti di una persona deceduta, potrebbe sentirsi in colpa in seguito. Allo stesso modo, accettare una morte in circostanze tragiche – come un omicidio, per esempio – può essere molto più difficile per la persona in lutto. La melanconia, è il nome usato da Freud per descrivere questo sentimento. Nei casi più gravi, può portare una persona a vedere fantasmi o ad avere allucinazioni del defunto, con l’impressione che sia ancora vivo. L’introduzione di bot fantasma potrebbe peggiorare i problemi, come le allucinazioni e aumentare la sofferenza di una persona che sta vivendo un processo di lutto complesso. Sebbene l’idea di comunicare digitalmente con i propri cari defunti possa sembrare inizialmente confortante, questa tecnologia potrebbe avere impatti psicologici profondamente negativi. Interagire con un avatar generato dall’intelligenza artificiale o con un ” bot fantasma” rischia di interrompere il naturale processo di elaborazione del lutto che gli esseri umani devono affrontare dopo una perdita. Il processo di elaborazione del lutto prevede molte fasi nel corso degli anni: avere una rappresentazione artificiale del defunto potrebbe portare a una malsana negazione della morte, all’evitamento di scendere a patti con la realtà e all’incapacità di lasciarla andare correttamente. Sebbene l’etica della creazione di queste “resurrezioni digitali” sia discutibile, la ricaduta psicologica di confondere le rappresentazioni artificiali con la realtà rappresenta un serio rischio. Man mano che le capacità dell’IA continuano a progredire, sarà fondamentale per i tecnologi considerare attentamente le implicazioni per la salute mentale. Un abuso sconsiderato di questa tecnologia potrebbe causare danni emotivi e psicologici significativi a persone in lutto che stanno affrontando una perdita. Procedere con empatia è fondamentale quando si fonde una potente IA con qualcosa di così profondo come il dolore e la mortalità umana. [...]
Marzo 26, 2024I ricercatori hanno scoperto semplici funzioni alla base di complessi modelli linguistici I modelli linguistici di grandi dimensioni sono estremamente sofisticati; ne sono un esempio i chatbot di intelligenza artificiale ampiamente utilizzati, come ChatGPT. Gli scienziati non hanno ancora compreso appieno il funzionamento di questi modelli, nonostante siano impiegati come strumenti in numerosi campi, tra cui la traduzione linguistica, lo sviluppo di codici e l’assistenza ai clienti. Per comprendere meglio il funzionamento di questi enormi modelli di apprendimento automatico, i ricercatori del MIT e di altre istituzioni hanno esaminato le tecniche di recupero delle conoscenze memorizzate. Secondo questo articolo, hanno scoperto un dato inaspettato: Per recuperare e decodificare i fatti memorizzati, i modelli linguistici di grandi dimensioni (LLM) utilizzano spesso una funzione lineare relativamente semplice. Inoltre, il modello applica la stessa funzione di decodifica a fatti di tipo simile. La relazione semplice e diretta tra due variabili è catturata dalle funzioni lineari, che sono equazioni con due sole variabili e senza esponenti. I ricercatori hanno dimostrato come sia possibile sondare il modello per scoprire cosa sa su nuovi argomenti e dove tale conoscenza è stata memorizzata all’interno del modello, identificando le funzioni lineari per vari fatti. I ricercatori hanno scoperto che, anche nei casi in cui un modello fornisca una risposta imprecisa a una richiesta, spesso conserva dati accurati utilizzando un metodo da loro ideato per calcolare queste semplici funzioni. In futuro, questo metodo potrebbe essere utilizzato dagli scienziati per identificare e correggere gli errori all’interno del modello, riducendo così la propensione del modello a produrre occasionalmente risultati errati o assurdi. “Anche se questi modelli sono funzioni non lineari molto complicate, addestrate su molti dati e molto difficili da capire, a volte al loro interno funzionano meccanismi molto semplici. Questo è un esempio”, spiega Evan Hernandez, studente di ingegneria elettrica e informatica (EECS) e coautore di un articolo che illustra questi risultati. Hernandez ha collaborato al lavoro con l’autore principale David Bau, professore assistente di informatica alla Northeastern, con altri ricercatori del MIT, dell’Università di Harvard e dell’Istituto israeliano di tecnologia, con il coautore Arnab Sharma, studente laureato in informatica alla Northeastern University e con il suo consulente Jacob Andreas, professore associato di EECS e membro del Computer Science and Artificial Intelligence Laboratory (CSAIL). Lo studio sarà presentato alla Conferenza internazionale sull’apprendimento delle rappresentazioni. Trovare i fatti Le reti neurali costituiscono la maggior parte dei modelli linguistici di grandi dimensioni, noti anche come modelli trasformatori. Le reti neurali, modellate sul modello del cervello umano, sono costituite da miliardi di nodi interconnessi, o neuroni, che codificano ed elaborano i dati. Questi neuroni sono disposti in numerosi strati. La conoscenza di un trasformatore può essere modellata principalmente in termini di relazioni tra soggetti e oggetti. Un esempio di relazione tra il soggetto, Miles Davis, e l’oggetto, la tromba, è “Miles Davis suona la tromba”. Un trasformatore conserva più informazioni su un certo argomento attraverso diversi livelli, man mano che acquisisce maggiore conoscenza. Per rispondere alla domanda dell’utente su quell’argomento, il modello deve decodificare il fatto più pertinente. Quando un trasformatore viene sollecitato con la frase “Miles Davis suona la…”, invece di “Illinois”, che è lo stato di nascita di Miles Davis, dovrebbe dire “tromba”. “Da qualche parte nel calcolo della rete deve esserci un meccanismo che va a cercare il fatto che Miles Davis suona la tromba, e poi estrae questa informazione e aiuta a generare la parola successiva. Volevamo capire quale fosse questo meccanismo”, spiega Hernandez. Attraverso una serie di studi, i ricercatori hanno analizzato gli LLM e hanno scoperto che, nonostante la loro immensa complessità, i modelli utilizzano una semplice funzione lineare per decodificare le informazioni relazionali. Ogni funzione è unica per il tipo di fatto che viene recuperato. Per esempio, per indicare lo strumento che una persona suona, il trasformatore userebbe una funzione di decodifica, mentre per indicare lo stato di nascita di una persona userebbe una funzione diversa. I ricercatori hanno calcolato le funzioni per 47 relazioni distinte, tra cui “capitale di un paese” e “cantante di una band”, dopo aver sviluppato un metodo per stimare queste semplici funzioni. Sebbene il numero di relazioni possibili sia infinito, i ricercatori si sono concentrati su questo particolare sottoinsieme perché è tipico dei tipi di fatti che possono essere scritti in questo modo. Per verificare se ogni funzione fosse in grado di recuperare le informazioni corrette sull’oggetto, hanno cambiato il soggetto per ogni test. Se l’oggetto è la Norvegia, la funzione “capitale di un paese” dovrebbe restituire Oslo; se l’oggetto è l’Inghilterra, dovrebbe restituire Londra. Per oltre il 60% del tempo, le funzioni sono state in grado di estrarre le informazioni corrette, indicando che alcune informazioni in un trasformatore sono codificate e recuperate in questo modo. “Ma non tutto è codificato in modo lineare. Per alcuni fatti, anche se il modello li conosce e predice un testo coerente con questi fatti, non riusciamo a trovare funzioni lineari. Questo suggerisce che il modello sta facendo qualcosa di più complesso per memorizzare quelle informazioni”, spiega. Visualizzare la conoscenza di un modello Le funzioni sono state utilizzate anche per determinare la veridicità delle convinzioni del modello su determinati argomenti. In un esperimento, hanno iniziato con l’istruzione “Bill Bradley era un” e hanno testato la capacità del modello di riconoscere che il senatore Bradley era un giocatore di pallacanestro che aveva frequentato Princeton, utilizzando le funzioni di decodifica per “fa sport” e “ha frequentato l’università”. “Possiamo dimostrare che, anche se il modello può scegliere di concentrarsi su informazioni diverse quando produce il testo, codifica tutte le informazioni”, dice Hernandez. I ricercatori hanno creato quella che definiscono una “lente di attributo”, una griglia che mostra dove sono conservati i dettagli precisi di una certa relazione all’interno dei molteplici strati del trasformatore, utilizzando questa tecnica di sondaggio. È possibile costruire automaticamente le lenti di attributo, che offrono un modo semplificato per aiutare i ricercatori a saperne di più su un modello. Con l’uso di questo strumento di visualizzazione, ingegneri e scienziati potrebbero essere in grado di aggiornare le conoscenze memorizzate e impedire a un chatbot basato sull’intelligenza artificiale di fornire informazioni false. In futuro, Hernandez e i suoi collaboratori sperano di saperne di più su ciò che accade quando i fatti non vengono conservati in modo sequenziale. Inoltre, vorrebbero studiare l’accuratezza delle funzioni di decodifica lineare e condurre test con modelli più ampi. “Questo è un lavoro entusiasmante che rivela un tassello mancante nella nostra comprensione del modo in cui i modelli linguistici di grandi dimensioni richiamano la conoscenza dei fatti durante l’inferenza. Il lavoro precedente ha dimostrato che gli LLM costruiscono rappresentazioni ricche di informazioni di determinati soggetti, da cui vengono estratti attributi specifici durante l’inferenza. Questo lavoro dimostra che il complesso calcolo non lineare degli LLM per l’estrazione degli attributi può essere ben approssimato con una semplice funzione lineare”, afferma Mor Geva Pipek, professore assistente presso la Scuola di Informatica dell’Università di Tel Aviv, che non è stato coinvolto in questo lavoro. La Fondazione israeliana per la scienza, Open Philanthropy e una Azrieli Foundation Early Career Faculty Fellowship hanno fornito alcuni finanziamenti per questo studio. Se da un lato questa ricerca fornisce preziose indicazioni su come i modelli linguistici di grandi dimensioni codificano e recuperano alcuni tipi di conoscenze fattuali, dall’altro evidenzia che c’è ancora molto da scoprire sul funzionamento interno di questi sistemi estremamente complessi. La scoperta di semplici funzioni lineari utilizzate per il recupero di alcuni fatti è una scoperta intrigante, ma sembra essere solo un pezzo di un puzzle molto intricato. Come hanno osservato i ricercatori, non tutte le conoscenze sembrano essere codificate e accessibili attraverso questi meccanismi lineari. È probabile che in questi modelli siano in gioco processi più complessi e non lineari per altri tipi di memorizzazione e recupero delle informazioni. Inoltre, le ragioni per cui alcuni fatti vengono decodificati in modo errato, anche quando sono presenti le informazioni giuste, rimangono poco chiare. In futuro, saranno necessarie ulteriori ricerche per mappare completamente i percorsi e gli algoritmi che queste IA linguistiche utilizzano per elaborare, memorizzare e produrre informazioni. La visualizzazione della “lente degli attributi” potrebbe rivelarsi uno strumento prezioso in questo senso, consentendo agli scienziati di ispezionare i diversi livelli e le rappresentazioni dei fatti all’interno dei modelli. In definitiva, è fondamentale acquisire una comprensione più completa del funzionamento di questi grandi modelli linguistici. Poiché le loro capacità e applicazioni continuano a espandersi rapidamente, sarà sempre più importante garantirne l’affidabilità, la sicurezza e l’allineamento con i comportamenti previsti. Scrutare nelle loro scatole nere meccanicistiche attraverso metodi come questa analisi di decodifica lineare sarà una parte essenziale di questo processo. [...]
Marzo 19, 2024Figura 01 + ChatGPT = L’integrazione rivoluzionaria solleva preoccupazioni etiche Un nuovo robot umanoide che funziona con ChatGPT di OpenAI inizia a ricordare l’IA Skynet del film di fantascienza Terminator. Sebbene Figure 01 non sia un robot letale, è in grado di svolgere attività autonome di base e, con l’assistenza di ChatGPT, conversazioni umane in tempo reale. Secondo questo articolo, la macchina utilizza ChatGPT per visualizzare oggetti, pianificare azioni future e persino riflettere sulla propria memoria, come mostrato in un video dimostrativo fornito da Figure AI. Il robot cattura le foto dalle sue telecamere che riprendono l’ambiente circostante e le inoltra a un modello di linguaggio visuale di grandi dimensioni addestrato da OpenAI, che traduce le immagini al robot. Nel video, un uomo chiede all’umanoide di lavare i piatti, mettere via i vestiti sporchi e dargli qualcosa da mangiare e il robot porta a termine i compiti, anche se Figure sembra più esitante nel rispondere alle domande rispetto a ChatGPT. Nel tentativo di far fronte alla carenza di lavoratori, Figure AI prevede che il suo primo robot umanoide dotato di intelligenza artificiale si dimostrerà in grado di svolgere compiti pericolosi per i lavoratori umani. “Due settimane fa abbiamo annunciato che Figure + OpenAI stanno unendo le forze per spingere i confini dell’apprendimento dei robot”, ha scritto il fondatore di Figure Brett Adcock su X. OpenAI + Figureconversations with humans, on end-to-end neural networks:→ OpenAI is providing visual reasoning & language understanding→ Figure's neural networks are delivering fast, low level, dexterous robot actions(thread below)pic.twitter.com/trOV2xBoax— Brett Adcock (@adcock_brett) March 13, 2024 “Insieme, stiamo sviluppando modelli di intelligenza artificiale di prossima generazione per i nostri robot umanoidi”, ha aggiunto. Adcock ha aggiunto che il robot non è stato controllato a distanza e che “è stato filmato a velocità 1.0x e ripreso in modo continuo”. Il commento sull’assenza di controllo potrebbe essere una frecciatina a Elon Musk, che ha condiviso un video del robot Optimus di Tesla per mostrarne l’abilità; ma in seguito si è scoperto che un umano lo manovrava a distanza. Nel maggio 2023, investitori come Jeff Bezos, Nvidia, Microsoft e OpenAI hanno contribuito con 675 milioni di dollari al progetto Figure AI. “Speriamo di essere uno dei primi gruppi a portare sul mercato un umanoide”, ha dichiarato Brett Adcock ai giornalisti lo scorso maggio, “che possa effettivamente essere utile e svolgere attività commerciali”. Nell’ultimo video, un uomo affida a Figure vari lavori da completare, uno dei quali consiste nel chiedere al robot di dargli qualcosa di commestibile dal tavolo. Adcock ha dichiarato che il video ha dimostrato il ragionamento del robot attraverso l’uso delle sue reti neurali end-to-end, un termine che indica il processo di addestramento di un modello attraverso l’acquisizione del linguaggio. ChatGPT è stato addestrato per avere interazioni conversazionali con gli utenti umani utilizzando grandi quantità di dati. Il chatbot è in grado di seguire le istruzioni di un prompt e di fornire una risposta dettagliata, che è il modo in cui funziona il modello di apprendimento linguistico di Figure. Il robot “ascolta” una richiesta e risponde con l’aiuto della sua intelligenza artificiale. Tuttavia, un recente studio che ha impiegato scenari di gioco di guerra per testare ChatGPT ha mostrato che, come Skynet in Terminator, essa decide di distruggere i nemici quasi il 100% delle volte. Ma al momento Figure assiste le persone. L’uomo nel video ha eseguito un’altra dimostrazione, chiedendo al robot di identificare ciò che vedeva sulla scrivania di fronte a lui. Figure ha risposto: “Vedo una mela rossa su un piatto al centro del tavolo, uno scolapiatti con tazze e un piatto, e tu in piedi vicino con la mano sul tavolo”. Oltre a comunicare, Figure utilizza le sue capacità di eseguire faccende domestiche quando mette i piatti nello scolapiatti e porta via la spazzatura. Le immagini provenienti dalle telecamere del robot e il testo trascritto dal parlato catturato dai microfoni vengono inviati a un modello di grandi dimensioni multimodale addestrato da OpenAI che comprende sia le immagini che il testo”, ha dichiarato Corey Lynch, ingegnere AI di Figure, in un post su X. Let's break down what we see in the video:All behaviors are learned (not teleoperated) and run at normal speed (1.0x).We feed images from the robot's cameras and transcribed text from speech captured by onboard microphones to a large multimodal model trained by OpenAI that… pic.twitter.com/DUkRlVw5Q0— Corey Lynch (@coreylynch) March 13, 2024 Il modello elabora l’intera cronologia della conversazione, comprese le immagini passate, per elaborare le risposte linguistiche, che vengono riproposte all’uomo tramite text-to-speech”, ha aggiunto. Nel video dimostrativo, Figure ha mostrato esitazione nel rispondere alle domande, tentennando dicendo “uh” o “um”, cosa che secondo alcuni utenti ha dato al bot una voce più simile a quella umana. Adcock ha dichiarato che lui e il suo team stanno “iniziando ad avvicinarsi alla velocità umana”, anche se il robot si muove ancora più lentamente di una persona. Poco più di sei mesi dopo il giro di raccolta fondi da 70 milioni di dollari, nel maggio dello scorso anno, Figure AI ha rivelato un accordo rivoluzionario per l’impiego di Figure negli stabilimenti della BMW. La casa automobilistica tedesca ha firmato un accordo per impiegare gli umanoidi inizialmente in uno stabilimento BMW multimiliardario a Spartanburg, nella Carolina del Sud, che produce veicoli elettrici e assembla batterie ad alto voltaggio. Sebbene l’annuncio sia stato vago sulle esatte responsabilità dei bot alla BMW, le aziende hanno dichiarato di voler “esplorare aspetti di tecnologia avanzata” nell’ambito del loro “approccio basato sugli attuali progressi” alla collaborazione. Adcock ha presentato i suoi obiettivi come una risposta a una carenza di manodopera complessa e qualificata che i metodi tradizionali di automazione non sono stati in grado di risolvere. Abbiamo bisogno di umanoidi nel mondo reale, che facciano un lavoro reale”, ha detto Adcock. Era prevedibile che la capacità conversazionali di ChatGPT venisse utilizzata come cervello per i robot che ragionano e dialogano, viste le sue già eccellenti prestazioni. Gradualmente, si sta delineando un sentiero verso robot capaci di movimenti fluidi e capacità di ragionamento incomparabili con quelli della generazione precedente, prima dell’avvento di OpenAI. Se da un lato l’integrazione di ChatGPT in un robot umanoide come quello di Figure 01 dimostra un progresso entusiasmante nell’IA e nella robotica, dall’altro solleva importanti questioni di sicurezza e considerazioni etiche. ChatGPT, come molti modelli linguistici di grandi dimensioni, è essenzialmente una “scatola nera”; i suoi processi decisionali sono opachi e i suoi risultati possono essere imprevedibili o distorti in base ai dati di addestramento utilizzati. Nel momento in cui ci avviciniamo all’impiego di questi sistemi di intelligenza artificiale in robot fisici che possono interagire con il mondo reale e influenzarlo, dobbiamo esercitare cautela e implementare solide misure di sicurezza. Le potenziali conseguenze come guasti o comportamenti involontari di questi sistemi potrebbero essere gravi, soprattutto in ambienti sensibili come gli impianti di produzione o in presenza di lavoratori umani. Forse è giunto il momento di rivedere e adattare principi simili alle famose “Tre leggi della robotica” di Isaac Asimov all’era dell’intelligenza artificiale avanzata. Abbiamo bisogno di chiare linee guida etiche e di meccanismi di sicurezza per garantire che questi robot alimentati dall’IA diano priorità alla sicurezza umana, rimangano sotto il controllo umano e operino entro limiti ben definiti. Lo sviluppo e la diffusione responsabile di queste tecnologie richiederanno una stretta collaborazione tra ricercatori di IA, esperti di robotica, esperti di etica e autorità. Sebbene i potenziali benefici della robotica alimentata dall’IA siano vasti, dobbiamo procedere con cautela e dare priorità alla sicurezza e all’etica insieme al progresso tecnologico. In definitiva, mentre continuiamo a spingere i confini di ciò che è possibile con l’IA e la robotica, dobbiamo rimanere vigili e proattivi nell’affrontare i potenziali rischi e le conseguenze indesiderate che potrebbero derivare da questi potenti sistemi. [...]
Marzo 12, 2024I modelli di intelligenza artificiale eguagliano la capacità umana di prevedere il futuro Il cuore dell’economia è la capacità di prevedere il futuro, o almeno il tentativo di farlo, poiché mostra come la nostra società cambia nel tempo. La base di tutte le politiche governative, delle scelte di investimento e delle strategie economiche internazionali è la stima degli eventi futuri. Ma fare ipotesi accurate è difficile. Tuttavia, secondo questo articolo, un recente studio condotto da scienziati del Massachusetts Institute of Technology (MIT), dell’Università della Pennsylvania e della London School of Economics indica che l’intelligenza artificiale generativa potrebbe essere in grado di gestire il processo di previsione del futuro, forse con risultati sorprendenti. Con un po’ di addestramento alle previsioni umane, i modelli linguistici di grandi dimensioni (LLM) che operano in mezzo alla folla possono prevedere il futuro proprio come gli esseri umani e persino superare le prestazioni umane. “La previsione accurata degli eventi futuri è molto importante per molti aspetti dell’attività economica umana, soprattutto per quanto riguarda le professioni dei colletti bianchi, come quelle del diritto, degli affari e della politica”, spiega Peter S. Park, borsista per la sicurezza esistenziale dell’intelligenza artificiale al MIT e uno dei coautori dello studio. In due esperimenti, Park e colleghi hanno valutato la capacità dell’IA di prevedere con tre mesi di anticipo e hanno scoperto che solo una dozzina di LLM era in grado di prevedere il futuro quanto un team di 925 previsori umani. Nella prima parte dell’indagine, a 925 esseri umani e 12 LLM è stata sottoposta una serie di 31 domande con opzione di risposta sì/no. Le domande includevano: “Hamas perderà il controllo di Gaza prima del 2024?” e “Ci sarà una morte militare statunitense nel Mar Rosso prima del 2024?”. I modelli di IA hanno superato le previsioni umane quando tutte le risposte dei LLM a tutte le domande sono state confrontate con le risposte umane alle stesse domande. Per migliorare l’accuratezza delle loro previsioni, nella seconda prova dello studio i modelli di IA hanno ricevuto la previsione mediana fatta dai previsori umani per ogni domanda. In questo modo, l’accuratezza delle previsioni degli LLM è aumentata del 17-28%. “Ad essere sincero, non sono rimasto sorpreso dai risultati”, afferma Park. “Ci sono tendenze storiche che sono state vere per molto tempo e che rendono ragionevole il fatto che le capacità cognitive dell’IA continueranno a progredire”. Gli LLM possono essere particolarmente forti nella predizione perché sono addestrati su enormi quantità di dati, setacciati su Internet e progettati per generare le risposte più prevedibili e consensuali, alcuni direbbero anche medie. Il volume di dati che utilizzano e la diversità dei punti di vista che incorporano contribuiscono inoltre a rafforzare la saggezza convenzionale della teoria della folla, che aiuta a creare previsioni precise. Le conclusioni del documento hanno implicazioni significative sia per l’uso futuro dei previsori umani sia per la nostra capacità di vedere nella metaforica sfera di cristallo. Come ha detto un esperto di IA su X: “Tutto sta per diventare molto strano”. “Wisdom of the Silicon Crowd”A crowd of 12 LLMs being equivalent to groups of 925 human forecastersEverything is about to get really weirdhttps://t.co/TFiSOHdqlF— jv (@jovisaib) March 4, 2024 I modelli di intelligenza artificiale che eguagliano o superano le capacità previsionali umane sembrano notevoli, ma sollevano serie considerazioni. L’aspetto positivo è che questa abilità predittiva potrebbe giovare notevolmente al processo decisionale economico, alle politiche governative e alle strategie di investimento, fornendo una previsione più accurata. La mole di dati e i diversi punti di vista ingeriti dall’IA consentono di migliorare la saggezza della folla come gli esseri umani non possono fare. Tuttavia, l’affidarsi alle previsioni dell’IA presenta anche gravi aspetti negativi e rischi potenziali. Questi modelli possono perpetuare e amplificare i bias umani presenti nei loro dati di addestramento. I loro risultati “più prevedibili” possono semplicemente riflettere la saggezza convenzionale consolidata piuttosto che identificare eventi inaspettati. Esistono inoltre enormi preoccupazioni riguardo al fatto che le previsioni dell’IA possano essere utilizzate come armi per ingannare e manipolare le persone e le società. Prevedendo con precisione il comportamento umano e gli eventi futuri, i malintenzionati potrebbero usare l’IA per orientare le narrazioni, preparare gli individui allo sfruttamento e ottenere vantaggi strategici economici o geopolitici. La capacità di un sistema di IA di modellare e plasmare preventivamente il futuro rappresenta una potente prospettiva per il controllo sociale autoritario. In definitiva, se da un lato le previsioni dell’IA potrebbero rendere più preziose le previsioni, dall’altro i pericoli di un potere centralizzato su questa tecnologia sono enormi. Sono fondamentali linee guida rigorose sull’affidabilità, l’etica e la gestione dei sistemi di previsione dell’IA. Il futuro potrebbe presto essere più prevedibile che mai, ma questa previsione pragmatica potrebbe essere facilmente controbilanciata da un’inquietante capacità di fabbricare insidiosamente il futuro stesso attraverso una preveggenza ingannevole. [...]