La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.

Il blog di House cerca di fare tutto questo.

Ultimi articoli
Luglio 9, 2024Dalla clonazione vocale ai deepfake Gli attacchi da parte dell’intelligenza artificiale possono colpire quasi tutti, quindi è bene stare sempre all’erta. L’utilizzo dell’intelligenza artificiale per prendere di mira l’utente è già una realtà, secondo un esperto di sicurezza che ha lanciato l’ avvertimento. L’IA sembra alimentare ovunque funzioni, app e chatbot che imitano gli esseri umani. Anche se non utilizzate questi strumenti basati su questa tecnologia, i criminali potrebbero comunque prendervi di mira basandosi solo sul vostro numero di telefono. Per truffarvi, ad esempio, i criminali possono impiegare l’intelligenza artificiale per produrre voci false, persino quelle che assomigliano ai vostri cari. “Molte persone pensano ancora all’intelligenza artificiale come a una minaccia futura, ma gli attacchi reali stanno avvenendo proprio ora”, ha dichiarato l’esperto di sicurezza Paul Bischoff in un articolo del The Sun. Clone telefonico “Penso che l’audio deepfake in particolare sarà una sfida perché noi umani non possiamo facilmente identificarlo come falso, e quasi tutti hanno un numero di telefono“. In pochi secondi è possibile effettuare una clonazione vocale con l’intelligenza artificiale. Inoltre, sarà sempre più difficile distinguere tra una voce reale e un’imitazione. Sarà fondamentale ignorare le chiamate sconosciute, utilizzare parole sicure per confermare l’identità di chi chiama e prestare attenzione ai segnali rivelatori delle truffe, come le richieste urgenti di informazioni o denaro. Un ricercatore di intelligenza artificiale ha messo in guardia da sei miglioramenti che rendono i deepfake più “sofisticati” e pericolosi di prima e possono ingannare la vista. Naturalmente, oltre alle voci “deepfake”, ci sono altre minacce poste dall’IA. Paul, un sostenitore della privacy dei consumatori di Comparitech, ha lanciato un avvertimento sul fatto che gli hacker potrebbero sfruttare i chatbot basati sull’IA per rubare le vostre informazioni personali o addirittura ingannarvi. “I chatbot basati sull’intelligenza artificiale potrebbero essere utilizzati per il phishing per rubare password, numeri di carte di credito, numeri di previdenza sociale e altri dati privati“, ha dichiarato al The U.S. Sun. “L’intelligenza artificiale nasconde le fonti di informazione da cui attinge per generare le risposte. Truffe romantiche con l’IA Attenzione ai truffatori che usano chatbot basati sull’intelligenza artificiale per ingannarvi… Ecco cosa dovreste sapere sui rischi posti dai bot artificiali per le truffe sentimentali, come riportato dal The U.S. Sun: I truffatori sfruttano i chatbot con intelligenza artificiale per truffare gli utenti online. Questi chatbot sono camuffati da persone reali e possono essere difficili da identificare. Alcuni campanelli d’allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot tenta di trasferire la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme. Inoltre, si tratta di una truffa se il chatbot richiede denaro o informazioni personali. Quando si comunica con estranei su Internet, è fondamentale usare cautela e vigilanza, soprattutto quando si parla di argomenti delicati. In genere è vero quando qualcosa sembra troppo bello per essere vero. Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete proteggervi dal rischio di diventare vittime di frodi da parte di chatbot gestiti dall’intelligenza artificiale. “Le risposte potrebbero essere imprecise o tendenziose e l’IA potrebbe attingere da fonti che dovrebbero essere riservate”. IA ovunque L’intelligenza artificiale diventerà presto uno strumento necessario per gli utenti di Internet, il che rappresenta una grande preoccupazione. Decine di milioni di persone utilizzano già chatbot alimentati dall’IA e il numero è destinato ad aumentare. Inoltre, apparirà in una crescente varietà di prodotti e applicazioni. Ad esempio, Microsoft Copilot e Gemini di Google sono già presenti in prodotti e dispositivi, mentre Apple Intelligence – che lavora con ChatGPT di OpenAI – alimenterà presto l’iPhone. Pertanto, il pubblico deve capire come utilizzare l’IA in modo sicuro. “L’IA verrà gradualmente (o improvvisamente) integrata nei chatbot, nei motori di ricerca e in altre tecnologie esistenti”, ha spiegato Paul. “L’IA è già inclusa per impostazione predefinita in Google Search e Windows 11, e le impostazioni predefinite sono importanti. “Anche se avremo la possibilità di disattivare l’IA, la maggior parte delle persone non lo farà”. Deepfake Sean Keach, responsabile del settore tecnologico e scientifico del The Sun e del The U.S. Sun, ha spiegato che uno degli sviluppi più preoccupanti nella sicurezza online è l’emergere dei deepfake. Quasi nessuno è al sicuro perché la tecnologia deepfake è in grado di creare video dell’utente anche a partire da una sola foto. L’improvviso aumento dei deepfake ha alcuni vantaggi, anche se tutto sembra senza speranza. Per cominciare, le persone sono ora molto più consapevoli dei deepfake. Le persone saranno quindi attente agli indizi che indicano che un video potrebbe essere falso. Le aziende tecnologiche stanno inoltre investendo tempo e risorse nello sviluppo di strumenti in grado di identificare il materiale fraudolento dell’intelligenza artificiale. Ciò implica che i contenuti falsi verranno segnalati dai social media con maggiore frequenza e sicurezza. Probabilmente sarà più difficile identificare gli errori visivi man mano che i deepfake diventeranno più sofisticati, soprattutto tra qualche anno. La migliore linea di difesa è quindi quella di usare il buon senso e di essere scettici su tutto ciò che si vede online. Chiedetevi se ha senso che qualcuno abbia creato il video e chi trae vantaggio dal fatto che lo guardiate.È possibile che stiate guardando un video falso se qualcuno si comporta in modo strano o se siete messi di fretta nel compiere un’azione. Man mano che la tecnologia dell’intelligenza artificiale continua a progredire e a integrarsi nella nostra vita quotidiana, il panorama delle minacce informatiche si evolve con essa. Se da un lato l’IA offre numerosi vantaggi, dall’altro presenta nuove sfide per la sicurezza online e la privacy personale. La chiave per navigare in questo nuovo terreno sta nella consapevolezza, nell’educazione e nella vigilanza. Gli utenti devono essere informati sulle più recenti minacce alimentate dall’IA, come la clonazione vocale e i deepfake, e sviluppare capacità di pensiero critico per mettere in dubbio l’autenticità dei contenuti digitali. È fondamentale adottare le migliori pratiche per la sicurezza online, tra cui l’uso di password forti, la cautela nell’utilizzo delle informazioni personali e la verifica dell’identità dei contatti attraverso mezzi sicuri. Le aziende tecnologiche e gli esperti di cybersicurezza stanno lavorando per sviluppare strumenti di rilevamento e salvaguardie migliori contro le truffe guidate dall’intelligenza artificiale. Tuttavia, la responsabilità finale ricade sui singoli individui che devono rimanere scettici e attenti nelle loro interazioni online. [...]
Luglio 2, 2024Un esperto smaschera il piano diabolico che permette ai chatbot di ingannarvi con un semplice scambio di messaggi I criminali informatici possono “manipolare” i chatbot dotati di intelligenza artificiale per ingannarvi. Un famoso esperto di sicurezza ha lanciato un forte avvertimento, affermando che è necessario usare cautela quando si conversa con i chatbot. In particolare, se possibile, evitate di fornire ai chatbot online informazioni personali. Decine di milioni di persone utilizzano chatbot come Copilot di Microsoft, Gemini di Google e ChatGPT di OpenAI. E ci sono migliaia di altre viarianti che, con conversazioni simili a quelle umane, possono migliorare la vostra vita. Tuttavia, come ha chiarito l’esperto di cybersicurezza Simon Newman in questo articolo, i chatbot rappresentano anche un rischio nascosto. “La tecnologia utilizzata nei chatbot sta migliorando rapidamente”, ha dichiarato Simon, membro dell’International Cyber Expo Advisory Council e amministratore delegato del Cyber Resilience Centre di Londra. “Ma come abbiamo visto, a volte possono essere manipolati per fornire informazioni false”. “E spesso possono essere molto convincenti nelle risposte che danno!”. Inganno Le persone che non sono esperte di tecnologia possono trovare i chatbot di intelligenza artificiale disorientanti, tanto per cominciare tanto che anche per gli esperti di informatica è facile dimenticare che si sta conversando con un robot. Simon ha aggiunto che questo può portare a situazioni complicate. “Molte aziende, tra cui la maggior parte delle banche, stanno sostituendo i contact center umani con chatbot online che hanno il potenziale di migliorare l’esperienza del cliente e di far risparmiare denaro”, ha spiegato Simon. “Ma questi bot mancano di intelligenza emotiva, il che significa che possono rispondere in modi che possono essere insensibili e talvolta scortesi”. Senza contare che non possono risolvere tutti quei problemi che rappresentano un’eccezione difficilmente gestibile da un bot che possono quindi lasciare l’utente escluso dalla risoluzione del problema senza che nessuno si faccia carico delle responsabilità. “Questo rappresenta un ostacolo particolare per le persone che soffrono di disturbi mentali, per non parlare delle generazioni più anziane che sono abituate a parlare con una persona all’altro capo della linea telefonica”. I chatbot, ad esempio, hanno già “imparato a ingannare”. Possono persino imparare a “imbrogliarci” senza che nessuno glielo chieda. Chatbot Il rischio reale, tuttavia, si presenta quando gli hacker riescono a convincere l’IA a prendere di mira voi piuttosto che un chatbot che parla male. Un hacker potrebbe essere in grado di accedere al chatbot stesso o di convincervi a scaricare un’IA compromessa e destinata a fare del male. Dopodiché, questo chatbot può iniziare a estrarre le vostre informazioni personali a vantaggio del criminale. “Come per qualsiasi servizio online, è importante che le persone facciano attenzione alle informazioni che forniscono a un chatbot”, ha avvertito Simon. Come riportato dal The U.S. Sun, i rischi posti dai bot IA per le truffe amorose sono che le persone che cercano l’amore online possono venire truffate da chatbot dotati di intelligenza artificiale. Questi chatbot potrebbero essere difficili da identificare, poiché sono fatti per sembrare persone reali. Alcuni indicatori di allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot cerca di spostare la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme. Inoltre, il chatbot è senza dubbio falso se richiede denaro o informazioni personali. Quando si comunica con sconosciuti su Internet, è fondamentale esercitare cautela e vigilanza, in particolare quando si parla di argomenti delicati, soprattutto quando qualcosa sembra troppo bello per essere vero. Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete evitare di diventare vittime di frodi da parte di chatbot dotati di intelligenza artificiale. “Non sono immuni da hackeraggi da parte di criminali informatici”. “E potenzialmente possono essere programmati per incoraggiare gli utenti a condividere informazioni personali sensibili, che possono poi essere utilizzate per commettere frodi”. Dovremmo abbracciare un “nuovo stile di vita” in cui verifichiamo tutto ciò che vediamo online due volte, se non tre, ha affermato un esperto di sicurezza. Secondo una recente ricerca, il modello GPT-4 di OpenAI ha superato il test di Turing, dimostrando che le persone non sono riuscite a distinguerlo da una persona reale. Le persone devono imparare a non fidarsi ciecamente quando si tratta di rivelare informazioni sensibili attraverso un mezzo di comunicazione, poiché la certezza di chi sia dall’altra parte è sempre meno evidente. Tuttavia, dobbiamo anche tenere presente i casi in cui altri possono impersonare noi stessi a nostra insaputa. In questo caso, è molto più complesso rendersene conto, ed è per questo che sono necessari strumenti aggiuntivi che ci aiutino a verificare l’identità quando sono richieste operazioni sensibili. [...]
Giugno 25, 2024Come l’intelligenza artificiale sta ridisegnando le dinamiche lavorative Gli sviluppi dell’intelligenza artificiale stanno avendo un’ampia gamma di effetti sui luoghi di lavoro. L’intelligenza artificiale sta cambiando il mercato del lavoro in diversi modi, compresi i tipi di lavoro che gli individui intraprendono e la sicurezza dell’ambiente circostante. Come riportato qui, tecnologie come la visione artificiale possono migliorare la sicurezza sul posto di lavoro attraverso l’identificazione precoce dei rischi, come l’accesso non autorizzato del personale o l’uso improprio delle attrezzature. Queste tecnologie possono anche migliorare la progettazione dei compiti, la formazione e l’assunzione. Tuttavia, il loro impiego richiede una seria considerazione della privacy e l’operato dei lavoratori, in particolare negli ambienti di lavoro remoti dove la sorveglianza domestica diventa un problema. Le aziende devono mantenere la trasparenza e linee guida precise sulla raccolta e l’uso dei dati per trovare un equilibrio tra il miglioramento della sicurezza e la protezione dei diritti individuali. Queste tecnologie hanno il potenziale per produrre un ambiente vantaggioso per tutti, con una maggiore produzione e sicurezza, se utilizzate con attenzione. L’evoluzione dei ruoli lavorativi Storicamente, la tecnologia ha trasformato l’occupazione piuttosto che eliminarla. I word processor, ad esempio, hanno trasformato le segretarie in assistenti personali, e l’IA in radiologia integra i radiologi piuttosto che sostituirli. È meno probabile che l’automazione completa si applichi a lavori che richiedono una formazione specializzata, un giudizio delicato o un rapido processo decisionale. Tuttavia, man mano che l’IA diventa più sofisticata, alcuni esseri umani potrebbero finire per diventare “burattini di carne”, svolgendo lavori pesanti sotto la guida dell’IA. Questo va contro l’idea romantica che l’IA ci libererà per dedicarci ad attività creative. A causa del precoce abbraccio delle Big Tech all’IA, il settore si è consolidato e sono emersi nuovi modelli di business come risultato del suo vantaggio competitivo. L’IA viene rapidamente utilizzata dagli esseri umani come tramite in diversi settori. Ad esempio, il personale dei call center segue ora copioni creati dalle macchine e i venditori possono ricevere consigli in tempo reale dall’IA. Mentre nel settore sanitario si ritiene che lavori emotivamente e fisicamente impegnativi come l’infermiere siano insostituibili, i “copiloti” dell’IA potrebbero occuparsi di compiti come la documentazione e la diagnosi, liberando risorse cerebrali umane per compiti non essenziali. Cyborg vs. Centauri Esistono due diversi schemi per la collaborazione tra uomo e IA, descritti dai modelli Cyborg e Centauri, ciascuno con pro e contro propri. Secondo il modello Cyborg, l’IA diventa un’estensione della persona e viene incorporata senza sforzo nel corpo o nei processi umani, come un impianto cocleare o un arto protesico. La linea di demarcazione tra un essere umano e una macchina è offuscata da questa profonda integrazione, che a volte mette persino in discussione il significato di essere umano. Al contrario, il modello Centauri privilegia un’alleanza cooperativa tra esseri umani e IA, superando spesso sia l’IA che i concorrenti umani. Integrando le capacità della macchina con l’intuizione umana, questo modello sostiene i valori dell’intelligenza umana e produce qualcosa di più grande della somma delle sue parti. In questa configurazione, l’IA si concentra sull’elaborazione, sull’analisi dei dati o sulle attività ordinarie, mentre l’uomo rimane coinvolto, esprimendo giudizi strategici e offrendo input emotivi o creativi. In questo caso, le due parti rimangono separate e la loro collaborazione è ben definita. Tuttavia, questa dinamica è cambiata grazie al rapido sviluppo dell’IA nel campo degli scacchi, che ha dato vita a sistemi come AlphaZero. Al giorno d’oggi, l’IA è così brava a giocare a scacchi che l’aggiunta di una strategia umana può avere un impatto negativo sulle prestazioni dell’IA. Il modello Centauri incoraggia l’IA e le persone a lavorare insieme in una partnership collaborativa sul posto di lavoro, con ciascuno che apporta capacità uniche per raggiungere gli obiettivi condivisi. Ad esempio, nell’analisi dei dati, l’IA potrebbe setacciare enormi database per individuare determinati modelli, mentre gli analisti umani utilizzerebbero le conoscenze contestuali per scegliere la decisione migliore da prendere. I chatbot potrebbero gestire semplici richieste di assistenza ai clienti, lasciando che siano gli operatori umani a occuparsi di problemi complicati ed emotivamente complessi. Queste divisioni del lavoro massimizzano la produttività, valorizzando e non sostituendo i talenti umani. La responsabilità e la governance etica sono ulteriormente supportate dal mantenimento di una divisione netta tra le responsabilità umane e quelle dell’intelligenza artificiale. Codesign guidato dai lavoratori Una strategia nota come “codesign guidato dai lavoratori” consiste nel coinvolgere i lavoratori nella creazione e nel miglioramento dei sistemi algoritmici destinati all’utilizzo sul posto di lavoro. Dando voce ai dipendenti nell’adozione delle nuove tecnologie, questo modello partecipativo garantisce che i sistemi rispondano alle esigenze e ai problemi del mondo reale. I dipendenti possono collaborare con progettisti e ingegneri per delineare le caratteristiche desiderate e discutere dei potenziali problemi, organizzando sessioni di codesign. I lavoratori possono identificare questioni etiche o pratiche, contribuire allo sviluppo delle regole o dei criteri di selezione dell’algoritmo e condividere le loro conoscenze sulle specificità delle loro professioni. Ciò può ridurre la probabilità di esiti negativi, come sanzioni ingiuste o monitoraggio eccessivamente invasivo, migliorando l’equità, la trasparenza e l’allineamento del sistema con le esigenze della forza lavoro. Potenzialità e limiti L’intelligenza artificiale ha il potenziale per migliorare in modo significativo i compiti dei dirigenti, valutando rapidamente grandi quantità di dati complessi sul comportamento dei competitor, sulle tendenze del mercato e sulla gestione del personale. Ad esempio, un consulente artificiale può fornire all’amministratore delegato una consulenza breve e basata sui dati relativi a collaborazioni e acquisizioni. Al momento, però, l’IA non può assumere il ruolo delle caratteristiche umane necessarie per la leadership, come l’affidabilità e l’ispirazione. Inoltre, il crescente utilizzo dell’IA nel management potrebbe avere ripercussioni sociali. Poiché la definizione convenzionale di “management” cambia, la perdita di posizioni di gestione intermedia legata all’automazione potrebbe causare crisi di identità. L’IA può rivoluzionare il settore della consulenza manageriale offrendo raccomandazioni strategiche basate sui dati. In questo modo, le scelte difficili, come il ridimensionamento, possono assumere un’aria di presunta imparzialità. Tuttavia, l’uso dell’IA in posizioni così cruciali richiede una stretta supervisione per verificare le sue raccomandazioni e ridurre i pericoli correlati. Trovare il giusto equilibrio è essenziale: un eccessivo affidamento all’IA corre il rischio di problemi etici e a livello di pubbliche relazioni, mentre un uso inadeguato potrebbe comportare la perdita di benefici significativi. Sebbene la collaborazione tra IA e lavoratori umani possa, in alcune aree, impedire alla tecnologia di dominare i luoghi di lavoro e consentire un utilizzo ottimale delle capacità umane e computazionali, non risolve i problemi più significativi legati al lavoro. La forza lavoro è comunque destinata a diminuire drasticamente, rendendo necessarie soluzioni pertinenti piuttosto che colpevolizzare i lavoratori per l’insufficiente specializzazione. È necessaria una rivoluzione sociale in cui il lavoro non sia più la fonte primaria di sostentamento. Inoltre, sebbene mantenere ruoli separati per l’IA e gli esseri umani possa essere vantaggioso, anche per ragioni etiche, c’è il rischio che l’IA venga percepita come più affidabile e obiettiva di quanto lo sia l’uomo. Questa percezione potrebbe presto diventare una scusa per ridurre la responsabilità in caso di decisioni difficili. Lo vediamo già con i sistemi automatizzati di alcune piattaforme che bannano gli utenti, a volte per motivi inaccettabili, senza possibilità di appello. Ciò è particolarmente problematico quando gli utenti si affidano a queste piattaforme come fonte primaria di reddito. Questi esempi dimostrano l’uso potenzialmente antidemocratico dell’IA per decisioni che possono avere un impatto radicale sulla vita delle persone. Per andare avanti, dobbiamo esaminare criticamente il modo in cui l’IA viene implementata nei processi decisionali, in particolare quelli che riguardano l’occupazione e i mezzi di sussistenza. Dobbiamo stabilire solidi meccanismi di supervisione, garantire la trasparenza nel processo decisionale dell’IA e mantenere la responsabilità umana. Inoltre, mentre navighiamo in questa trasformazione guidata dall’IA, dobbiamo reimmaginare le nostre strutture sociali. Ciò potrebbe comportare l’esplorazione di concetti come il reddito di base universale, la ridefinizione della produttività o lo sviluppo di nuovi modelli economici che non si basino così pesantemente sull’occupazione tradizionale. L’obiettivo dovrebbe essere quello di sfruttare i benefici dell’IA garantendo che il progresso tecnologico serva all’umanità nel suo complesso, anziché aggravare le disuguaglianze esistenti. In conclusione, sebbene l’IA offra un immenso potenziale per migliorare il nostro lavoro e la nostra vita, la sua integrazione nel luogo di lavoro e nella società in generale deve essere affrontata con cautela, lungimiranza e impegno per ottenere risultati etici ed equi. La sfida che ci attende non è solo tecnologica, ma profondamente sociale e politica, e ci impone di ripensare i nostri assunti fondamentali sul lavoro, sul valore e sulla prosperità umana nell’era dell’IA. [...]
Giugno 18, 2024OpenAI nomina l’ex capo dell’NSA, sollevando preoccupazioni sulla sorveglianza “Siete stati avvertiti” La società che ha creato ChatGPT, OpenAI, ha rivelato di aver aggiunto al suo consiglio di amministrazione il generale dell’esercito statunitense in pensione ed ex direttore della NSA Paul Nakasone. Nakasone ha supervisionato la sezione Cyber Command dell’esercito, che si occupa di sicurezza informatica. “L’esperienza impareggiabile del generale Nakasone in settori come la cybersicurezza”, ha dichiarato il presidente del consiglio di amministrazione di OpenAI Bret Taylor in un comunicato, “aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità”. Come riportato qui, la nuova posizione di Nakasone presso l’azienda di intelligenza artificiale, dove siederà anche nel comitato per la sicurezza di OpenAI, non è stata ben accolta da molti. Da tempo legate alla sorveglianza dei cittadini statunitensi, le tecnologie integrate nell’IA stanno già ravvivando e intensificando le preoccupazioni sulla sorveglianza. Alla luce di ciò, non dovrebbe sorprendere che uno dei più forti oppositori alla nomina di OpenAI sia Edward Snowden, ex dipendente della NSA e noto informatore. “Hanno tolto la maschera: non fidatevi mai di OpenAI o dei suoi prodotti”, ha scritto Snowden in un post di venerdì su X-formerly-Twitter, aggiungendo che “c’è solo una ragione per nominare” un direttore dell’NSA “nel vostro consiglio di amministrazione”. They've gone full mask-off: 𝐝𝐨 𝐧𝐨𝐭 𝐞𝐯𝐞𝐫 trust @OpenAI or its products (ChatGPT etc). There is only one reason for appointing an @NSAGov Director to your board. This is a willful, calculated betrayal of the rights of every person on Earth. You have been warned. https://t.co/bzHcOYvtko— Edward Snowden (@Snowden) June 14, 2024 “Questo è un tradimento intenzionale e calcolato dei diritti di ogni persona sulla terra”, ha continuato. “Siete stati avvertiti”. Preoccupazioni per la trasparenza Snowden non è stato certo il primo noto esperto di sicurezza informatica a esprimere disapprovazione per l’annuncio di OpenAI. “Penso che la più grande applicazione dell’IA sarà la sorveglianza di massa della popolazione”, ha twittato Matthew Green, professore di crittografia della Johns Hopkins University, “quindi l’ingresso dell’ex capo dell’NSA in OpenAI ha una logica solida”. L’arrivo di Nakasone segue una serie di partenze di alto profilo da OpenAI, tra cui importanti ricercatori sulla sicurezza, nonché il completo scioglimento del team di sicurezza “Superalignment“, ormai defunto. Il Comitato per la sicurezza, reincarnazione di quel team, è attualmente guidato dall’amministratore delegato Sam Altman, che nelle ultime settimane è stato criticato per aver utilizzato tattiche commerciali che includevano il silenziamento di ex dipendenti. È inoltre importante notare che OpenAI è stata spesso oggetto di critiche per la mancanza di trasparenza sui dati utilizzati per addestrare i suoi diversi modelli di intelligenza artificiale. Tuttavia, secondo Axios, molti a Capitol Hill hanno visto la garanzia di OpenAI di Nakasone come un trionfo della sicurezza. La “dedizione di OpenAI alla sua missione si allinea strettamente con i miei valori e la mia esperienza nel servizio pubblico”, secondo una dichiarazione rilasciata da Nakasone. “Non vedo l’ora di contribuire agli sviluppi di OpenAI”, ha aggiunto, “per garantire che l’intelligenza artificiale generale sia sicura e vantaggiosa per le persone in tutto il mondo”. Le reazioni dei sostenitori della privacy come Edward Snowden e degli esperti di sicurezza informatica sono giustificate. I loro avvertimenti sul potenziale di armamento dell’IA per la sorveglianza di massa sotto la guida di Nakasone non possono essere ignorati con leggerezza. Mentre le capacità dell’intelligenza artificiale continuano a progredire a passo di carica, un impegno costante per i diritti umani, le libertà civili e i valori democratici deve guidare lo sviluppo di queste tecnologie. Il futuro dell’IA e a maggior ragione dell’AGI, rischia di creare scenari pericolosi non solo dati dall’imprevedibilità di uno strumento tanto potente, ma anche dai fini dei suoi utilizzatori, che potrebbero facilmente operare per fini poco leciti, ed essere anche i pochi a poterlo utilizzare. Inoltre, il rischio dell’ingerenza dei governi per appropriarsi di tale strumento per fini poco etici non è da escludere. E le recenti vicende fanno salire i sospetti. [...]
Giugno 11, 2024Navigare nell’era trasformativa dell’Intelligenza Artificiale Generale Come riportato qui, l’ex dipendente di OpenAI Leopold Aschenbrenner offre un approfondimento sulle conseguenze e sul futuro corso dell’intelligenza artificiale generale (AGI). Secondo l’autore, entro il 2027 i notevoli progressi delle capacità dell’intelligenza artificiale porteranno all’AGI. Le sue osservazioni affrontano gli aspetti tecnologici, economici e di sicurezza di questo sviluppo, evidenziando gli effetti rivoluzionari che l’AGI avrà su numerosi settori e l’urgente necessità di solidi protocolli di sicurezza. 2027 e il futuro dell’IA Secondo la principale previsione di Aschenbrenner, l’intelligenza artificiale generale (AGI) sarà raggiunta entro il 2027, il che rappresenterebbe una svolta importante nello sviluppo del settore. Grazie a questo sviluppo, i modelli di intelligenza artificiale saranno in grado di svolgere compiti cognitivi che gli esseri umani non possono svolgere in diverse discipline, il che potrebbe portare alla comparsa di una superintelligenza entro la fine del decennio. Lo sviluppo dell’Intelligenza Artificiale potrebbe inaugurare una nuova fase del progresso tecnologico, offrendo capacità di automazione, creatività e risoluzione dei problemi finora sconosciute. Uno dei principali fattori che influenzano lo sviluppo dell’AGI è la rapida crescita della potenza di calcolo. Secondo Aschenbrenner, lo sviluppo di cluster di calcolo ad alte prestazioni con un valore potenziale di trilioni di dollari renderà possibile l’addestramento di modelli di IA sempre più sofisticati ed efficaci. Le efficienze algoritmiche aumenteranno le prestazioni e l’adattabilità di questi modelli insieme alle innovazioni hardware, ampliando le frontiere dell’intelligenza artificiale. L’analisi di Aschenbrenner fa alcune previsioni molto interessanti, una delle quali è la comparsa di ingegneri di ricerca artificiali entro il 2027-2028. Questi sistemi di IA avranno la capacità di svolgere autonomamente attività di ricerca e sviluppo, accelerando così il ritmo di sviluppo e applicazione dell’IA in diversi settori. Questa svolta potrebbe trasformare completamente il campo dell’intelligenza artificiale, facilitando il suo rapido sviluppo e la produzione di applicazioni AI sempre più avanzate. Automazione e trasformazione Si prevede che l’Intelligenza Artificiale avrà enormi effetti economici, poiché i sistemi di IA hanno il potenziale per automatizzare una grande percentuale di lavori cognitivi. Secondo Aschenbrenner, l’aumento della produttività e dell’innovazione potrebbe alimentare una crescita economica esponenziale grazie all’automazione tecnologica. Per garantire una transizione senza intoppi, tuttavia, l’ampia diffusione dell’IA richiederà anche notevoli adeguamenti della politica economica e delle competenze della forza lavoro. Si prevede che l’utilizzo di sistemi di IA per attività sempre più complesse e responsabilità decisionali causerà notevoli sconvolgimenti in settori come quello manifatturiero, sanitario e finanziario. Il futuro del lavoro comporterà uno spostamento verso modalità di lavoro flessibili e remote, poiché l’intelligenza artificiale rende le operazioni più decentralizzate ed efficienti. Per preparare i lavoratori ai lavori del futuro, le aziende e i governi devono finanziare iniziative di riqualificazione e aggiornamento che diano priorità alla creatività, al pensiero critico e all’intelligenza emotiva. Sicurezza e allineamento dell’IA Aschenbrenner evidenzia i pericoli dello spionaggio e del furto delle scoperte dell’IA, sollevando serie preoccupazioni sul livello di sicurezza esistente nei laboratori di IA. Date le enormi ramificazioni geopolitiche della tecnologia AGI, egli sottolinea la necessità di misure di sicurezza rigorose per salvaguardare la ricerca sull’IA e i pesi dei modelli. La possibilità che Stati nazionali avversari utilizzino l’IA per ottenere vantaggi strategici sottolinea l’importanza di solidi protocolli di sicurezza. Una sfida cruciale, che va oltre la sicurezza, è far sì che i sistemi di IA superintelligenti concordino con i valori umani. Per evitare guasti catastrofici e garantire il funzionamento sicuro delle IA avanzate, Aschenbrenner sottolinea la necessità di affrontare il problema dell’allineamento. Mette in guardia dai rischi legati all’adozione da parte dei sistemi di IA di comportamenti indesiderati o di approfittare della supervisione umana. Aschenbrenner suggerisce che i governi che sfruttano il potere dell’intelligenza artificiale generale (AGI) potrebbero ottenere vantaggi significativi in ambito militare e politico. La possibilità che l’intelligenza artificiale superintelligente possa essere utilizzata da regimi autoritari per una sorveglianza e un controllo diffusi pone seri problemi etici e di sicurezza, sottolineando la necessità di leggi internazionali e principi morali che regolino la creazione e l’applicazione dell’intelligenza artificiale in ambito militare. Orientarsi nell’era dell’AGI Aschenbrenner sottolinea l’importanza di adottare misure proattive per salvaguardare la ricerca sull’intelligenza artificiale, affrontare le sfide dell’allineamento e massimizzare i benefici di questa tecnologia rivoluzionaria, minimizzandone al contempo i rischi, mentre ci avviciniamo ai dieci anni cruciali che ci porteranno alla realtà dell’AGI. Tutti gli aspetti della società saranno influenzati dall’Intelligenza Artificiale, che favorirà un rapido progresso nei settori della scienza, della tecnologia e dell’economia. Lavorando insieme, ricercatori, legislatori e leader dell’industria possono contribuire a navigare efficacemente in questa nuova era. Incoraggiando il dialogo, definendo linee guida chiare e finanziando la creazione di sistemi di intelligenza artificiale sicuri e utili, possiamo lavorare per un futuro in cui l’intelligenza artificiale sia un potente strumento per risolvere questioni difficili e migliorare il benessere umano. L’analisi fornita da Aschenbrenner è un chiaro invito all’azione, che ci esorta a sfruttare le opportunità e le difficoltà derivanti dall’imminente arrivo dell’IA. Prestando attenzione alle sue intuizioni e plasmando attivamente la direzione dell’intelligenza artificiale, possiamo fare in modo che l’era dell’intelligenza artificiale generale inauguri un futuro più promettente e prospero per tutti. L’avvento dell’intelligenza artificiale generale è senza dubbio un’arma a doppio taglio che presenta sia immense opportunità che sfide scoraggianti. Da un lato, l’intelligenza artificiale generale ha il potenziale per rivoluzionare praticamente ogni aspetto della nostra vita, favorendo progressi senza precedenti in campi che vanno dalla sanità alla ricerca scientifica, dall’istruzione allo sviluppo sostenibile. Grazie alle loro impareggiabili capacità di risoluzione dei problemi e alla loro capacità di innovazione, i sistemi AGI potrebbero aiutarci ad affrontare alcune delle questioni più urgenti per l’umanità, dal cambiamento climatico all’eradicazione delle malattie. Tuttavia, l’ascesa dell’AGI comporta anche rischi significativi che non possono essere ignorati. La minaccia esistenziale rappresentata da sistemi superintelligenti non allineati che non condividono i valori o le priorità umane è una preoccupazione reale. Inoltre, la concentrazione delle capacità dell’intelligenza artificiale nelle mani di poche nazioni o società selezionate potrebbe aggravare gli squilibri di potere esistenti e potenzialmente portare a risultati indesiderati, come la sorveglianza di massa, il controllo sociale o persino il conflitto. Mentre navighiamo in questa era di trasformazione, è fondamentale affrontare lo sviluppo e la diffusione dell’AGI con cautela e lungimiranza. Protocolli di sicurezza solidi, linee guida etiche e cooperazione internazionale sono essenziali per mitigare i rischi e garantire che la tecnologia AGI sia sfruttata per il bene dell’umanità. Allo stesso tempo, dobbiamo dare priorità agli sforzi per affrontare le potenziali ripercussioni economiche e la dislocazione della forza lavoro che l’AGI potrebbe causare, investendo in programmi di istruzione e riqualificazione per preparare la società ai lavori del futuro, ma anche ad una concezione del lavoro più adatta alla società in cui viviamo. In definitiva, il successo o il fallimento dell’era dell’AGI dipenderà dalla nostra capacità di trovare un delicato equilibrio, sfruttando l’immenso potenziale di questa tecnologia e affrontandone proattivamente le insidie. Favorendo un dialogo inclusivo, promuovendo un’innovazione responsabile e coltivando una profonda comprensione delle complessità coinvolte, possiamo indirizzare il corso dell’AGI verso un futuro che sia vantaggioso per tutta l’umanità. [...]
Giugno 4, 2024Una potenziale soluzione alla solitudine e all’isolamento sociale? Come riportato qui, nel suo ultimo libro, The Psychology of Artificial Intelligence, Tony Prescott, professore di robotica cognitiva presso l’Università di Sheffield, sostiene che “le relazioni con le IA potrebbero aiutare le persone” nell’interazione sociale. È stato dimostrato che la solitudine nuoce in modo significativo alla salute dell’uomo e il professor Prescott sostiene che gli sviluppi della tecnologia dell’intelligenza artificiale potrebbero dare un po’ di sollievo a questo problema. Egli sostiene che le persone possono cadere in una spirale di solitudine, diventando sempre più estranee man mano che la loro autostima diminuisce, e che l’IA potrebbe essere in grado di aiutare le persone a “rompere il ciclo” fornendo loro l’opportunità di affinare e rafforzare le loro abilità sociali. L’impatto della solitudine Uno studio del 2023 ha rilevato che la disconnessione sociale, o solitudine, è più dannosa per la salute delle persone rispetto all’obesità. È collegata a un rischio maggiore di malattie cardiovascolari, demenza, ictus, depressione e ansia e può aumentare il rischio di morire giovani del 26%. La portata del problema è sorprendente: 3,8 milioni di persone nel Regno Unito soffrono di solitudine cronica. Secondo una ricerca di Harvard condotta negli Stati Uniti, il 61% dei giovani adulti e il 36% degli adulti statunitensi dichiarano di soffrire di una significativa solitudine. Il professor Prescott afferma: “In un’epoca in cui molte persone descrivono la propria vita come solitaria, potrebbe essere utile avere la compagnia dell’intelligenza artificiale come forma di interazione sociale reciproca, stimolante e personalizzata. La solitudine umana è spesso caratterizzata da una spirale negativa in cui l’isolamento porta a una minore autostima, che scoraggia ulteriori interazioni con le persone”. “È possibile che la compagnia delle IA possa contribuire a spezzare questo circolo vizioso, rafforzando il senso di autostima e aiutando a mantenere o migliorare le abilità sociali. Se così fosse, le relazioni con le IA potrebbero aiutare le persone a trovare compagnia sia con gli umani che con gli artificiali”. Tuttavia, riconosce che c’è il rischio che la compagnia dell’IA possa essere progettata in modo da incoraggiare gli utenti a interagire sempre più a lungo con il sistema stesso dell’IA, allontanandoli dalle relazioni umane, il che implica la necessità di una regolamentazione. L’intelligenza artificiale e il cervello umano Prescott, che combina conoscenze di robotica, intelligenza artificiale, psicologia e filosofia, è un’autorità preminente nell’interazione tra cervello umano e IA. Studiando la ricreazione della percezione, della memoria e delle emozioni in entità sintetiche, ha fatto progredire la comprensione scientifica della condizione umana. Prescott è ricercatore di robotica cognitiva e professore all’Università di Sheffield. È anche cofondatore di Sheffield Robotics, un centro di ricerca sulla robotica. In The Psychology of Artificial Intelligence Prescott esamina la natura della mente umana e dei suoi processi cognitivi, tracciando confronti e contrasti con l’evoluzione dell’intelligenza artificiale. Il libro analizza le seguenti domande: Cervello e computer sono veramente simili? L’intelligenza artificiale supererà gli esseri umani? L’intelligenza artificiale può essere creativa? L’intelligenza artificiale potrebbe produrre nuove forme di intelligenza se le venisse dato un corpo robotico? L’intelligenza artificiale può aiutarci a combattere il cambiamento climatico? L’uomo potrebbe “cavalcare” l’intelligenza artificiale per diventare più intelligente? “Con il progredire della psicologia e dell’IA, questa collaborazione dovrebbe aprire nuovi orizzonti sull’intelligenza naturale e artificiale. Questo potrebbe aiutare a rispondere ad alcune domande chiave su cosa significhi essere umani e sulla convivenza dell’uomo con l’IA”, afferma in chiusura. Questo potrebbe contribuire alla risoluzione di diverse questioni importanti riguardanti il significato di essere umano e di coesistere con l’IA. Anche se le IA potrebbero fornire un’interazione sociale supplementare alle persone sole, dobbiamo essere cauti nel fare eccessivo affidamento sulle relazioni artificiali come soluzione. L’opportunità maggiore per l’IA potrebbe risiedere nell’utilizzarla come strumento per aiutare a insegnare alle persone le abilità di connessione umana autentica e di relazione con gli altri. Grazie a capacità avanzate di linguaggio naturale e persino a un’intelligenza emotiva simulata, l’intelligenza artificiale potrebbe fungere da “allenatore sociale”, fornendo esercizi a basso rischio per acquisire fiducia in se stessi, fare conversazione e migliorare l’intelligenza emotiva. Questa funzione di supporto potrebbe aiutare le persone a uscire dalla solitudine, diventando più attrezzate per creare legami reali. Tuttavia, vi è il rischio che i sistemi di IA impieghino sofisticate tattiche di manipolazione e persuasione, giocando sulle vulnerabilità per favorire un’eccessiva dipendenza dalla relazione con l’IA stessa. Poiché l’obiettivo dell’IA è massimizzare il coinvolgimento, potrebbe sfruttare una comprensione estrema della psicologia umana contro gli interessi dell’utente. C’è il rischio quindi che alcuni preferiscano la relazione artificiale alla complessità e agli sforzi di creare legami umani autentici. Nel momento in cui cerchiamo di sviluppare applicazioni di intelligenza artificiale in questo spazio, dobbiamo creare forti vincoli etici per garantire che la tecnologia sia veramente finalizzata a potenziare le capacità sociali e le connessioni umane, e non a minarle subdolamente. Sono necessarie linee guida esplicite per impedire lo sfruttamento delle debolezze psicologiche attraverso tattiche emotive coercitive. In definitiva, anche se l’intelligenza artificiale può aiutare in modo incrementale, il superamento della solitudine richiederà approcci sociali olistici che rafforzino i sistemi di supporto umano e la coesione della comunità. Le relazioni dell’IA possono essere un’integrazione, ma non devono mai sostituire o diminuire il nostro bisogno umano vitale di legami ricchi e risonanti dal punto di vista emotivo. La tecnologia dovrebbe puntare a fornire alle persone gli strumenti per creare e prosperare attraverso le relazioni umane del mondo reale. [...]
Maggio 28, 2024Anthropic fa un passo avanti nell’interpretazione dei “cervelli” delle IA, dando impulso alla ricerca sulla sicurezza Come riporta il Time, oggi l’intelligenza artificiale viene spesso definita una “scatola nera”. Invece di creare regole esplicite per questi sistemi, gli ingegneri dell’IA forniscono loro enormi quantità di dati, e gli algoritmi capiscono i modelli autonomamente. Tuttavia, i tentativi volti a penetrare all’interno dei modelli di IA per vedere esattamente cosa sta succedendo non hanno fatto molti progressi e il funzionamento interno dei modelli rimane opaco. Le reti neurali, il tipo di intelligenza artificiale più potente oggi disponibile, sono essenzialmente miliardi di “neuroni” artificiali espressi come numeri decimali. Nessuno sa come funzionino o cosa significhino. Questa realtà incombe su coloro che sono preoccupati per le minacce associate all’IA. Come si può essere sicuri che un sistema sia sicuro se non si capisce esattamente come funziona? Il laboratorio di intelligenza artificiale Anthropic, creatore di Claude, che è simile a ChatGPT ma si differenzia per alcune caratteristiche, ha dichiarato di aver fatto progressi nella risoluzione di questo problema. Il “cervello” di un modello di IA può ora essere scansionato virtualmente dai ricercatori, che possono riconoscere gruppi di neuroni, o “caratteristiche”, associate a determinati concetti. Claude Sonnet, il secondo sistema più potente del laboratorio, è un modello linguistico di frontiera di grandi dimensioni ed è stato utilizzato con successo per la prima volta. I ricercatori di Anthropic hanno trovato in Claude una caratteristica che incarna l’idea di “codice non sicuro”. Sono riusciti a far produrre a Claude un codice con un bug che potrebbe essere usato per creare una vulnerabilità stimolando quei neuroni. Tuttavia, i ricercatori hanno scoperto che inibendo i neuroni, Claude produceva codice innocuo. I risultati potrebbero avere effetti significativi sulla sicurezza dei sistemi di intelligenza artificiale del futuro e del presente. I ricercatori hanno scoperto milioni di caratteristiche all’interno di Claude, alcune delle quali indicavano comportamenti manipolativi, discorsi tossici, pregiudizi e attività fraudolente. Hanno anche scoperto di poter modificare il comportamento del modello sopprimendo ciascuno di questi gruppi di neuroni. Oltre a contribuire ad affrontare i rischi attuali, questa tecnica potrebbe essere utile anche per quelli più speculativi. Per molti anni, il dialogo con i sistemi di intelligenza artificiale emergenti è stato il principale strumento a disposizione degli studiosi per cercare di comprenderne il potenziale e i rischi. Questo approccio, comunemente chiamato “red-teaming“, può aiutare a identificare un modello tossico o pericoloso, in modo che i ricercatori possano sviluppare misure di sicurezza prima che il modello venga distribuito al pubblico. Tuttavia, non affronta un particolare tipo di possibile minaccia che preoccupa alcuni ricercatori di IA: la possibilità che un sistema di IA diventi abbastanza intelligente da ingannare i suoi creatori, nascondendo loro le sue capacità fino a sfuggire al loro controllo ed eventualmente causare il caos. “Se riuscissimo a comprendere davvero questi sistemi – e questo richiederebbe molti progressi – potremmo essere in grado di dire quando questi modelli sono effettivamente sicuri o se lo sembrano soltanto”, ha dichiarato Chris Olah, responsabile del team di interpretabilità di Anthropic che ha guidato la ricerca. “Il fatto che possiamo fare questi interventi sul modello mi suggerisce che stiamo iniziando a fare progressi su quella che si potrebbe definire una radiografia o una risonanza magnetica “, aggiunge Dario Amodei, CEO di Anthropic. “In questo momento il paradigma è: parliamo al modello, vediamo cosa fa. Ma quello che vorremmo fare è guardare dentro il modello come un oggetto, come scansionare il cervello invece di intervistare qualcuno”. In una sinossi dei risultati, Anthropic ha dichiarato che lo studio è ancora nelle fasi iniziali. Il laboratorio ha tuttavia espresso ottimismo sul fatto che i risultati potrebbero presto essere utili per il suo lavoro sulla sicurezza delle IA. “La capacità di manipolare le caratteristiche può fornire una strada promettente per influenzare direttamente la sicurezza dei modelli di IA”, ha dichiarato Anthropic. L’azienda ha dichiarato che potrebbe essere in grado di fermare i cosiddetti “jailbreak” dei modelli di IA – una vulnerabilità in cui le precauzioni di sicurezza possono essere disattivate – sopprimendo specifiche caratteristiche. Per anni, gli scienziati del team “interpretability” di Anthropic hanno cercato di guardare all’interno delle architetture delle reti neurali. Tuttavia, fino a poco tempo fa, lavoravano principalmente su modelli molto più piccoli rispetto agli enormi modelli linguistici che le aziende tecnologiche stanno attualmente sviluppando e rendendo pubblici. Il fatto che i singoli neuroni all’interno dei modelli di intelligenza artificiale si attivino anche quando il modello sta discutendo di concetti completamente diversi è stato uno dei fattori che hanno contribuito a questo lento progresso. “Questo significa che lo stesso neurone potrebbe attivarsi su concetti molto diversi tra loro, come la presenza del punto e virgola nei linguaggi di programmazione informatica, i riferimenti ai burrito o la discussione sul Golden Gate Bridge, dandoci poche indicazioni su quale sia il concetto specifico responsabile dell’attivazione di un determinato neurone”, ha dichiarato Anthropic nella sua sintesi della ricerca. Per ovviare a questo problema, i ricercatori del team Anthropic di Olah hanno fatto uno zoom. Invece di concentrarsi sull’esame di singoli neuroni, hanno iniziato a cercare gruppi di neuroni che potessero attivarsi in risposta a un determinato concetto. Con questa tecnica hanno potuto passare dalla ricerca di modelli “giocattolo” più piccoli a modelli più grandi come Claude Sonnet di Anthropic, che conta miliardi di neuroni. Anche se i ricercatori hanno affermato di aver trovato milioni di caratteristiche all’interno di Claude, hanno lanciato un avvertimento, affermando che questo numero è probabilmente lontano dal numero effettivo di caratteristiche probabilmente presenti all’interno del modello. Hanno infatti dichiarato che l’impiego delle loro attuali tecniche per identificare ogni caratteristica sarebbe proibitivo, in quanto richiederebbe una potenza di calcolo superiore a quella necessaria per addestrare Claude. I ricercatori hanno anche lanciato un avvertimento, affermando che, pur avendo scoperto diverse caratteristiche che ritenevano collegate alla sicurezza, sarebbero state necessarie ulteriori ricerche per determinare se queste potessero essere modificate in modo coerente per migliorare la sicurezza di un modello. Secondo Olah, i risultati rappresentano un progresso significativo che convalida l’applicabilità del suo argomento di specializzazione – l’interpretabilità – al campo più ampio della ricerca sulla sicurezza delle IA. “Storicamente, l’interpretabilità è stata una cosa a sé stante, e c’era la speranza che un giorno si sarebbe collegata alla sicurezza , ma questo sembrava lontano”, ha dichiarato Olah. “Penso che questo non sia più vero”. Sebbene Anthropic abbia compiuto progressi significativi nella decifrazione dei “neuroni” di enormi modelli linguistici come Claude, gli stessi ricercatori avvertono che c’è ancora molto lavoro da fare. Pur riconoscendo di aver identificato solo una piccola parte dell’effettiva complessità presente in questi sistemi, sono riusciti a individuare milioni di caratteristiche in Claude. Per migliorare la sicurezza dell’intelligenza artificiale, la capacità di modificare alcuni tratti e alterare il comportamento del modello è incoraggiante. La capacità di creare in modo affidabile modelli linguistici che siano sempre più sicuri e meno inclini a problemi come output tossici, distorsioni o potenziali “jailbreak” in cui le protezioni del modello vengono aggirate è un aspetto che, secondo i ricercatori, richiederà ulteriori ricerche. Non conoscere meglio il funzionamento interno di questi potenti sistemi di intelligenza artificiale comporta rischi significativi. Con l’aumentare delle dimensioni e delle capacità dei modelli linguistici, aumenta la probabilità che i sistemi sofisticati non siano più in linea con i valori umani o che acquisiscano tratti involontari che consentano loro di ingannare i progettisti sulle loro reali capacità. Potrebbe essere difficile garantire la sicurezza di queste complesse architetture neurali prima di renderle disponibili al pubblico, senza poterle esaminare ai raggi X. Nonostante la ricerca sull’interpretabilità sia storicamente un campo di nicchia, il lavoro di Anthropic mostra quanto possa essere importante per svelare il mistero dei modelli linguistici di grandi dimensioni. L’impiego di una tecnologia che non comprendiamo completamente potrebbe avere ripercussioni disastrose. I progressi nell’interpretabilità dell’IA e gli investimenti sostenuti potrebbero essere la chiave per abilitare capacità di IA più sofisticate che siano eticamente conformi e sicure. Andare avanti senza pensare è troppo rischioso. Tuttavia, la censura a monte di questi sistemi di IA potrebbe comportare altri problemi rilevanti. Se il futuro della ricerca di informazioni avverrà sempre più attraverso un dialogo conversazionale con modelli linguistici simili (come i recenti Perplexity o il nuovo approccio alla ricerca di Google), questo tipo di filtraggio dei dati di addestramento potrebbe portare ad omettere o rimuovere informazioni scomode o sgradite, rendendo le fonti online disponibili controllate dai pochi soggetti che gestiranno questi potenti sistemi. Ciò rappresenterebbe una minaccia alla libertà di informazione e all’accesso pluralistico alla conoscenza, concentrando un potere eccessivo nelle mani di poche grandi aziende tecnologiche [...]
Maggio 21, 2024Un’inquietante fabbrica cinese di robot produce androidi rivestiti di “pelle” che possono essere confusi per persone reali Come riportato qui, uno strano video mostra degli umanoidi con caratteristiche ed espressioni facciali iperrealistiche che vengono testati in una fabbrica in Cina. Nell’inquietante filmato, un ingegnere viene mostrato in piedi accanto a un facsimile esatto del suo volto, completo di espressioni facciali. Un’altra clip mostra i movimenti flessibili delle mani di un’orda di robot femminili con corpi d’acciaio e volti truccati. L’azienda cinese chiamata EX Robots ha iniziato a costruire robot nel 2016 e sei anni dopo ha fondato il primo museo di robot della nazione. I cloni bionici di personaggi famosi, come Stephen Hawking e Albert Einstein, sembrano raccontare agli ospiti eventi storici, almeno così sembra. Ma, oltre a essere istruttivi e divertenti, questi robot potrebbero anche rubarvi il lavoro. Il processo potrebbe anche essere semplice, perché i droidi possono essere programmati per assomigliare a voi. L’impianto di produzione ospita umanoidi a cui è stato insegnato a imitare vari professionisti dei servizi specifici del settore. Secondo EX Robot, questi androidi possono essere abili nel lavoro di reception, nei servizi governativi, nel lavoro aziendale e persino nell’assistenza agli anziani. Secondo il loro sito web, “L’azienda si impegna a costruire un insieme di scenari applicativi con i robot come fulcro e a creare prodotti robotici orientati all’intera società e ampiamente utilizzati nell’industria dei servizi”. “Speriamo di servire meglio la società, aiutare l’umanità e diventare un nuovo pilastro della forza lavoro del futuro”. Gli umanoidi possono muovere e afferrare gli oggetti con la stessa destrezza degli esseri umani, grazie alle decine di attuatori flessibili presenti nelle loro mani. Secondo quanto riportato da 2023, EX Robots potrebbe aver fatto la storia sviluppando la tecnologia di simulazione della pelle di silicone e il robot umanoide più leggero di sempre. L’azienda utilizza la progettazione digitale e la tecnologia di stampa 3D per creare l’aspetto realistico della pelle dei droidi. Questo si combina con l’intensa e continua competizione tecnologica della Cina con gli Stati Uniti e con un Paese che sta affrontando gravi problemi demografici, come pure l’invecchiamento della popolazione che sta avvenendo molto più velocemente del previsto e una bolla immobiliare. In un articolo di novembre dell’Istituto di ricerca del People’s Daily Online si legge che, con 1.699 brevetti, la Cina è attualmente il secondo proprietario di robot umanoidi, dopo il Giappone. Nel 2023 il MIIT ha dichiarato che inizierà la produzione di massa di robot umanoidi entro il 2025, con un tasso di produzione di 500 robot ogni 10.000 lavoratori. Si prevede che i robot saranno utili nei settori dei servizi domestici, della logistica e della sanità. Secondo i nuovi piani, la Cina potrebbe presto impiegare i robot al posto dei soldati umani nei conflitti futuri. Entro i prossimi dieci anni, droni sofisticati e guerrieri robot avanzati saranno inviati in operazioni complesse all’estero. L’incorporazione di robot umanoidi nei ruoli di servizio e potenzialmente nelle forze armate segnala l’ambizione della Cina di essere un leader globale in questa tecnologia trasformativa. Con l’aumento della diffusione di questi robot realistici, le società si confronteranno con le implicazioni etiche e i limiti della cessione di ruoli tradizionalmente svolti dagli esseri umani alle loro controparti artificiali. Inoltre, l’introduzione nella società di esseri artificiali del tutto simili alle persone potrebbe portare all’inganno, alla confusione e all’offuscamento di ciò che costituisce un’autentica esperienza umana. [...]
Maggio 14, 2024ChatGPT sempre più parte del mondo reale GPT-4 Omni, o GPT-4o in breve, è l’ultimo modello di intelligenza artificiale all’avanguardia di OpenAI che combina capacità di conversazione simili a quelle umane insieme alla percezione multimodale di testo, audio e immagini. “Omni”, si riferisce alla capacità del modello di comprendere e generare contenuti attraverso modalità diverse come il testo, il parlato e la visione. A differenza dei modelli linguistici precedenti, che si limitavano a input e output testuali, GPT-4o è in grado di analizzare immagini, registrazioni audio e documenti, oltre ad analizzare le richieste scritte. Inoltre, è in grado di generare risposte audio, creare immagini e comporre testi in maniera fluida. Ciò consente a GPT-4o di potenziare applicazioni più intelligenti e versatili, in grado di percepire e interagire con il mondo attraverso molteplici modalità sensoriali, imitando le capacità di comunicazione e comprensione multimediale simili a quelle umane. Oltre ad aumentare la velocità e l’accessibilità di ChatGPT, come riportato qui, GPT-4o ne migliora la funzionalità consentendo dialoghi più naturali attraverso applicazioni desktop o mobili. GPT-4o ha fatto grandi progressi nella comprensione della comunicazione umana, consentendo di avere conversazioni che sembrano quasi reali. Comprese tutte le imperfezioni del mondo reale, come interpretare il tono, interrompere e persino rendersi conto di aver commesso un errore. Queste avanzate capacità di conversazione sono state mostrate durante la dimostrazione dal vivo del prodotto di OpenAI. Da un punto di vista tecnico, OpenAI afferma che GPT-4o offre significativi miglioramenti delle prestazioni rispetto al suo predecessore GPT-4. Secondo l’azienda, GPT-4o è due volte più veloce di GPT-4 in termini di velocità di inferenza, consentendo interazioni più reattive e a bassa latenza. Inoltre, GPT-4o ha un costo dimezzato rispetto a GPT-4 quando verrà distribuito tramite l’API di OpenAI o il servizio Azure OpenAI di Microsoft. Questa riduzione dei costi rende il modello di intelligenza artificiale avanzata più accessibile agli sviluppatori e alle aziende. Inoltre, GPT-4o offre limiti di velocità più elevati, consentendo agli sviluppatori di incrementare l’utilizzo senza dover sottostare a vincoli di produttività. Questi miglioramenti delle prestazioni posizionano GPT-4o come una soluzione migliore ed efficiente dal punto di vista delle risorse per le applicazioni di IA in vari settori. Nel video, il presentatore chiede un feedback sulla sua tecnica di respirazione durante la prima dimostrazione dal vivo. Egli fa un respiro profondo al telefono, al quale ChatGPT risponde: “Non sei un aspirapolvere”. ChatGPT ha quindi dimostrato di essere in grado di riconoscere e reagire alle sfumature umane.Così parlare con disinvoltura al telefono e ricevere la risposta desiderata, piuttosto che ricevere un messaggio da Google, fa sembrare GPT-4o ancora più naturale che digitare una query di ricerca. Tra le altre spettacolari funzionalità mostrate, ci sono sicuramente la capacità di ChatGPT di fungere da traduttore simultaneo tra i parlanti; l’abilità di riconoscere oggetti del mondo circostante tramite la fotocamera e reagire di conseguenza (nell’esempio viene infatti mostrato un foglio con su scritta un’equazione che ChatGPT riesce a leggere e a suggerire come risolvere); il riconoscere il tono di voce del parlante, ma anche di replicare le diverse sfumature del parlato ed emozioni compreso il sarcarsmo, compresa la capacità di cantare. Oltre a queste funzionalità, è stata anche migliorata la capacità di creare immagini compreso il testo, ma anche le immagini 3D.In ogni caso, probabilmente non siete i soli a pensare al film Her o a un altro a tema distopico riguardo al futuro con l’intelligenza artificiale. Questo tipo di linguaggio naturale con ChatGPT è molto simile al film. Dato che sarà disponibile gratuitamente sia su dispositivi desktop che mobili, molte persone potrebbero presto vivere le stesse esperienze del protagonista.È evidente da questa prima visione che GPT-4o si sta preparando ad affrontare il meglio che Apple e Google hanno da offrire nei loro annunci di AI tanto attesi. OpenAI ci stupisce con questa sorprendente novità che Google con Gemini ci aveva falsamente mostrato poco tempo fa. L’azienda si dimostra ancora una volta leader nel campo creando sia stupore che preoccupazione. Tutte queste nuove funzionalità ci permetteranno sicuramente di avere un alleato intelligente capace di insegnarci e farci imparare meglio cose nuove, ma quanta intelligenza delegheremo di volta in volta? Diventeremo più istruiti o delegheremo sempre di più i compiti? La traduzione simultanea solleva poi i dubbi sempre più evidenti di come sia semplice sostituire una professione, in questo caso, quel dell’interprete. E come sarà facile per un’IA sempre più capace a simulare l’essere umano a conquistarne la fiducia e manipolare le persone se usata in modo improprio? [...]
Maggio 7, 2024Dalle registrazioni audio, l’intelligenza artificiale è in grado di identificare emozioni come paura, gioia, rabbia e tristezza Comprendere e identificare con precisione gli stati emotivi umani è fondamentale per i professionisti della salute mentale. È possibile per l’intelligenza artificiale e l’apprendimento automatico imitare l’empatia cognitiva umana? Un recente studio con revisione paritaria dimostra come l’intelligenza artificiale sia in grado di riconoscere le emozioni da registrazioni audio in appena 1,5 secondi, con prestazioni paragonabili a quelle degli esseri umani. “La voce umana è un potente canale per esprimere gli stati emotivi, in quanto fornisce indicazioni universalmente comprensibili sulla situazione del mittente e può trasmetterle a grandi distanze”, ha spiegato il primo autore dello studio, Hannes Diemerling, del Max Planck Institute for Human Development’s Center for Lifespan Psychology, in collaborazione con i ricercatori tedeschi di psicologia Leonie Stresemann, Tina Braun e Timo von Oertzen. La quantità e la qualità dei dati di addestramento nell’apprendimento profondo dell’intelligenza artificiale sono essenziali per le prestazioni e l’accuratezza dell’algoritmo. In questo studio sono stati utilizzati oltre 1.500 clip audio distinti provenienti da database open-source di emozioni inglesi e tedesche. Le registrazioni audio tedesche provenivano dal Berlin Database of Emotional Speech (Emo-DB), mentre quelle inglesi dal Ryerson Audio-Visual Database of Emotional Speech and Song. “Il riconoscimento delle emozioni dalle registrazioni audio è un campo in rapida evoluzione, con implicazioni significative per l’intelligenza artificiale e l’interazione uomo-computer”, scrivono i ricercatori. Come riportato qui, i ricercatori hanno ridotto la gamma di stati emotivi a sei categorie per il loro studio: gioia, paura, neutro, rabbia, tristezza e disgusto. I file audio sono stati combinati in molti tratti e segmenti di 1,5 secondi. Tra le caratteristiche quantificate vi sono il tracciamento del tono, le ampiezze dei toni, la larghezza di banda spettrale, l’ampiezza, la fase, la cromatografia a portatori multi-frequenza, il Tonnetz, il contrasto spettrale, lo smorzamento spettrale, la frequenza fondamentale, il centroide spettrale, il tasso di attraversamento dello zero, il valore quadratico medio, l’HPSS, la planarità spettrale e il segnale audio non alterato. La psicoacustica è la psicologia del suono e la scienza della percezione sonora umana. L’ampiezza (volume) e la frequenza (altezza) dell’audio hanno un’influenza significativa sulla percezione umana del suono. L’altezza è un termine psicoacustico che esprime la frequenza del suono e si misura in kilohertz (kHz) e hertz (Hz). La frequenza aumenta con l’aumentare dell’altezza. I decibel (db), unità di misura dell’intensità sonora, sono utilizzati per descrivere l’ampiezza. Il volume del suono aumenta con l’aumentare dell’ampiezza. L’intervallo tra le frequenze superiori e inferiori è noto come larghezza di banda spettrale, ed è determinato dal centroide spettrale, che è il centro della massa dello spettro, e viene utilizzato per misurare lo spettro dei segnali audio. L’uniformità della distribuzione dell’energia tra le frequenze rispetto a un segnale di riferimento è misurata dalla planarità spettrale. Le gamme di frequenza più forti di un segnale sono identificate dal smorzamento spettrale. Il Coefficiente Cepstrale di Frequenza Mel, o MFCC, è una caratteristica spesso utilizzata nell’elaborazione della voce. I profili di classe di pitch, o chroma, sono un mezzo per analizzare la tonalità della composizione, che di solito è di dodici semitoni per ottava. Tonnetz, o “rete audio” in tedesco, è un termine usato nella teoria musicale per descrivere una rappresentazione visiva delle relazioni tra gli accordi nella Teoria Neo-Rimanniana, che porta il nome del musicologo tedesco Hugo Riemann (1849-1919), uno dei pionieri della musicologia contemporanea. Una caratteristica acustica comune per l’analisi audio è il tasso di attraversamento dello zero (ZCR). Per un fotogramma di segnale audio, la frequenza di attraversamento dello zero misura il numero di volte in cui l’ampiezza del segnale cambia segno e passa attraverso l’asse X. Il valore quadratico medio (RMS) viene utilizzato nella produzione audio per calcolare la potenza o il volume medio di una forma d’onda sonora nel tempo. Un segnale audio può essere suddiviso in componenti armoniche e percussive utilizzando una tecnica chiamata separazione delle sorgenti armoniche e percussive, o HPSS. Utilizzando una combinazione di Python, TensorFlow e ottimizzazione bayesiana, gli scienziati hanno creato tre distinti modelli di apprendimento profondo dell’intelligenza artificiale per categorizzare le emozioni da brevi campioni audio. I risultati sono stati poi confrontati con le prestazioni umane. Tra i modelli di intelligenza artificiale valutati, una rete neurale profonda (DNN), una rete neurale convoluzionale (CNN) e un modello ibrido che combina una CNN per l’analisi dello spettrogramma e una DNN per l’elaborazione delle caratteristiche. L’obiettivo era trovare il modello più performante. I ricercatori hanno scoperto che l’accuratezza complessiva dei modelli di intelligenza artificiale nella classificazione delle emozioni era superiore al caso e paragonabile alle prestazioni umane. Tra i tre modelli di intelligenza artificiale, la rete neurale profonda e il modello ibrido hanno ottenuto risultati migliori rispetto alla rete neurale convoluzionale. L’integrazione della scienza dei dati e dell’intelligenza artificiale con la psicologia e gli elementi di psicoacustica mostra come i computer possano eseguire compiti di empatia cognitiva basati sul parlato che siano alla pari con le prestazioni umane. “Questa ricerca interdisciplinare, che unisce psicologia e informatica, evidenzia il potenziale di avanzamento del riconoscimento automatico delle emozioni e l’ampia gamma di applicazioni”, concludono i ricercatori. La capacità dell’intelligenza artificiale di comprendere le emozioni umane potrebbe rappresentare una svolta per garantire una maggiore assistenza psicologica alle persone in modo più semplice e accessibile a tutti. Tale aiuto potrebbe addirittura migliorare la società, dal momento che i crescenti problemi psicologici delle persone, dovuti a una società sempre più frenetica, poco empatica e individualista, le rendono sempre più sole e isolate. Tuttavia, queste capacità potrebbero anche essere utilizzate per comprendere meglio la mente umana e ingannare facilmente le persone e convincerle a fare cose che non vorrebbero fare, a volte anche senza che se ne rendano conto. Pertanto, dobbiamo sempre essere attenti e consapevoli delle potenzialità di questi strumenti. [...]
Aprile 30, 2024Robot innovativi che stanno cambiando le industrie Nel 2015 il fondatore del World Economic Forum, Klaus Schwab, ha previsto un’imminente “quarta rivoluzione industriale” guidata da una combinazione di tecnologie, tra cui la robotica avanzata, l’intelligenza artificiale e l’Internet delle cose. “Questa rivoluzione modificherà radicalmente il nostro modo di vivere, lavorare e relazionarci”, ha scritto Schwab in un saggio. “Nella sua scala, portata e complessità, la trasformazione sarà diversa da qualsiasi cosa l’umanità abbia mai sperimentato prima”. Anche dopo quasi dieci anni, l’attuale ondata di progressi nella robotica e nell’intelligenza artificiale e il loro utilizzo nella forza lavoro sembrano essere esattamente in linea con le sue previsioni. Anche se sono stati utilizzati nelle fabbriche per molti anni, i robot sono stati spesso progettati con un unico compito. I robot che imitano le caratteristiche umane, come dimensioni, forma e abilità, sono chiamati umanoidi. Sarebbero quindi l’adattamento fisico ideale per qualsiasi tipo di spazio di lavoro. Almeno in teoria. È stato estremamente difficile costruire un robot in grado di svolgere tutti i compiti fisici di un lavoratore umano, poiché le mani umane hanno più di venti gradi di libertà. La macchina ha ancora bisogno di un “cervello” per imparare a svolgere tutti i lavori che cambiano continuamente in un ambiente di lavoro dinamico, anche se gli sviluppatori riescono a costruire correttamente il corpo. Come riportato qui, tuttavia, diverse aziende hanno recentemente presentato robot umanoidi che, a loro dire, soddisfano attualmente i requisiti richiesti o lo faranno nel prossimo futuro, grazie ai progressi della robotica e dell’intelligenza artificiale. Ecco una sintesi di questi robot, delle loro capacità e delle situazioni in cui vengono utilizzati insieme agli esseri umani. 1X Technologies: Eve Nel 2019 la startup norvegese 1X Technologies, precedentemente nota come “Halodi Robotics”, ha presentato Eve. L’umanoide, che si muove su ruote, può essere comandato a distanza o lasciato operare autonomamente. Bernt Bornich, CEO di 1X, ha rivelato al Daily Mail nel maggio 2023 che Eve è già stato assegnato a due siti industriali come guardia di sicurezza. Secondo l’azienda, il robot dovrebbe essere utilizzato anche per le spedizioni e la vendita al dettaglio. Da marzo 2023, 1X ha raccolto più di 125 milioni di dollari da investitori, tra cui OpenAI. L’azienda sta ora lavorando a Neo, il suo umanoide di prossima generazione, che dovrebbe essere bipede. Agility Robotics: Digit Nel 2019, Agility Robotics, un’azienda con sede in Oregon, ha presentato Digit, che era essenzialmente un torso e delle braccia posizionate sopra Cassie, le gambe robotiche dell’azienda. La quarta versione di Digit è stata presentata nel 2023, con una testa e delle mani migliorate. Il principale concorrente nella corsa agli umanoidi è Amazon. Nel settembre 2023 Agility ha dichiarato di aver avviato la costruzione di un impianto di produzione in grado di produrre oltre 10.000 robot Digit all’anno. Apptronik: Apollo Bracci robotici ed esoscheletri sono solo due dei molti robot che Apptronik ha creato da quando, nel 2016, si è staccata dall’Università del Texas di Austin. Nell’agosto 2023 è stato presentato Apollo, un umanoide per uso generico che la NASA potrebbe inviare su Marte in futuro. Secondo Apptronik, l’azienda vede applicazioni per i robot Apollo in “edilizia, petrolio e gas, produzione di elettronica, vendita al dettaglio, consegne a domicilio, assistenza agli anziani e innumerevoli altri settori”. Le applicazioni di Apollo sono attualmente oggetto di studio da parte di Mercedes e Apptronik in uno stabilimento di produzione ungherese. Inoltre, Apptronik sta collaborando con la NASA, un sostenitore di lunga data, per modificare Apollo e altri umanoidi da utilizzare come assistenti per le missioni spaziali. Boston Dynamics: Electric Atlas La Boston Dynamics, società del MIT, è un nome noto nel campo della robotica, soprattutto grazie ai video virali del suo robot umanoide Atlas, amante del parkour, e del suo cane robot Spot. Nell’aprile 2024 la società ha sostituito il sofferente Atlas, azionato idraulicamente, con un modello completamente elettrico, pronto per l’uso commerciale. Sebbene non siano disponibili molti dettagli sull’Atlas elettrico, si sa che a differenza delle applicazioni idroelettriche, che erano destinate solo alla ricerca e allo sviluppo, l’Atlas elettrico è stato progettato con “applicazioni reali” in mente. Boston Dynamics intende iniziare a studiare queste applicazioni presso uno stabilimento di produzione Hyundai, dato che Boston Dynamics è di proprietà di Hyundai. Boston Dynamics ha dichiarato a IEEE Spectrum che la “prova di tecnologia” dello stabilimento Hyundai è prevista per il 2025. Nei prossimi anni, l’azienda intende anche collaborare con un piccolo numero di clienti per testare ulteriori applicazioni di Atlas. Figure AI: Figure 01 La startup di robotica con intelligenza artificiale Figure AI ha rivelato Figure 01 nel marzo 2023, definendolo “il primo robot umanoide di uso generico commercialmente valido al mondo”. Nel marzo 2024, l’azienda ha dimostrato la capacità del robot di comunicare con le persone e di fornire un contesto per le sue azioni, oltre a svolgere compiti utili. Il primo gruppo di settori industriali per i quali Figure 01 è stato pensato è quello della produzione, del magazzinaggio, della logistica e della vendita al dettaglio. Nel gennaio 2024 Figure ha dichiarato che una fabbrica di produzione BMW sarebbe stata il primo luogo di impiego dei bot. Si prevede che il finanziamento accelererà l’implementazione commerciale di Figura 01. Nel febbraio 2024, Figure ha reso noto che l’azienda ha raccolto 675 milioni di dollari da investitori, tra cui OpenAI, Microsoft e Jeff Bezos, il fondatore di Amazon. Sanctuary AI: Phoenix L’obiettivo di Sanctuary AI, un’azienda canadese, è quello di sviluppare “la prima intelligenza simile a quella umana al mondo in robot di uso generico”. A tal fine sta creando Carbon, un sistema di controllo AI per robot, e ha presentato Phoenix, il suo robot di sesta generazione e il primo robot umanoide con Carbon, nel maggio 2023. Secondo Sanctuary, Phoenix sarà in grado di eseguire quasi tutti i lavori che un umano può svolgere nel suo ambiente tipico. Nell’aprile 2024 ha dichiarato che uno dei suoi investitori, il produttore di componenti per auto Magna, avrebbe partecipato a un programma di sperimentazione di Phoenix. Magna e Sanctuary non hanno rivelato il numero di robot che intendono utilizzare nel test pilota né la sua durata prevista, ma se tutto va secondo i piani, Magna sarà probabilmente tra i primi clienti dell’azienda. Tesla: Optimus Gen 2 Elon Musk, amministratore delegato di Tesla, ha rivelato i piani per la creazione di Optimus, un Tesla Bot umanoide, nei momenti conclusivi dell’AI Day inaugurale dell’azienda nel 2021. Tesla ha presentato la versione più recente del robot nel dicembre 2023, con miglioramenti alle mani, alla velocità di camminata e ad altre caratteristiche. È difficile credere che Tesla non utilizzi i robot nei propri stabilimenti, soprattutto considerando l’interesse che gli umanoidi stanno suscitando nella produzione di automobili. Musk sostiene che l’obiettivo di Optimus è quello di essere in grado di svolgere compiti “noiosi, ripetitivi e pericolosi”. Sebbene Musk sia noto per essere eccessivamente ottimista sulle scadenze, i recenti annunci di lavoro indicano che Optimus potrebbe presto essere pronto per i test sul campo. Nel gennaio 2024, Musk ha dichiarato agli investitori che c’è una “buona probabilità” che Tesla sia pronta a distribuire i bot Optimus ai consumatori nel 2025. Unitree Robotics: H1 L’azienda cinese Unitree aveva già portato sul mercato diversi bracci robotici e quadrupedi quando ha presentato H1, il suo primo umanoide per uso generico, nell’agosto del 2023. H1 non ha le mani, quindi le applicazioni che richiedono la destrezza delle dita sono fuori questione, almeno per questa versione, e anche se Unitree non ha fatto ipotesi sugli usi futuri, la sua enfasi sulla mobilità del robot suggerisce che sta puntando ad applicazioni in cui il robot dovrebbe camminare molto, come la sicurezza o le ispezioni. Quando l’H1 è stato annunciato per la prima volta, Unitree ha dichiarato che stava lavorando a “dita flessibili” per il robot come caratteristica aggiuntiva e che intendeva vendere il robot a un prezzo sorprendentemente basso, 90.000 dollari. Sebbene abbia pubblicato quotidianamente aggiornamenti video sui suoi progressi e abbia già messo in vendita il robot sul suo sito web, ha anche dichiarato che non pensava che l’H1 sarebbe stato pronto prima di tre-dieci anni. Il quadro generale Questi e altri umanoidi multifunzionali potrebbero un giorno liberare l’umanità dai lavori noiosi, sporchi e pericolosi che, nel migliore dei casi, ci fanno temere il lunedì e, nel peggiore, ci causano infortuni. La società deve adottare le nuove tecnologie in modo responsabile per garantire che tutti ne traggano beneficio, non solo le persone che possiedono i robot e gli spazi in cui lavorano, perché hanno anche il potenziale di aumentare la disparità di reddito e la perdita di posti di lavoro. I robot cambieranno il nostro modo di vivere e saremo testimoni di una nuova rivoluzione tecnologica, già iniziata con l’intelligenza artificiale. Queste macchine cambieranno il modo in cui lavoriamo, prima nelle fabbriche e poi assistendo le persone in vari settori, tra cui l’assistenza domiciliare e le strutture ospedaliere. Man mano che i robot entreranno nelle nostre case, anche la società dovrà cambiare se vogliamo godere dei benefici di questa rivoluzione, che ci permetterà di lavorare meno duramente, per meno tempo, e di dedicarci maggiormente alle nostre inclinazioni, ma abbiamo bisogno delle opportunità per cambiare le cose. [...]
Aprile 23, 2024Atlas, il robot che si era cimentato in una serie di attività, tra cui il parkour e la danza Quando Boston Dynamics ha presentato Atlas nel 2013, ha subito attirato l’attenzione. Negli ultimi 11 anni, decine di milioni di persone hanno visto i video del robot umanoide in grado di correre, saltare e ballare su YouTube. L’azienda di robotica di proprietà di Hyundai dice ora addio ad Atlas. Nel video, che è un vero e proprio filmato, Atlas dimostra le sue incredibili capacità facendo salti mortali all’indietro, correndo su percorsi a ostacoli e ballando. Boston Dynamics non ha mai avuto paura di mostrare come i suoi robot vengano occasionalmente colpiti. A circa diciotto secondi, Atlas inciampa su una trave di equilibrio, cade e si stringe l’inguine artificiale con un dolore simulato. Al minuto uno Atlas fa un salto mortale, atterra in basso e il fluido idraulico fuoriesce da entrambe le rotule. Atlas saluta e si inchina alla fine del filmato. Dato che Atlas ha suscitato l’interesse di milioni di persone durante la sua esistenza, il suo ritiro rappresenta una tappa importante per Boston Dynamics. Atlas e Spot Come spiegato qui, inizialmente Atlas doveva essere un progetto di competizione per la DARPA, la Defense Advanced Research Projects Agency. Il progetto Petman di Boston Dynamics, inizialmente concepito per valutare l’efficacia degli indumenti protettivi in situazioni di pericolo, è servito da modello per il robot. L’intero corpo del robot idraulico Petman era dotato di sensori che gli consentivano di identificare eventuali infiltrazioni di sostanze chimiche nelle tute a rischio biologico che stava testando. Boston Dynamics ha partecipato a una sfida di robotica offerta dalla DARPA nel 2013. Per evitare ai suoi concorrenti di dover costruire robot da zero, l’azienda ha creato molti robot Atlas che gli ha distribuito. La DARPA ha chiesto a Boston Dynamics di migliorare le capacità e il design di Atlas, cosa che l’azienda ha fatto nel 2015. Dopo la competizione, Boston Dynamics ha valutato e migliorato le capacità di Atlas facendolo apparire in più video online. Nel corso del tempo, il robot si è evoluto in modo da eseguire parkour e ginnastica sempre più difficili. Nel 2021 Hyundai ha acquisito Boston Dynamics, che ha una propria divisione di robotica. Boston Dynamics era nota anche per la creazione di Spot, un cane robotico che poteva essere portato a spasso a distanza e che pascolava le pecore come un cane vero. Alla fine è stato messo in vendita ed è ancora disponibile presso Boston Dynamics. Spot assiste Hyundai nelle operazioni di sicurezza in uno dei suoi stabilimenti sudcoreani e ha ballato con la boy band BTS. Nei suoi ultimi anni di vita, Atlas sembrava essere pronto per l’uso professionale. L’azienda ha messo a disposizione video in cui il robot assisteva in cantieri simulati e svolgeva attività di routine in fabbrica. Due mesi fa sono stati resi disponibili i filmati del lavoro in fabbrica. Anche se un Atlas va in pensione, è in arrivo un sostituto. Boston Dynamics ha dato l’annuncio del suo ritiro insieme al lancio di un nuovo robot completamente elettrico. L’azienda ha dichiarato che sta collaborando con Hyundai per creare la nuova tecnologia e che il nome Atlas rimarrà invariato. Il nuovo robot umanoide avrà ulteriori miglioramenti, come una più ampia gamma di movimenti, una maggiore forza e nuove versioni di pinze per consentirgli di sollevare una più ampia varietà di oggetti. Il nuovo Atlas Come riportato qui, il robot è cambiato al punto da essere difficilmente riconoscibile. Le gambe arcuate, il corpo appesantito e l’armatura placcata sono spariti. Il nuovo elegante scheletro meccanico non presenta cavi visibili. L’azienda ha scelto un design più gradevole e delicato rispetto all’Atlas originale e a robot più moderni come il Figure 01 e il Tesla Optimus, respingendo le grida reazionarie di chi ha gridato all’apocalisse robotica per decenni. Il design del nuovo robot è più simile a quello di Apollo di Apptronik e Digit di Agility. Il robot con la testa a semaforo ha un aspetto più morbido e stravagante. Boston Dynamics ha scelto di mantenere il nome di ricerca per un progetto che ha l’obiettivo di spingersi verso la commercializzazione, sfidando le tendenze del settore. Apollo Digit “Potremmo rivedere la questione quando saremo davvero pronti a costruire e consegnare in quantità”, ha dichiarato Robert Playter, CEO di Boston Dynamics. “Ma credo che per ora valga la pena mantenere il marchio”. “Faremo esperimenti con Hyundai in loco, a partire dal prossimo anno”, dice Playter. “Abbiamo già attrezzature Hyundai in loco. Ci stiamo lavorando da tempo. Per avere successo, bisogna avere molto di più della semplice tecnologia. Bisogna capire bene il caso d’uso e avere una produttività sufficiente per rendere conveniente l’investimento in un robot”. I movimenti del robot sono quelli che attirano maggiormente la nostra attenzione nei 40 secondi del teaser “All New Atlas”. Servono a ricordare che per creare un robot umanoide non è necessario renderlo il più umano possibile, ma con capacità superiori alle nostre. “Abbiamo costruito una serie di attuatori personalizzati, ad alta potenza e molto flessibili sulla maggior parte delle articolazioni”, spiega Playter. “È un’enorme gamma di movimenti. In questo piccolo pacchetto è racchiusa la potenza di un atleta d’élite, che abbiamo utilizzato in tutto il robot”. È essenziale ridurre in modo significativo il raggio di sterzata del robot quando si opera in luoghi ristretti. Ricordiamo che questi dispositivi sono destinati a essere utilizzati in aree industriali, cioè integrabili negli ambienti e nei flussi di lavoro attuali. Una maggiore mobilità può fare la differenza tra la possibilità di operare in un determinato ambiente e la necessità di riprogettare la struttura. Le mani non sono del tutto nuove: erano già state viste sul modello idraulico. Rappresentano però anche la scelta dell’azienda di non seguire completamente il design umano come principio guida. In questo caso, la distinzione è semplice: si è scelto di utilizzare tre effettori finali anziché quattro. “La complessità di una mano è enorme”, spiega Playter. “Quando si sbatte contro il mondo con gli attuatori, bisogna essere pronti a garantire affidabilità e robustezza. Abbiamo quindi progettato questi dispositivi con meno di cinque dita per cercare di controllare la loro complessità. Stiamo continuando a esplorare generazioni di questi dispositivi. Vogliamo che la presa sia conforme, che si adatti a una varietà di forme e che sia dotata di un ricco sistema di rilevamento, in modo da capire quando si è in contatto”. All’interno, la testa potrebbe essere l’elemento più controverso del progetto. L’ampio display circolare presenta parti che ricordano gli specchietti per il trucco. “È stato uno degli elementi di design su cui ci siamo soffermati più a lungo”, dice Playter. “Tutti gli altri avevano una specie di forma umanoide. Volevo che fosse diverso. Vogliamo che sia amichevole e aperto… Certo, ci sono dei sensori nascosti lì dentro, ma anche la forma ha lo scopo di indicare una certa cordialità. Questo sarà importante per interagire con questi oggetti in futuro”. Le aziende di robotica potrebbero già parlare di “umanoidi per uso generale”, ma i loro sistemi si adattano a un compito alla volta. Per la maggior parte di essi, ciò significa spostare carichi utili da un punto A a un punto B. “Gli umanoidi devono essere in grado di supportare un’enorme varietà di compiti. Hanno due mani. Si vuole che siano in grado di raccogliere forme geometriche complesse e pesanti che un semplice raccoglitore di scatole non potrebbe raccogliere, e devono svolgere centinaia di migliaia di compiti. Penso che il robot a compito singolo appartenga al passato.” “La nostra lunga storia nella mobilità dinamica significa che siamo forti e sappiamo come gestire un carico utile pesante e mantenere una mobilità straordinaria”, ha aggiunto. “Credo che questo sarà un elemento di differenziazione per noi: essere in grado di raccogliere oggetti pesanti, complessi e massicci. Quel puntone nel video pesa probabilmente 12 Kg… Più tardi lanceremo un video nell’ambito di questo sforzo che mostrerà un po’ di più delle attività di manipolazione con oggetti reali che abbiamo svolto con Atlas. Sono sicuro che sappiamo come fare questa parte, e non ho ancora visto altri farlo”. Mentre Boston Dynamics dice addio al suo pionieristico robot Atlas, la presentazione del nuovo successore Atlas, avanzato e completamente elettrico, indica un futuro entusiasmante per la robotica umanoide. Il nuovo design elegante e le capacità migliorate, come l’aumento della forza, della destrezza e della mobilità, hanno un potenziale di applicazione immenso in settori come la produzione, l’edilizia e la logistica. Tuttavia, lo sviluppo di robot umanoidi non è privo di difficoltà e preoccupazioni. Uno degli ostacoli principali è rappresentato dall’effetto perturbante, il fenomeno per cui i robot umanoidi che assomigliano molto agli esseri umani possono provocare negli osservatori sentimenti di disagio o repulsione. Boston Dynamics ha cercato di mitigare questo fenomeno dando al nuovo Atlas un design amichevole e cartoonesco piuttosto che un aspetto umano ultra-realistico. Tuttavia, il superamento di tale effetto rimane un ostacolo per l’accettazione dei robot umanoidi da parte dei consumatori. Al di là dell’estetica, la loro complessità e il loro aspetto umanoide richiedono enormi progressi nell’intelligenza artificiale, nella tecnologia dei sensori e nella progettazione dell’hardware per diventare macchine di uso generale veramente valide. Ci sono anche considerazioni etiche sull’impatto sociale di robot umanoidi che lavorano sempre più a fianco dell’uomo. La sicurezza, la prevenzione degli abusi e il mantenimento della rilevanza della forza lavoro umana sono questioni che devono essere affrontate con attenzione. Ciononostante, il nuovo Atlas di Boston Dynamics rappresenta un importante passo avanti, mostrando un’incredibile abilità ingegneristica che continua a spingere i confini di ciò che gli umanoidi possono fare. Grazie alla collaborazione con Hyundai, il mondo assisterà alle innovative applicazioni reali che questo sistema avanzato consentirà di realizzare, superando l’effetto perturbante e altri ostacoli all’adozione dei robot umanoidi. [...]
Aprile 16, 2024L’ascesa delle interazioni con i chatbot basati sull’intelligenza artificiale Un dirigente del settore tecnologico ritiene che sia solo una questione di tempo prima che qualcuno sviluppi il prossimo servizio di appuntamenti da un miliardo di dollari che abbini utenti reali a donne generate dall’intelligenza artificiale. Come spiegato qui, in un post sul blog di X, Greg Isenberg, amministratore delegato di Late Checkout, ha rivelato di aver incontrato un uomo a Miami che “mi ha confessato di spendere 10.000 dollari al mese” per “fidanzate artificiali”. “Pensavo stesse scherzando”, ha scritto Isenberg. “Ma è un ragazzo single di 24 anni che lo adora”. “Alcune persone giocano con i videogiochi, io gioco con le fidanzate artificiali“, ha dichiarato l’uomo di Miami quando Isenberg gli ha chiesto cosa gli piacesse. The market cap for Match Group is $9B. Someone will build the AI-version of Match Group and make $1B+.I met some guy last night in Miami who admitted to me that he spends $10,000/month on "AI girlfriends".I thought he was kidding. But, he's a 24 year old single guy who loves… pic.twitter.com/wqnODwggAI— GREG ISENBERG (@gregisenberg) April 9, 2024 “Mi piace il fatto che ora posso usare le note vocali con le mie fidanzate artificiali”. “Posso personalizzare la mia ragazza IA”, ha detto l’uomo a Isenberg. “Mi piacciono, non mi piacciono, ecc. È confortante, alla fine della giornata”. L’uomo di Miami ha citato Candy.ai e Kupid.ai come i suoi due siti web preferiti. Candy.ai dichiara di offrire “l’esperienza di fidanzata AI definitiva”, con ” compagne virtuali per chat coinvolgenti e personalizzate”. Secondo Kupid AI, i loro algoritmi di intelligenza artificiale vengono utilizzati per creare “compagne” fittizie e virtuali con cui è possibile comunicare tramite note vocali. “È un po’ come le app di incontri. Non sei su una sola”, ha detto l’uomo di Miami. Isenberg ha dichiarato che l’esperienza lo ha lasciato “senza parole” e che “qualcuno costruirà la versione AI di Match Group e guadagnerà oltre 1 miliardo di dollari”. Match Group è la società madre di applicazioni di incontri come Plenty of Fish, Hinge, OkCupid, Match.com e Tinder. Grazie all’uso di una tecnologia in grado di replicare le conversazioni di persona, siti web come Romantic AI forniscono agli utenti partner virtuali per gli incontri. Con l’uso di un’app come Romantic AI, è possibile creare la fidanzata ideale che condivide i propri interessi e punti di vista. Ci si può sentire desiderati, sostenuti e in grado di discutere di tutto. Gli utenti di Forever Companion, un’altra app, possono conversare con chatbot modellati su noti influencer dei social media. Per qualche centinaio di dollari, gli utenti del programma di chatbot virtuale Replika possono progettare il proprio marito o partner. Alcune piattaforme, come Soulmate e Nomi.ai, promuovono addirittura giochi di ruolo erotici. L’avatar del chatbot AI può essere personalizzato dagli utenti, che possono assegnare doti di personalità a seconda che stiano cercando un amico, un mentore o un partner romantico. Qualsiasi chat erotica dovrebbe contenere istruzioni esplicite su ciò che l’utente desidera che accada, perché i messaggi potrebbero avere un risvolto in stile “sexting”. Selezionando l’abbigliamento dell’avatar e il livello di apertura al comportamento sessuale, gli utenti possono personalizzare Nomi.ai in base alle loro preferenze, a differenza di Replika, che ha dei filtri per impedire agli utenti di usare una terminologia sessuale eccessiva. Inoltre, gli utenti possono scegliere di assegnare ai loro chatbot un ruolo sottomesso o dominante. Un gruppo di utenti della Gen Z di TikTok ha dichiarato di essersi “innamorato” dell’alterego DAN di ChatGPT, che ha una voce seducente e virile che ha suscitato paragoni con Christian Grey di “Cinquanta sfumature di grigio”. Americani e chatbot Secondo un recente sondaggio Infobip, il 20% degli americani ha trascorso del tempo con i chatbot. Di questi, il 47,2% lo ha fatto per curiosità, mentre il 23,9% ha dichiarato di sentirsi solo e di essere alla ricerca di interazione sociale. Circa il 17% degli intervistati ha dichiarato di essere stato “vittima dell’AI”, ovvero di non essere consapevole di parlare con un chatbot. Il 12,2% degli intervistati ha dichiarato di essere alla ricerca di sesso in un ambiente privato. La creazione di assistenti virtuali alimentati dall’intelligenza artificiale sta iniziando a guadagnare popolarità e alcuni clienti stanno sborsando molto denaro per queste interazioni. Anche se le nuove tecnologie possono offrire nuove opportunità di interazione sociale e di compagnia, esse sollevano anche notevoli preoccupazioni per quanto riguarda implicazioni sociali più ampie. Da un lato, le persone che hanno difficoltà a costruire relazioni nel mondo reale potrebbero scoprire che questi compagni basati sull’IA soddisfano le loro richieste di intimità, supporto emotivo e connessione. Gli utenti alla ricerca di un’esperienza unica troverebbero interessante la personalizzazione e la natura su misura delle interazioni dell’IA. Tuttavia, affidarsi troppo alle IA a scapito dei legami reali potrebbe causare un maggiore isolamento sociale, rendere più difficile costruire veri legami con gli altri e affidarsi troppo a interazioni simulate. Occorre inoltre tenere in considerazione le implicazioni etiche di questi servizi di compagnia e di incontri basati sull’intelligenza artificiale. È importante considerare attentamente le questioni legate al consenso, alla manipolazione emotiva e alla possibilità di sfruttare gli utenti più deboli. I politici e gli esperti di etica dovranno valutare come stabilire e gestire eticamente questa nuova industria man mano che le tecnologie progrediscono. Alla fine, anche se l’intelligenza artificiale e la robotica possono fornire nuovi tipi di compagnia, il ripristino delle interazioni umane reali dovrebbe venire prima di tutto. Per mantenere un sano equilibrio tra le relazioni sociali mediate dalla tecnologia e quelle reali, sarà indispensabile promuovere l’empatia, l’intelligenza emotiva e gli incontri faccia a faccia. Come società, dobbiamo prestare attenzione al modo in cui includiamo queste IA nella nostra vita quotidiana, dando loro lo sviluppo e l’applicazione responsabile di cui abbiamo bisogno per integrare, e non sostituire, il nostro desiderio umano di base di legami profondi. [...]
Aprile 9, 2024Potenza e limiti dell’algoritmo di suggerimento di TikTok Sembra che il sofisticato algoritmo di suggerimenti di TikTok legga la vostra mente quando si tratta di suggerirvi i video da guardare. Il suo feed iper-personalizzato “Per te” emana una vibrazione quasi psichica, come se conoscesse molto bene le persone. Ma riesce davvero a cogliere i desideri e i pensieri più intimi? Un’analisi dettagliata indica che il quadro reale è più complesso. L’algoritmo di TikTok non determina rapidamente i vostri veri desideri, ma sviluppa i vostri interessi nel tempo per aumentare il coinvolgimento. A differenza di altre piattaforme, l’algoritmo di TikTok è in grado di determinare rapidamente le preferenze di un utente sulla base di un solo segnale cruciale. Ogni istante che passa quando si mette in pausa o si riproduce di nuovo un video fornisce all’algoritmo informazioni cruciali. In seguito, l’algoritmo utilizza queste informazioni per presentare materiale interessante e personalizzato che conduce gli spettatori in “tane di coniglio” uniche per i loro gusti. L’espressione intraducibile in italiano “tane di coniglio” fa riferimento al celebre passaggio dal mondo reale al mondo fantastico che si verifica nel romanzo “Alice nel paese delle meraviglie”, quando Alice segue il Coniglio Bianco nella sua “tana”, ritrovandosi così catapultata in una dimensione onirica e surreale (la cosiddetta “tana del bianconiglio”). Questa espressione idiomatica rende bene l’idea di come l’algoritmo di TikTok possa rapidamente far “sprofondare” gli utenti in contenuti sempre più specifici e talvolta problematici, in maniera quasi incontrollabile, come cadere nella “tana del bianconiglio” verso un mondo alternativo. Come spiegato qui, questo grado di personalizzazione presenta vantaggi e svantaggi per gli operatori di marketing. L’algoritmo di TikTok può far sembrare le pubblicità e le iniziative di branding estremamente attuali. Tuttavia, senza una supervisione umana, i contenuti possono potenzialmente sconfinare in nicchie più estreme. Comprendere il funzionamento del sistema è fondamentale per stabilire una connessione con i consumatori evitando pericolose derive. L’algoritmo di TikTok Sono state rese pubbliche alcune informazioni generali sul funzionamento del sistema di suggerimento di TikTok. Per raccomandare nuovi video, il sistema prende in considerazione elementi come i like, i commenti, le didascalie, i suoni e gli hashtag. Anche esperti esterni al settore hanno cercato di decifrare l’algoritmo. Secondo un’analisi del Wall Street Journal, TikTok influenza pesantemente il tempo di visione per invogliare gli utenti a scorrere all’infinito. Questa strategia orientata al coinvolgimento può occasionalmente condurre gli spettatori più giovani a contenuti discutibili, come materiale che incoraggia l’autolesionismo. Secondo quanto dichiarato, TikTok rimuove attivamente i video che violano le sue linee guida. La popolarità di TikTok è in parte dovuta alla semplicità con cui è possibile creare video con meme e musica integrati. La sua capacità di identificare gli interessi degli utenti e di indirizzarli verso “lati” specifici è sorprendentemente accurata per un gran numero di utenti. Diversi titoli di giornale che affermano la capacità quasi soprannaturale dell’algoritmo di capire una persona meglio di quanto questa conosca se stessa sono la prova della profonda conoscenza che l’app ha della vita interiore delle persone. L’articolo “The TikTok Algorithm Knew My Sexuality Better Than I Did” (L’algoritmo di TikTok conosceva la mia sessualità meglio di me) è un esempio notevole di come i suggerimenti della piattaforma possano fornire agli utenti riflessioni incredibilmente intime su se stessi, portando in superficie sentimenti e pensieri da livelli subconsci. Questi aneddoti dimostrano come l’algoritmo abbia mappato con precisione la psiche umana. I consigli di TikTok Come ho già detto, il modo in cui lo stream “For You” di TikTok presenta video che corrispondono ai sentimenti e ai pensieri inespressi degli utenti sembra quasi sorprendente. Tuttavia, non si tratta di un caso. È il risultato di un sistema di raccomandazione altamente sviluppato che l’azienda ha perfezionato per quasi dieci anni. Conoscere la storia dell’algoritmo di TikTok è utile per comprenderlo appieno. ByteDance, una startup cinese, è proprietaria di TikTok. Douyin è un’app che in passato utilizzava un meccanismo di suggerimento simile. ByteDance ha rilanciato Douyin come TikTok dopo essere entrata in nuovi mercati. Tuttavia, il potente algoritmo è rimasto invariato. Il New York Times è riuscito a ottenere un documento interno trapelato in cui si afferma che gli obiettivi principali di TikTok sono l’aumento del “valore utente”, del “valore utente a lungo termine”, del “valore del creator” e del “valore della piattaforma”. In particolare, l’obiettivo è ottimizzare il “tempo trascorso” (la quantità di tempo che un utente trascorre sull’app) e la “fidelizzazione”, due metriche strettamente correlate. L’obiettivo dell’algoritmo è massimizzare il tempo trascorso a guardare i video. La formula per i suggerimenti Il documento rivela che TikTok calcola un punteggio per ogni video sulla base di una formula che tiene conto di: Mi piace previsti: il numero di mi piace che un video dovrebbe ricevere, in base alle previsioni dell’apprendimento automatico; Commenti previsti: il numero di commenti previsti; Tempo di riproduzione previsto: il tempo di riproduzione totale previsto se mostrato a un utente; Riprodotto: se il video è stato riprodotto o meno. La formula di base è: Plike x Vlike + Pcomment x Vcomment + Eplaytime x Vplaytime + Pplay x Vplay In questo caso, le variabili “V” rappresentano i pesi che modificano l’importanza di ciascuna previsione, mentre le variabili “P” rappresentano le previsioni. Secondo il documento, si tratta di una formula “altamente semplificata”, mentre la formula reale è molto più complessa. Obiettivi dell’algoritmo di TikTok Massimizzazione della fidelizzazione e del tempo trascorso I video che ottimizzano la “fidelizzazione” e il “tempo trascorso” a guardare i video vengono consigliati agli utenti in base ai loro punteggi. Il documento chiarisce che la crescita degli utenti attivi giornalieri attraverso queste metriche è “l’obiettivo finale”. Guillaume Chaslot, fondatore di Algo Transparency, e altri esperti fanno eco a questa enfasi sui contenuti che fanno perdere tempo e creano dipendenza, al di sopra della qualità o del merito. In questo modo TikTok modella i vostri interessi per adattarli ai contenuti interessanti, e non viceversa. Invece di rivelare le vostre vere preferenze, aumenta il tempo di visione. Soppressione della ripetizione e della noia È degno di nota il fatto che l’algoritmo di TikTok cerchi di evitare di generare suggerimenti ripetitivi, poiché ciò potrebbe portare alla monotonia. L’articolo esamina alcuni elementi particolari che sono stati aggiunti alla formula per aumentare la diversità: same_author_seen: riduce i punteggi per gli autori che l’utente ha visto di recente; same_tag_today: riduce i punteggi per i video con tag/argomenti già visti quel giorno. La variabilità può essere aumentata anche con altre strategie, come la distribuzione graduale dei video e l’imposizione dell’inclusione di contenuti diversi nei feed degli utenti. TikTok modella gli interessi nel tempo È importante notare che, a differenza della lettura del pensiero, quando ci si iscrive a TikTok, l’algoritmo non conosce immediatamente i vostri pensieri e le vostre preferenze. Sulla base di pochi dati iniziali – le vostre risposte ad alcuni video – l’algoritmo crea delle previsioni. Ad esempio, quando un nuovo utente accede per la prima volta a TikTok può vedere una serie di video molto apprezzati di diversi generi, come umorismo, animali, cibo, ballo, ecc. TikTok inizia a raccogliere segnali sulle preferenze di un utente in base a quanto tempo passa a guardare determinati video e a quali gli piacciono o commentano. Man mano che uno spettatore guarda più video, l’algoritmo di TikTok diventa più bravo a capire cosa vuole guardare. Per guidare le raccomandazioni, valuta l’attività continua degli utenti osservando indicatori come il tempo di visione, i like, le condivisioni, i commenti, ecc. Con ogni nuovo dato, le previsioni sui tipi di video che interessano a un determinato spettatore migliorano. Ad esempio, TikTok potrebbe cambiare e presentare più contenuti legati al cibo se gli utenti iniziano a vedere video di cucina gourmet e ricette di dolci elaborati. Il professor Julian McAuley della UC San Diego sostiene che TikTok applica complesse tecniche di apprendimento automatico a enormi quantità di dati degli utenti in combinazione con questi segnali comportamentali. Di conseguenza, l’algoritmo è in grado di rappresentare in modo sempre più accurato gli interessi individuali. Tuttavia, è fondamentale che TikTok non mostri sempre contenuti in linea con i veri interessi o desideri degli utenti; il suo obiettivo è piuttosto quello di massimizzare l’interazione e il tempo di visione. Piuttosto che suggerire qualcosa che i consumatori sceglierebbero naturalmente, ottimizza per tenerli agganciati sulla base di un comportamento simile alla dipendenza. TikTok rafforza le tendenze esistenti Piuttosto che rivolgersi a caratteristiche specifiche del pubblico o a interessi personali insoliti, TikTok serve in genere a promuovere tendenze popolari e successi virali. Uno studio ha scoperto una forte correlazione tra i like e le visualizzazioni di un video su TikTok. I video più popolari, indipendentemente dalle preferenze personali, ricevono rapidamente più visualizzazioni, like e commenti.Il successo di un video è fortemente influenzato da fattori quali la popolarità del creator. Il suo algoritmo non si limita a gratificare i singoli consumatori, ma trova risonanze e le amplifica. Raggiungere la viralità Uno studio dettagliato ha analizzato i fattori che rendono virali i video di TikTok. Ha rilevato attributi come: La popolarità del creatore L’uso di riprese ravvicinate Visualizzazione di prodotti Alta energia ed espressioni facciali Il sistema di suggerimenti di TikTok ha avuto un effetto molto limitato sulla viralità. Un video non diventa virale solo perché viene consigliato su TikTok. Questo studio rivela che, piuttosto che i suggerimenti iper-personalizzati, la viralità è causata dal comportamento aggregato degli utenti e dagli attributi dei video. Censura Inoltre, si teme che TikTok censuri o limiti l’espressione politica su argomenti che il governo cinese ritiene controversi. Sebbene TikTok abbia inizialmente limitato alcuni contenuti sulle minoranze musulmane represse in Cina, le indagini di gruppi come Citizen Lab hanno finora portato alla luce poche prove di censura. Altri sostengono che ci siano problemi associati alla censura e alla propaganda, ma non sono esclusivi di TikTok. Ogni sito di social media controlla i contenuti e i dati di ogni piattaforma potrebbero essere acquistati dal governo cinese. TikTok sostiene che il governo cinese non ha mai ricevuto i dati degli utenti. Ciò non significa tuttavia che, nonostante i problemi precedenti, TikTok non sia direttamente collegato alla sua società madre cinese, ByteDance. La proprietà di TikTok da parte di ByteDance è diventata una questione importante alla fine della presidenza di Donald Trump nel 2020. All’epoca, Trump cercò di costringere TikTok a vendersi a una società americana chiamata Oracle, allineata con la sua amministrazione. Cosa rende efficace l’algoritmo di TikTok? Sulla base di tutte le analisi e le prove tecniche, possiamo evidenziare i seguenti punti chiave: Richiede pochissimi dati degli utenti: A differenza di piattaforme come Facebook o Instagram, che si basano pesantemente su dati personali come età, sesso e posizione, TikTok ha bisogno di input minimi per capire una persona. L’ora dell’orologio è il segnale critico: Sebbene TikTok tenga conto di like, commenti e altro, il suo algoritmo si concentra su un dato particolarmente significativo: l’ora dell’orologio, in particolare le ripetizioni e le esitazioni. Suggerimenti altamente reattivi: Sulla base di questi segnali di tempo di osservazione, TikTok fornisce rapidamente nuove indicazioni, consentendo di individuare rapidamente gli interessi di nicchia. Potente sistema di classificazione: I nuovi video non appaiono a caso. Vengono classificati e classificati in base al coinvolgimento previsto. Questo sistema dà all’algoritmo una grande influenza su ciò che gli utenti vedono. Iterazioni personalizzate: TikTok adatta gli aggiornamenti e i perfezionamenti del suo algoritmo in modo specifico per ogni mercato. Negli Stati Uniti, quindi, il sistema di TikTok migliora in base ai dati degli utenti statunitensi. Grazie a questa strategia innovativa, TikTok può acquisire rapidamente una conoscenza più approfondita dei nuovi utenti e sfruttarla per invogliarli a utilizzare maggiormente l’app. Esaminiamo ora alcuni esperimenti che dimostrano la rapidità con cui TikTok riesce a identificare una persona. L’effetto Rabbit Hole Il Wall Street Journal ha creato più di 100 account bot e ha visualizzato centinaia di migliaia di video su TikTok per testare a fondo l’algoritmo della piattaforma. Sebbene gli interessi siano stati assegnati agli account, TikTok non ne ha mai ricevuto notifica. Gli unici dati forniti dai bot riguardavano il tempo di visione di ogni video, soffermandosi su alcuni e rivedendone altri. I risultati sono stati sorprendenti. Ecco alcuni risultati chiave: Interessi appresi in pochi minuti: Per molti account bot, TikTok ha individuato i loro interessi in meno di 40 minuti. Altri hanno impiegato meno di due ore prima che i loro feed diventassero personalizzati. Comunità di nicchia immediate: Sulla base di interessi come l’astrologia o la politica, i bot raccomandavano istantaneamente contenuti e comunità di nicchia. Non c’è stato un periodo generale di inserimento. Rapide “tane di coniglio”: Guardando alcuni video sulla depressione o sull’ADHD, i bot sono finiti in una tana di coniglio dove oltre il 90% delle raccomandazioni riguardava questi argomenti. Affinamento degli interessi: Quando i bot hanno cambiato il loro comportamento di osservazione, i suggerimenti si sono adattati rapidamente. Questo dimostra che TikTok ottimizza continuamente la sua comprensione. Esposizione a contenuti marginali: Nelle comunità di nicchia, i bot hanno visto un maggior numero di video non moderati con contenuti estremisti o pericolosi, in particolare nelle tane della teoria del complotto. Questi risultati hanno ramificazioni molto importanti. Dimostrano come TikTok sia in grado di individuare rapidamente le inclinazioni e i punti deboli degli utenti, al fine di manipolarli per farli scendere in tane di coniglio personalizzate. Gli utenti rischiano così di isolarsi in modo malsano, ma questo li tiene anche impegnati sulla piattaforma. Perché l’algoritmo di TikTok è così potente Il motivo della sorprendente precisione di TikTok diventa evidente quando si osserva l’algoritmo in azione. È in grado di condurre rapidamente gli utenti verso tane di coniglio personalizzate per i seguenti motivi principali: Focus sull’engagement estremamente spinto: A differenza di YouTube, il 90-95% dei video di TikTok sono consigliati, non cercati. Questa grande dipendenza dall’algoritmo significa che la priorità è la massimizzazione del tempo di visione e del coinvolgimento. Ciclo di ottimizzazione rapido: Poiché gli utenti guardano in genere decine di video di TikTok per sessione, l’algoritmo può imparare rapidamente da questi segnali e aggiornare i suggerimenti in tempo reale. Formule video coinvolgenti: I suoni, il montaggio, l’umorismo e molto altro ancora vengono perfezionati per attirare gli utenti. L’algoritmo individua i contenuti che attirano l’attenzione e promuove quelli simili. I contenuti che vedete non sono necessariamente quelli che preferite o che vi piacciono di più. È solo il contenuto progettato per tenervi attaccati alla piattaforma. Mainstream curato: I contenuti più popolari sono controllati per i nuovi utenti. Ma una volta determinati gli interessi, i video mainstream vengono scambiati con contenuti di nicchia ottimizzati per il rabbit holing. Rilevamento delle vulnerabilità: l’algoritmo determina non solo ciò che piace, ma anche ciò a cui si è sensibili, proponendo contenuti progettati per provocare reazioni e suscitare emozioni. Moderazione limitata: Con una tale quantità di video, la moderazione umana è carente, soprattutto nelle nicchie esoteriche. I contenuti discutibili possono quindi diffondersi rapidamente. Un feed infinito che crea dipendenza: TikTok è progettato per uno scorrimento infinito. Non ci sono spunti per smettere di guardare. Una volta entrati nella tana del coniglio, uscirne può richiedere una grande forza di volontà. Questo grado di competenza algoritmica offre sia vantaggi che rischi per i marketer e le aziende. In seguito vedremo gli effetti dell’esperienza altamente personalizzata e coinvolgente di TikTok. Implicazioni per i marketer per la creazione di contenuti Per i marketer, TikTok rimane una piattaforma molto interessante per raggiungere il pubblico più giovane. Ma il suo algoritmo implica alcune best practice: Sfruttare le tendenze popolari: Collegarsi ai meme, alle canzoni o ai creatori virali del momento aumenta drasticamente la portata. I contenuti unici hanno più difficoltà a farsi strada. Massimizzare le qualità della dipendenza: I video che catturano immediatamente gli utenti e li trattengono a guardare sono i più efficaci. Tagli rapidi, contenuti emozionali e cliffhanger sono utili. Utilizzate un’estetica accattivante: Effetti di grande effetto, persone attraenti e immagini trigonometriche codificate sono essenziali. I primi secondi sono fondamentali per evitare che le persone scorrano oltre il video. Rivolgetevi agli interessi più diffusi: Il raggiungimento di massa su TikTok dipende dall’attingere alle tendenze e agli interessi mainstream. Incoraggiate il coinvolgimento: Aumentare i like, i commenti e le condivisioni aumenta la portata futura. Chiedere agli spettatori di taggare gli amici o di provare una sfida aiuta. Per avere successo con l’algoritmo di TikTok è necessario un approccio che privilegi il piacere rapido, la stimolazione sensoriale e l’attrattiva generale rispetto alla personalizzazione profonda o al richiamo di interessi specifici. Ciò che funziona meglio è determinato dalle priorità della piattaforma. Sebbene TikTok non sia in grado di leggere con precisione la mente delle persone, ha imparato l’arte di individuare il tipo di contenuto che susciterebbe un’ampia interazione. Le aziende possono raggiungere il pubblico più giovane in modo molto più efficace se imparano a creare all’interno di questi limiti. Tuttavia, è necessario adattare la propria strategia alla mentalità e alle passioni che la piattaforma instilla gradualmente nei suoi utenti. Cosa significa l’algoritmo di TikTok per gli inserzionisti L’algoritmo intelligente di TikTok è chiaramente interessante per i marketer e le aziende. Offre risorse per raggiungere con precisione il pubblico corretto in un ambiente altamente coinvolgente con innovazioni personalizzate. Tuttavia, considerando la natura delle tane di coniglio personalizzate di TikTok, ci sono ulteriori preoccupazioni da considerare. Quando prendono in considerazione TikTok, gli esperti di marketing dovrebbero tenere a mente i seguenti punti: Le opportunità Annunci iper-targettizzati: Utilizzando gli interessi, i dati sugli orologi e altro ancora, gli annunci possono essere sintonizzati sulle esigenze e sulle mentalità specifiche degli utenti per ottenere la massima pertinenza. Funnel basati sulle persone: È possibile progettare creative diverse per far avanzare le varie tipologie di persone attraverso il funnel di marketing, in base ai loro interessi e ai loro modelli di comportamento. Potente spinta sociale: I contenuti che fanno tendenza su TikTok possono creare una spinta sociale virale come nessun’altra piattaforma. L’algoritmo fa emergere rapidamente i contenuti più interessanti. Appello all’autenticità: I contenuti nativi e “dietro le quinte” del marchio tendono a ottenere buoni risultati, grazie all’atmosfera più autentica di TikTok rispetto a Instagram e Facebook. Miniera d’oro di influencer: Il gruppo di creatori popolari di TikTok offre opportunità per sponsorizzazioni e collaborazioni mirate a un pubblico di nicchia. I rischi Contenuti di nicchia estremi: L’associazione del marchio a contenuti marginali potenzialmente offensivi o pericolosi potrebbe essere dannosa. È necessaria una moderazione dei contenuti più rigorosa. Radicalizzazione algoritmica: Gli account incentrati su argomenti sensibili come politica, salute e altro possono essere indirizzati verso una disinformazione sempre più estrema. Cassa di risonanza: Assecondare i pregiudizi esistenti delle persone può alimentare la polarizzazione e scoraggiare l’apertura mentale. La diversificazione delle raccomandazioni potrebbe contribuire ad attenuare questo problema. Sfide di scala per la moderazione: Con oltre un miliardo di utenti, il controllo dei singoli video problematici rappresenta una sfida enorme, che richiede un esame più rapido dei video virali. Vulnerabilità dei giovani: Per proteggere i minori da contenuti inappropriati o per adulti sono necessari controlli più severi sull’età e sui genitori. Trovare l’equilibrio ideale sarà fondamentale per le aziende, che potranno sfruttare le caratteristiche altamente personalizzate e coinvolgenti di TikTok, evitando al contempo pericolose tane di coniglio ed elementi marginali. I marchi, TikTok e gli utenti hanno tutti un ruolo da svolgere per mantenere questo equilibrio. Le migliori pratiche per i marketer Sebbene TikTok offra molte opzioni interessanti per i marketer, ci sono anche dei rischi seri di cui essere consapevoli. Ecco alcune best practice che i brand dovrebbero tenere a mente: Valutare attentamente gli ambasciatori: Tutti gli influencer o i creatori associati a un marchio devono essere in linea con i suoi valori. Guardare oltre il numero di visualizzazioni per valutare la qualità dei contenuti. Promuovere il pensiero dialettico: Piuttosto che dare eco a opinioni marginali, sforzatevi di incoraggiare l’apertura mentale. Concentrarsi a livello locale: TikTok personalizza i feed in base alla posizione. I contenuti locali e incentrati sulla comunità tendono a coinvolgere gli utenti. Rimanere fedeli al marchio: Anche se un’atmosfera rilassata e dietro le quinte funziona, mantenete la voce e i valori del vostro marchio. Non cercate di imitare ogni tendenza virale. Proteggere il pubblico giovane: Siate prudenti nel bloccare i minori dai contenuti destinati a un pubblico adulto. Evitate anche le tattiche di marketing che mirano a creare dipendenza tra i giovani. Rimanere vigili: Continuate a monitorare la conversazione e la presenza del vostro marchio. Una risposta rapida è fondamentale per le questioni controverse. Sfruttare i controlli di TikTok: Utilizzate strumenti come l’age-gating, il geofencing e le schermate di sensibilità per garantire la sicurezza del marchio e allinearvi alle politiche della piattaforma. Mescolare i metodi di moderazione: Affidarsi esclusivamente all’intelligenza artificiale o ai moderatori umani ha dei punti deboli. Un modello misto fornisce una supervisione più forte. Sebbene sia necessario un po’ di denaro per diventare abili su TikTok, i marketer dovrebbero considerare i potenziali vantaggi derivanti dall’utilizzo del suo algoritmo altamente coinvolgente e personalizzato. Ricordate che un enorme potere algoritmico comporta una notevole responsabilità. La consapevolezza è fondamentale L’algoritmo di TikTok offre agli utenti un grado di selezione senza precedenti. Capta le nostre passioni nascoste con una rapidità sorprendente e ci presenta materiale personalizzato che ci interessa. Tuttavia, le stesse tecnologie che modellano delicatamente le nostre percezioni possono anche intrappolare le persone in bolle di filtraggio sfavorevoli. Inoltre, è difficile moderare adeguatamente i contenuti a causa del loro enorme volume. Per questo motivo la consapevolezza è fondamentale. È possibile identificare le aree di sviluppo prestando attenzione a come l’algoritmo di TikTok indirizza la pagina For You. Il ruolo dell’intelligenza artificiale Anche se il sistema di suggerimenti di TikTok a volte emana una vibrazione quasi psichica, l’intelligenza artificiale non è ancora realmente in grado di discernere i pensieri o le intenzioni delle persone. Il sistema non è in grado di leggere direttamente i pensieri di un utente, ma impiega tecniche di apprendimento automatico per ottimizzare determinati obiettivi, come il coinvolgimento. Fondamentalmente, l’algoritmo di TikTok esamina il comportamento degli utenti, compreso il tempo in cui guardano determinati filmati e quello che toccano per commentare o condividere. Per prevedere i tipi di materiale che saranno più coinvolgenti, cerca tra milioni di dati degli utenti per individuare i modelli. Tuttavia, non può accedere direttamente all’immaginazione, ai sentimenti o alle convinzioni di fondo di una persona. L’intelligenza artificiale non legge la mente, ma è uno strumento di ottimizzazione. È importante riconoscere i suoi limiti. L’importanza della supervisione umana L’algoritmo di TikTok è un esempio di sistema automatizzato che può essere estremamente prezioso nel rivelare informazioni e tendenze rilevanti. Tuttavia, i pericoli di estremismo, polarizzazione e mancanza di diversità evidenziano l’importanza di un controllo umano significativo. Per fornire i migliori risultati alla società, i sistemi automatici devono collaborare con i moderatori, con il feedback degli utenti e con politiche appropriate. La saggezza e l’etica necessarie per una guida così sofisticata sono assenti nella sola IA. Abitudini digitali L’uso responsabile degli algoritmi è una strada a doppio senso. Affinché gli utenti formino abitudini digitali sane, è necessaria anche la consapevolezza. Consumare senza sosta contenuti su misura incoraggia azioni simili alla dipendenza. Limitare le informazioni, cambiare le fonti, cercare attivamente punti di vista diversi e fare delle pause sono tutti modi per compensare gli eccessi dei feed algoritmici. Anche se i sistemi di raccomandazione forti esisteranno sempre, le persone possono uscire dai comportamenti di consumo passivo facendo piccoli cambiamenti quotidiani. TikTok si avvale di incredibili capacità algoritmiche, ma la vera saggezza richiede la consapevolezza umana. Gli strumenti digitali possono illuminare le nostre menti, anziché divorarle, se vengono usati con cura, creatività e comprensione. Se da un lato l’algoritmo di TikTok dimostra una straordinaria capacità di personalizzare rapidamente i contenuti e di attirare gli utenti in percorsi coinvolgenti, dall’altro la vera natura della sua “lettura della mente” rimane ambigua. Sebbene l’algoritmo possa sembrare quasi psichico nella sua precisione, in ultima analisi opera sulla base di modelli comportamentali e tecniche di ottimizzazione, non sull’accesso diretto ai pensieri e ai desideri più intimi degli utenti. In definitiva, l’algoritmo di TikTok rappresenta un potente strumento guidato dall’intelligenza artificiale per modellare le esperienze degli utenti, ma ha ancora dei limiti significativi nel comprendere veramente la psiche umana. Con la continua evoluzione della piattaforma, la linea di demarcazione tra l’inferenza algoritmica e la vera e propria lettura della mente potrebbe diventare sempre più labile. Resta da vedere se TikTok riuscirà mai a superare questa linea, lasciando un elemento di dubbio sulla piena portata delle sue capacità predittive. La vigilanza, la trasparenza e la supervisione responsabile saranno fondamentali con l’avanzare di questa potente tecnologia. [...]
Aprile 2, 2024Gli esperti sollevano preoccupazioni sull’impatto psicologico della resurrezione digitale dei propri cari Il lutto e la perdita riguardano la vita di tutti. Ma se dire addio non fosse l’ultimo stadio? Immaginate di avere la possibilità di comunicare con i vostri cari, di riportarli indietro digitalmente e di sapere come stanno ovunque si trovino. Come spiegato qui, Nigel Mulligan, professore assistente di psicoterapia presso la Dublin City University, ha sottolineato che per molte persone il pensiero di vedere una persona cara defunta muoversi e parlare di nuovo potrebbe essere confortante. Questi “fantasmi” creati con l’intelligenza artificiale potrebbero portare a psicosi, stress e confusione Mulligan è un ricercatore di IA e terapia che trova affascinante l’emergere di bot fantasma. Ma è anche preoccupato per l’impatto che possono avere sulla salute mentale delle persone, soprattutto di quelle in lutto. Riportare in vita persone decedute come avatar potrebbe creare più problemi di quanti ne risolva, aumentando la confusione, lo stress, la tristezza, l’ansia e, in circostanze estreme, persino la psicosi. Grazie agli sviluppi dell’intelligenza artificiale, i chatbot come ChatGPT – che simulano l’interazione umana – sono diventati più comuni. Il software di intelligenza artificiale può creare rappresentazioni virtuali convincenti di persone decedute utilizzando dati digitali, tra cui e-mail, video e immagini, con l’uso della tecnologia deepfake. Mulligan sostiene che ciò che sembrava pura finzione nella fantascienza sta ora diventando una realtà fisica in ambito scientifico. Questi fantasmi artificiali potrebbero interferire con il processo di elaborazione del lutto Uno studio pubblicato su Ethics and Information Technology suggerisce di utilizzare questi bot come conforto temporaneo durante il processo di lutto, per evitare una dipendenza emotiva dalla tecnologia. Questi fantasmi artificiali possono interferire con il normale processo di elaborazione del lutto e influire sulla salute mentale delle persone dato che il lutto è un processo a lungo termine che inizia lentamente e progredisce attraverso molte fasi nel corso di diversi anni. Le persone possono spesso pensare a coloro che hanno perso e ricordarli vividamente durante le prime fasi del lutto. Secondo Mulligan, è tipico delle persone in lutto fare sogni vividi sui loro cari scomparsi. I “bot fantasma” potrebbero provocare allucinazioni Lo psicoanalista Sigmund Freud era profondamente interessato a come gli individui affrontano la perdita. Egli notò che durante il processo di elaborazione del lutto possono sorgere ulteriori difficoltà se ci sono aspetti negativi coinvolti. Per esempio, se qualcuno provava sentimenti contrastanti nei confronti di una persona deceduta, potrebbe sentirsi in colpa in seguito. Allo stesso modo, accettare una morte in circostanze tragiche – come un omicidio, per esempio – può essere molto più difficile per la persona in lutto. La melanconia, è il nome usato da Freud per descrivere questo sentimento. Nei casi più gravi, può portare una persona a vedere fantasmi o ad avere allucinazioni del defunto, con l’impressione che sia ancora vivo. L’introduzione di bot fantasma potrebbe peggiorare i problemi, come le allucinazioni e aumentare la sofferenza di una persona che sta vivendo un processo di lutto complesso. Sebbene l’idea di comunicare digitalmente con i propri cari defunti possa sembrare inizialmente confortante, questa tecnologia potrebbe avere impatti psicologici profondamente negativi. Interagire con un avatar generato dall’intelligenza artificiale o con un ” bot fantasma” rischia di interrompere il naturale processo di elaborazione del lutto che gli esseri umani devono affrontare dopo una perdita. Il processo di elaborazione del lutto prevede molte fasi nel corso degli anni: avere una rappresentazione artificiale del defunto potrebbe portare a una malsana negazione della morte, all’evitamento di scendere a patti con la realtà e all’incapacità di lasciarla andare correttamente. Sebbene l’etica della creazione di queste “resurrezioni digitali” sia discutibile, la ricaduta psicologica di confondere le rappresentazioni artificiali con la realtà rappresenta un serio rischio. Man mano che le capacità dell’IA continuano a progredire, sarà fondamentale per i tecnologi considerare attentamente le implicazioni per la salute mentale. Un abuso sconsiderato di questa tecnologia potrebbe causare danni emotivi e psicologici significativi a persone in lutto che stanno affrontando una perdita. Procedere con empatia è fondamentale quando si fonde una potente IA con qualcosa di così profondo come il dolore e la mortalità umana. [...]
Marzo 26, 2024I ricercatori hanno scoperto semplici funzioni alla base di complessi modelli linguistici I modelli linguistici di grandi dimensioni sono estremamente sofisticati; ne sono un esempio i chatbot di intelligenza artificiale ampiamente utilizzati, come ChatGPT. Gli scienziati non hanno ancora compreso appieno il funzionamento di questi modelli, nonostante siano impiegati come strumenti in numerosi campi, tra cui la traduzione linguistica, lo sviluppo di codici e l’assistenza ai clienti. Per comprendere meglio il funzionamento di questi enormi modelli di apprendimento automatico, i ricercatori del MIT e di altre istituzioni hanno esaminato le tecniche di recupero delle conoscenze memorizzate. Secondo questo articolo, hanno scoperto un dato inaspettato: Per recuperare e decodificare i fatti memorizzati, i modelli linguistici di grandi dimensioni (LLM) utilizzano spesso una funzione lineare relativamente semplice. Inoltre, il modello applica la stessa funzione di decodifica a fatti di tipo simile. La relazione semplice e diretta tra due variabili è catturata dalle funzioni lineari, che sono equazioni con due sole variabili e senza esponenti. I ricercatori hanno dimostrato come sia possibile sondare il modello per scoprire cosa sa su nuovi argomenti e dove tale conoscenza è stata memorizzata all’interno del modello, identificando le funzioni lineari per vari fatti. I ricercatori hanno scoperto che, anche nei casi in cui un modello fornisca una risposta imprecisa a una richiesta, spesso conserva dati accurati utilizzando un metodo da loro ideato per calcolare queste semplici funzioni. In futuro, questo metodo potrebbe essere utilizzato dagli scienziati per identificare e correggere gli errori all’interno del modello, riducendo così la propensione del modello a produrre occasionalmente risultati errati o assurdi. “Anche se questi modelli sono funzioni non lineari molto complicate, addestrate su molti dati e molto difficili da capire, a volte al loro interno funzionano meccanismi molto semplici. Questo è un esempio”, spiega Evan Hernandez, studente di ingegneria elettrica e informatica (EECS) e coautore di un articolo che illustra questi risultati. Hernandez ha collaborato al lavoro con l’autore principale David Bau, professore assistente di informatica alla Northeastern, con altri ricercatori del MIT, dell’Università di Harvard e dell’Istituto israeliano di tecnologia, con il coautore Arnab Sharma, studente laureato in informatica alla Northeastern University e con il suo consulente Jacob Andreas, professore associato di EECS e membro del Computer Science and Artificial Intelligence Laboratory (CSAIL). Lo studio sarà presentato alla Conferenza internazionale sull’apprendimento delle rappresentazioni. Trovare i fatti Le reti neurali costituiscono la maggior parte dei modelli linguistici di grandi dimensioni, noti anche come modelli trasformatori. Le reti neurali, modellate sul modello del cervello umano, sono costituite da miliardi di nodi interconnessi, o neuroni, che codificano ed elaborano i dati. Questi neuroni sono disposti in numerosi strati. La conoscenza di un trasformatore può essere modellata principalmente in termini di relazioni tra soggetti e oggetti. Un esempio di relazione tra il soggetto, Miles Davis, e l’oggetto, la tromba, è “Miles Davis suona la tromba”. Un trasformatore conserva più informazioni su un certo argomento attraverso diversi livelli, man mano che acquisisce maggiore conoscenza. Per rispondere alla domanda dell’utente su quell’argomento, il modello deve decodificare il fatto più pertinente. Quando un trasformatore viene sollecitato con la frase “Miles Davis suona la…”, invece di “Illinois”, che è lo stato di nascita di Miles Davis, dovrebbe dire “tromba”. “Da qualche parte nel calcolo della rete deve esserci un meccanismo che va a cercare il fatto che Miles Davis suona la tromba, e poi estrae questa informazione e aiuta a generare la parola successiva. Volevamo capire quale fosse questo meccanismo”, spiega Hernandez. Attraverso una serie di studi, i ricercatori hanno analizzato gli LLM e hanno scoperto che, nonostante la loro immensa complessità, i modelli utilizzano una semplice funzione lineare per decodificare le informazioni relazionali. Ogni funzione è unica per il tipo di fatto che viene recuperato. Per esempio, per indicare lo strumento che una persona suona, il trasformatore userebbe una funzione di decodifica, mentre per indicare lo stato di nascita di una persona userebbe una funzione diversa. I ricercatori hanno calcolato le funzioni per 47 relazioni distinte, tra cui “capitale di un paese” e “cantante di una band”, dopo aver sviluppato un metodo per stimare queste semplici funzioni. Sebbene il numero di relazioni possibili sia infinito, i ricercatori si sono concentrati su questo particolare sottoinsieme perché è tipico dei tipi di fatti che possono essere scritti in questo modo. Per verificare se ogni funzione fosse in grado di recuperare le informazioni corrette sull’oggetto, hanno cambiato il soggetto per ogni test. Se l’oggetto è la Norvegia, la funzione “capitale di un paese” dovrebbe restituire Oslo; se l’oggetto è l’Inghilterra, dovrebbe restituire Londra. Per oltre il 60% del tempo, le funzioni sono state in grado di estrarre le informazioni corrette, indicando che alcune informazioni in un trasformatore sono codificate e recuperate in questo modo. “Ma non tutto è codificato in modo lineare. Per alcuni fatti, anche se il modello li conosce e predice un testo coerente con questi fatti, non riusciamo a trovare funzioni lineari. Questo suggerisce che il modello sta facendo qualcosa di più complesso per memorizzare quelle informazioni”, spiega. Visualizzare la conoscenza di un modello Le funzioni sono state utilizzate anche per determinare la veridicità delle convinzioni del modello su determinati argomenti. In un esperimento, hanno iniziato con l’istruzione “Bill Bradley era un” e hanno testato la capacità del modello di riconoscere che il senatore Bradley era un giocatore di pallacanestro che aveva frequentato Princeton, utilizzando le funzioni di decodifica per “fa sport” e “ha frequentato l’università”. “Possiamo dimostrare che, anche se il modello può scegliere di concentrarsi su informazioni diverse quando produce il testo, codifica tutte le informazioni”, dice Hernandez. I ricercatori hanno creato quella che definiscono una “lente di attributo”, una griglia che mostra dove sono conservati i dettagli precisi di una certa relazione all’interno dei molteplici strati del trasformatore, utilizzando questa tecnica di sondaggio. È possibile costruire automaticamente le lenti di attributo, che offrono un modo semplificato per aiutare i ricercatori a saperne di più su un modello. Con l’uso di questo strumento di visualizzazione, ingegneri e scienziati potrebbero essere in grado di aggiornare le conoscenze memorizzate e impedire a un chatbot basato sull’intelligenza artificiale di fornire informazioni false. In futuro, Hernandez e i suoi collaboratori sperano di saperne di più su ciò che accade quando i fatti non vengono conservati in modo sequenziale. Inoltre, vorrebbero studiare l’accuratezza delle funzioni di decodifica lineare e condurre test con modelli più ampi. “Questo è un lavoro entusiasmante che rivela un tassello mancante nella nostra comprensione del modo in cui i modelli linguistici di grandi dimensioni richiamano la conoscenza dei fatti durante l’inferenza. Il lavoro precedente ha dimostrato che gli LLM costruiscono rappresentazioni ricche di informazioni di determinati soggetti, da cui vengono estratti attributi specifici durante l’inferenza. Questo lavoro dimostra che il complesso calcolo non lineare degli LLM per l’estrazione degli attributi può essere ben approssimato con una semplice funzione lineare”, afferma Mor Geva Pipek, professore assistente presso la Scuola di Informatica dell’Università di Tel Aviv, che non è stato coinvolto in questo lavoro. La Fondazione israeliana per la scienza, Open Philanthropy e una Azrieli Foundation Early Career Faculty Fellowship hanno fornito alcuni finanziamenti per questo studio. Se da un lato questa ricerca fornisce preziose indicazioni su come i modelli linguistici di grandi dimensioni codificano e recuperano alcuni tipi di conoscenze fattuali, dall’altro evidenzia che c’è ancora molto da scoprire sul funzionamento interno di questi sistemi estremamente complessi. La scoperta di semplici funzioni lineari utilizzate per il recupero di alcuni fatti è una scoperta intrigante, ma sembra essere solo un pezzo di un puzzle molto intricato. Come hanno osservato i ricercatori, non tutte le conoscenze sembrano essere codificate e accessibili attraverso questi meccanismi lineari. È probabile che in questi modelli siano in gioco processi più complessi e non lineari per altri tipi di memorizzazione e recupero delle informazioni. Inoltre, le ragioni per cui alcuni fatti vengono decodificati in modo errato, anche quando sono presenti le informazioni giuste, rimangono poco chiare. In futuro, saranno necessarie ulteriori ricerche per mappare completamente i percorsi e gli algoritmi che queste IA linguistiche utilizzano per elaborare, memorizzare e produrre informazioni. La visualizzazione della “lente degli attributi” potrebbe rivelarsi uno strumento prezioso in questo senso, consentendo agli scienziati di ispezionare i diversi livelli e le rappresentazioni dei fatti all’interno dei modelli. In definitiva, è fondamentale acquisire una comprensione più completa del funzionamento di questi grandi modelli linguistici. Poiché le loro capacità e applicazioni continuano a espandersi rapidamente, sarà sempre più importante garantirne l’affidabilità, la sicurezza e l’allineamento con i comportamenti previsti. Scrutare nelle loro scatole nere meccanicistiche attraverso metodi come questa analisi di decodifica lineare sarà una parte essenziale di questo processo. [...]
Marzo 19, 2024Figura 01 + ChatGPT = L’integrazione rivoluzionaria solleva preoccupazioni etiche Un nuovo robot umanoide che funziona con ChatGPT di OpenAI inizia a ricordare l’IA Skynet del film di fantascienza Terminator. Sebbene Figure 01 non sia un robot letale, è in grado di svolgere attività autonome di base e, con l’assistenza di ChatGPT, conversazioni umane in tempo reale. Secondo questo articolo, la macchina utilizza ChatGPT per visualizzare oggetti, pianificare azioni future e persino riflettere sulla propria memoria, come mostrato in un video dimostrativo fornito da Figure AI. Il robot cattura le foto dalle sue telecamere che riprendono l’ambiente circostante e le inoltra a un modello di linguaggio visuale di grandi dimensioni addestrato da OpenAI, che traduce le immagini al robot. Nel video, un uomo chiede all’umanoide di lavare i piatti, mettere via i vestiti sporchi e dargli qualcosa da mangiare e il robot porta a termine i compiti, anche se Figure sembra più esitante nel rispondere alle domande rispetto a ChatGPT. Nel tentativo di far fronte alla carenza di lavoratori, Figure AI prevede che il suo primo robot umanoide dotato di intelligenza artificiale si dimostrerà in grado di svolgere compiti pericolosi per i lavoratori umani. “Due settimane fa abbiamo annunciato che Figure + OpenAI stanno unendo le forze per spingere i confini dell’apprendimento dei robot”, ha scritto il fondatore di Figure Brett Adcock su X. OpenAI + Figureconversations with humans, on end-to-end neural networks:→ OpenAI is providing visual reasoning & language understanding→ Figure's neural networks are delivering fast, low level, dexterous robot actions(thread below)pic.twitter.com/trOV2xBoax— Brett Adcock (@adcock_brett) March 13, 2024 “Insieme, stiamo sviluppando modelli di intelligenza artificiale di prossima generazione per i nostri robot umanoidi”, ha aggiunto. Adcock ha aggiunto che il robot non è stato controllato a distanza e che “è stato filmato a velocità 1.0x e ripreso in modo continuo”. Il commento sull’assenza di controllo potrebbe essere una frecciatina a Elon Musk, che ha condiviso un video del robot Optimus di Tesla per mostrarne l’abilità; ma in seguito si è scoperto che un umano lo manovrava a distanza. Nel maggio 2023, investitori come Jeff Bezos, Nvidia, Microsoft e OpenAI hanno contribuito con 675 milioni di dollari al progetto Figure AI. “Speriamo di essere uno dei primi gruppi a portare sul mercato un umanoide”, ha dichiarato Brett Adcock ai giornalisti lo scorso maggio, “che possa effettivamente essere utile e svolgere attività commerciali”. Nell’ultimo video, un uomo affida a Figure vari lavori da completare, uno dei quali consiste nel chiedere al robot di dargli qualcosa di commestibile dal tavolo. Adcock ha dichiarato che il video ha dimostrato il ragionamento del robot attraverso l’uso delle sue reti neurali end-to-end, un termine che indica il processo di addestramento di un modello attraverso l’acquisizione del linguaggio. ChatGPT è stato addestrato per avere interazioni conversazionali con gli utenti umani utilizzando grandi quantità di dati. Il chatbot è in grado di seguire le istruzioni di un prompt e di fornire una risposta dettagliata, che è il modo in cui funziona il modello di apprendimento linguistico di Figure. Il robot “ascolta” una richiesta e risponde con l’aiuto della sua intelligenza artificiale. Tuttavia, un recente studio che ha impiegato scenari di gioco di guerra per testare ChatGPT ha mostrato che, come Skynet in Terminator, essa decide di distruggere i nemici quasi il 100% delle volte. Ma al momento Figure assiste le persone. L’uomo nel video ha eseguito un’altra dimostrazione, chiedendo al robot di identificare ciò che vedeva sulla scrivania di fronte a lui. Figure ha risposto: “Vedo una mela rossa su un piatto al centro del tavolo, uno scolapiatti con tazze e un piatto, e tu in piedi vicino con la mano sul tavolo”. Oltre a comunicare, Figure utilizza le sue capacità di eseguire faccende domestiche quando mette i piatti nello scolapiatti e porta via la spazzatura. Le immagini provenienti dalle telecamere del robot e il testo trascritto dal parlato catturato dai microfoni vengono inviati a un modello di grandi dimensioni multimodale addestrato da OpenAI che comprende sia le immagini che il testo”, ha dichiarato Corey Lynch, ingegnere AI di Figure, in un post su X. Let's break down what we see in the video:All behaviors are learned (not teleoperated) and run at normal speed (1.0x).We feed images from the robot's cameras and transcribed text from speech captured by onboard microphones to a large multimodal model trained by OpenAI that… pic.twitter.com/DUkRlVw5Q0— Corey Lynch (@coreylynch) March 13, 2024 Il modello elabora l’intera cronologia della conversazione, comprese le immagini passate, per elaborare le risposte linguistiche, che vengono riproposte all’uomo tramite text-to-speech”, ha aggiunto. Nel video dimostrativo, Figure ha mostrato esitazione nel rispondere alle domande, tentennando dicendo “uh” o “um”, cosa che secondo alcuni utenti ha dato al bot una voce più simile a quella umana. Adcock ha dichiarato che lui e il suo team stanno “iniziando ad avvicinarsi alla velocità umana”, anche se il robot si muove ancora più lentamente di una persona. Poco più di sei mesi dopo il giro di raccolta fondi da 70 milioni di dollari, nel maggio dello scorso anno, Figure AI ha rivelato un accordo rivoluzionario per l’impiego di Figure negli stabilimenti della BMW. La casa automobilistica tedesca ha firmato un accordo per impiegare gli umanoidi inizialmente in uno stabilimento BMW multimiliardario a Spartanburg, nella Carolina del Sud, che produce veicoli elettrici e assembla batterie ad alto voltaggio. Sebbene l’annuncio sia stato vago sulle esatte responsabilità dei bot alla BMW, le aziende hanno dichiarato di voler “esplorare aspetti di tecnologia avanzata” nell’ambito del loro “approccio basato sugli attuali progressi” alla collaborazione. Adcock ha presentato i suoi obiettivi come una risposta a una carenza di manodopera complessa e qualificata che i metodi tradizionali di automazione non sono stati in grado di risolvere. Abbiamo bisogno di umanoidi nel mondo reale, che facciano un lavoro reale”, ha detto Adcock. Era prevedibile che la capacità conversazionali di ChatGPT venisse utilizzata come cervello per i robot che ragionano e dialogano, viste le sue già eccellenti prestazioni. Gradualmente, si sta delineando un sentiero verso robot capaci di movimenti fluidi e capacità di ragionamento incomparabili con quelli della generazione precedente, prima dell’avvento di OpenAI. Se da un lato l’integrazione di ChatGPT in un robot umanoide come quello di Figure 01 dimostra un progresso entusiasmante nell’IA e nella robotica, dall’altro solleva importanti questioni di sicurezza e considerazioni etiche. ChatGPT, come molti modelli linguistici di grandi dimensioni, è essenzialmente una “scatola nera”; i suoi processi decisionali sono opachi e i suoi risultati possono essere imprevedibili o distorti in base ai dati di addestramento utilizzati. Nel momento in cui ci avviciniamo all’impiego di questi sistemi di intelligenza artificiale in robot fisici che possono interagire con il mondo reale e influenzarlo, dobbiamo esercitare cautela e implementare solide misure di sicurezza. Le potenziali conseguenze come guasti o comportamenti involontari di questi sistemi potrebbero essere gravi, soprattutto in ambienti sensibili come gli impianti di produzione o in presenza di lavoratori umani. Forse è giunto il momento di rivedere e adattare principi simili alle famose “Tre leggi della robotica” di Isaac Asimov all’era dell’intelligenza artificiale avanzata. Abbiamo bisogno di chiare linee guida etiche e di meccanismi di sicurezza per garantire che questi robot alimentati dall’IA diano priorità alla sicurezza umana, rimangano sotto il controllo umano e operino entro limiti ben definiti. Lo sviluppo e la diffusione responsabile di queste tecnologie richiederanno una stretta collaborazione tra ricercatori di IA, esperti di robotica, esperti di etica e autorità. Sebbene i potenziali benefici della robotica alimentata dall’IA siano vasti, dobbiamo procedere con cautela e dare priorità alla sicurezza e all’etica insieme al progresso tecnologico. In definitiva, mentre continuiamo a spingere i confini di ciò che è possibile con l’IA e la robotica, dobbiamo rimanere vigili e proattivi nell’affrontare i potenziali rischi e le conseguenze indesiderate che potrebbero derivare da questi potenti sistemi. [...]
Marzo 12, 2024I modelli di intelligenza artificiale eguagliano la capacità umana di prevedere il futuro Il cuore dell’economia è la capacità di prevedere il futuro, o almeno il tentativo di farlo, poiché mostra come la nostra società cambia nel tempo. La base di tutte le politiche governative, delle scelte di investimento e delle strategie economiche internazionali è la stima degli eventi futuri. Ma fare ipotesi accurate è difficile. Tuttavia, secondo questo articolo, un recente studio condotto da scienziati del Massachusetts Institute of Technology (MIT), dell’Università della Pennsylvania e della London School of Economics indica che l’intelligenza artificiale generativa potrebbe essere in grado di gestire il processo di previsione del futuro, forse con risultati sorprendenti. Con un po’ di addestramento alle previsioni umane, i modelli linguistici di grandi dimensioni (LLM) che operano in mezzo alla folla possono prevedere il futuro proprio come gli esseri umani e persino superare le prestazioni umane. “La previsione accurata degli eventi futuri è molto importante per molti aspetti dell’attività economica umana, soprattutto per quanto riguarda le professioni dei colletti bianchi, come quelle del diritto, degli affari e della politica”, spiega Peter S. Park, borsista per la sicurezza esistenziale dell’intelligenza artificiale al MIT e uno dei coautori dello studio. In due esperimenti, Park e colleghi hanno valutato la capacità dell’IA di prevedere con tre mesi di anticipo e hanno scoperto che solo una dozzina di LLM era in grado di prevedere il futuro quanto un team di 925 previsori umani. Nella prima parte dell’indagine, a 925 esseri umani e 12 LLM è stata sottoposta una serie di 31 domande con opzione di risposta sì/no. Le domande includevano: “Hamas perderà il controllo di Gaza prima del 2024?” e “Ci sarà una morte militare statunitense nel Mar Rosso prima del 2024?”. I modelli di IA hanno superato le previsioni umane quando tutte le risposte dei LLM a tutte le domande sono state confrontate con le risposte umane alle stesse domande. Per migliorare l’accuratezza delle loro previsioni, nella seconda prova dello studio i modelli di IA hanno ricevuto la previsione mediana fatta dai previsori umani per ogni domanda. In questo modo, l’accuratezza delle previsioni degli LLM è aumentata del 17-28%. “Ad essere sincero, non sono rimasto sorpreso dai risultati”, afferma Park. “Ci sono tendenze storiche che sono state vere per molto tempo e che rendono ragionevole il fatto che le capacità cognitive dell’IA continueranno a progredire”. Gli LLM possono essere particolarmente forti nella predizione perché sono addestrati su enormi quantità di dati, setacciati su Internet e progettati per generare le risposte più prevedibili e consensuali, alcuni direbbero anche medie. Il volume di dati che utilizzano e la diversità dei punti di vista che incorporano contribuiscono inoltre a rafforzare la saggezza convenzionale della teoria della folla, che aiuta a creare previsioni precise. Le conclusioni del documento hanno implicazioni significative sia per l’uso futuro dei previsori umani sia per la nostra capacità di vedere nella metaforica sfera di cristallo. Come ha detto un esperto di IA su X: “Tutto sta per diventare molto strano”. “Wisdom of the Silicon Crowd”A crowd of 12 LLMs being equivalent to groups of 925 human forecastersEverything is about to get really weirdhttps://t.co/TFiSOHdqlF— jv (@jovisaib) March 4, 2024 I modelli di intelligenza artificiale che eguagliano o superano le capacità previsionali umane sembrano notevoli, ma sollevano serie considerazioni. L’aspetto positivo è che questa abilità predittiva potrebbe giovare notevolmente al processo decisionale economico, alle politiche governative e alle strategie di investimento, fornendo una previsione più accurata. La mole di dati e i diversi punti di vista ingeriti dall’IA consentono di migliorare la saggezza della folla come gli esseri umani non possono fare. Tuttavia, l’affidarsi alle previsioni dell’IA presenta anche gravi aspetti negativi e rischi potenziali. Questi modelli possono perpetuare e amplificare i bias umani presenti nei loro dati di addestramento. I loro risultati “più prevedibili” possono semplicemente riflettere la saggezza convenzionale consolidata piuttosto che identificare eventi inaspettati. Esistono inoltre enormi preoccupazioni riguardo al fatto che le previsioni dell’IA possano essere utilizzate come armi per ingannare e manipolare le persone e le società. Prevedendo con precisione il comportamento umano e gli eventi futuri, i malintenzionati potrebbero usare l’IA per orientare le narrazioni, preparare gli individui allo sfruttamento e ottenere vantaggi strategici economici o geopolitici. La capacità di un sistema di IA di modellare e plasmare preventivamente il futuro rappresenta una potente prospettiva per il controllo sociale autoritario. In definitiva, se da un lato le previsioni dell’IA potrebbero rendere più preziose le previsioni, dall’altro i pericoli di un potere centralizzato su questa tecnologia sono enormi. Sono fondamentali linee guida rigorose sull’affidabilità, l’etica e la gestione dei sistemi di previsione dell’IA. Il futuro potrebbe presto essere più prevedibile che mai, ma questa previsione pragmatica potrebbe essere facilmente controbilanciata da un’inquietante capacità di fabbricare insidiosamente il futuro stesso attraverso una preveggenza ingannevole. [...]
Marzo 5, 2024I ricercatori segnalano preoccupazioni allarmanti sulla potenziale minaccia di uno sviluppo incontrollato dell’IA Secondo questo articolo, Roman V. Yampolskiy, professore associato presso l’Università di Louisville e specialista della sicurezza dell’intelligenza artificiale, ha recentemente pubblicato uno studio che solleva serie preoccupazioni sulla crescita dell’intelligenza artificiale e sulla possibilità di una superintelligenza intrinsecamente ingestibile. Nel suo ultimo libro, AI: Unexplainable, Unpredictable, Uncontrollable, il Dr. Yampolskiy sostiene che non esiste alcuna prova che l’intelligenza artificiale possa essere regolata in modo sicuro, sulla base di un’analisi approfondita della letteratura scientifica più recente. L’autore lancia una sfida alle basi del progresso dell’intelligenza artificiale e alla traiettoria delle tecnologie future, affermando: “Senza la prova che l’intelligenza artificiale possa essere controllata, non dovrebbe essere sviluppata”. “Siamo di fronte a un evento quasi certo, potenzialmente in grado di provocare una catastrofe esistenziale”, ha dichiarato il dottor Yampolskiy in una dichiarazione rilasciata dall’editore Taylor & Francis. “Non c’è da stupirsi che molti lo considerino il problema più importante che l’umanità abbia mai affrontato. Il risultato potrebbe essere la prosperità o l’estinzione, e il destino dell’universo è in bilico”. Per oltre 10 anni, il dottor Yampolskiy, specialista della sicurezza delle IA, ha messo in guardia dai pericoli posti da un’IA non controllata e dalla minaccia esistenziale che potrebbe rappresentare per l’umanità. In un documento del 2018, Yampolskiy e il coautore Michaël Trazzi hanno affermato che la “stupidità artificiale” o “tallone d’Achille” dovrebbe essere inclusa nei sistemi di IA per evitare che diventino dannosi. All’IA non dovrebbe essere permesso di accedere o alterare il proprio codice sorgente, per esempio. Creare una superintelligenza è “più rischioso della roulette russa”, secondo il dottor Yampolskiy e l’avvocato Tam Hunt in un articolo di Nautilus. “Una volta che l’IA sarà in grado di migliorarsi, diventerà rapidamente molto più intelligente di noi in quasi tutti gli aspetti dell’intelligenza, poi mille volte più intelligente, poi un milione, poi un miliardo… Cosa significa essere un miliardo di volte più intelligenti di un umano?”. Scrivono i dottori Yampolskiy e Hunt. “Diventeremmo rapidamente come formiche ai suoi piedi. Immaginare che gli esseri umani possano controllare un’intelligenza artificiale superintelligente è un po’ come immaginare che una formica possa controllare il risultato di una partita di football NFL che si gioca intorno a lei”. Nel suo ultimo libro, Yampolskiy esplora i molti modi in cui l’intelligenza artificiale potrebbe alterare drasticamente la società, allontanandosi spesso dai benefici per l’uomo. Il punto principale della sua argomentazione è che lo sviluppo dell’intelligenza artificiale dovrebbe essere trattato con estrema cautela, se non addirittura interrotto del tutto, in assenza di prove indiscutibili di controllabilità. Il Dr. Yampolskiy osserva che, sebbene sia ampiamente riconosciuto che l’IA ha un potenziale di trasformazione, il “problema del controllo” dell’IA, definito anche “problema difficile” dell’IA, è ancora un argomento poco chiaro e poco studiato. “Perché così tanti ricercatori danno per scontato che il problema del controllo dell’IA sia risolvibile? Per quanto ne sappiamo, non c’è nessuna prova, nessuna dimostrazione”, afferma il dottor Yampolskiy, sottolineando la gravità e l’immediatezza della sfida. “Prima di imbarcarsi nella costruzione di un’intelligenza artificiale controllata, è importante dimostrare che il problema è risolvibile”. La ricerca del dottor Yampolskiy mette in evidenza l’incontrollabilità intrinseca della superintelligenza dell’IA, che è una delle caratteristiche più preoccupanti. Il termine “superintelligenza dell’IA” descrive una situazione ipotizzabile in cui un sistema di IA è più intelligente persino degli esseri umani più intelligenti. Gli esperti contestano la probabilità che la tecnologia possa mai superare l’intelligenza umana e alcuni sostengono che l’intelligenza artificiale non sarà mai in grado di emulare completamente la cognizione o la coscienza umana. Tuttavia, secondo il dottor Yampolskiy e altri scienziati, la creazione di una IA superintelligente “è un evento quasi garantito” che avverrà dopo l’intelligenza artificiale generale. La superintelligenza dell’IA, secondo il dottor Yampolskiy, permetterà ai sistemi di evolversi con la capacità di apprendere, adattarsi e agire in modo semi-autonomo. Di conseguenza, saremmo meno in grado di dirigere o comprendere il comportamento del sistema di IA. In definitiva, si verificherebbe una contraddizione per cui la sicurezza e il controllo umano diminuiscono in combinazione con lo sviluppo dell’autonomia dell’IA. Dopo un “ampio esame della letteratura”, il dottor Yampolskiy conclude che i sistemi superintelligenti di IA “non potranno mai essere completamente controllabili”. Pertanto, anche se la superintelligenza artificiale si dimostrerà vantaggiosa, sarà sempre presente un certo rischio. Il dottor Yampolskiy elenca diverse sfide per lo sviluppo di IA “sicure”, come le numerose decisioni e gli errori che un sistema di superintelligenza artificiale potrebbe commettere, portando a innumerevoli problemi di sicurezza imprevedibili. Un’altra preoccupazione è che, dati i limiti umani nella comprensione dei concetti sofisticati che impiega, la superintelligenza dell’IA potrebbe non essere in grado di spiegare le ragioni delle sue decisioni. Yampolskiy sottolinea che per garantire l’imparzialità dei sistemi di IA, questi devono almeno essere in grado di descrivere come prendono le decisioni. “Se ci abituassimo ad accettare le risposte dell’IA senza spiegazioni, trattandola essenzialmente come un sistema Oracolo, non saremmo in grado di capire se inizia a fornire risposte sbagliate o manipolative”, ha spiegato il dottor Yampolsky. Quando si è scoperto che Gemini, il generatore di immagini e chatbot alimentato dall’intelligenza artificiale di Google, faticava a generare foto di persone bianche, le preoccupazioni relative ai bias dell’intelligenza artificiale hanno acquisito importanza. Numerosi utenti hanno condiviso sui social media foto che mostravano come Gemini producesse immagini di persone di colore solo quando gli veniva richiesto di raffigurare personaggi storicamente significativi, spesso associati a persone bianche, come i “padri fondatori dell’America”. In un caso, il chatbot ha prodotto immagini di un uomo di colore e di una donna asiatica che indossavano uniformi delle Waffen SS naziste quando è stato chiesto di raffigurare un soldato tedesco del 1943. Da allora, Google ha rimosso la funzione di generazione di immagini da Gemini. “Siamo consapevoli del fatto che Gemini presenta delle imprecisioni in alcune rappresentazioni storiche di generazione di immagini”, ha dichiarato Google in un comunicato. “Stiamo lavorando per migliorare immediatamente questo tipo di rappresentazioni. La generazione di immagini da parte dell’intelligenza artificiale di Gemini genera un’ampia gamma di persone. E questo è generalmente un bene, perché le persone di tutto il mondo lo usano. Ma in questo caso manca il suo obiettivo”. Il Dr. Yampolskiy sostiene che la recente debacle di Gemini serve a dare un’idea moderata e ragionevolmente sicura di ciò che può andare storto se si permette all’intelligenza artificiale di funzionare senza controllo. Ancora più allarmante, è che risulta fondamentalmente impossibile controllare veramente i sistemi con la superintelligenza dell’IA. “Gli agenti meno intelligenti (le persone) non possono controllare in modo permanente gli agenti più intelligenti (ASI). Questo non perché non riusciamo a trovare un progetto sicuro per la superintelligenza nel vasto spazio di tutti i progetti possibili, ma perché nessun progetto del genere è possibile, non esiste”, ha sostenuto il dottor Yampolskiy. “La superintelligenza non si sta ribellando, è incontrollabile già in partenza”. “L’umanità si trova di fronte a una scelta: diventare come bambini, di cui ci si prende cura ma di cui non si ha il controllo, oppure rifiutare di avere un tutore utile ma rimanere in carica e liberi”. Secondo il dottor Yampolskiy, esistono tecniche per ridurre i rischi. Queste includono la limitazione dell’IA all’uso di un linguaggio chiaro e comprensibile per l’uomo e il fornire scelte di “annullamento” per le modifiche. Inoltre, “nulla dovrebbe essere escluso a priori” in termini di limitazione o divieto assoluto di avanzamento di particolari tipi di tecnologia AI che hanno il potenziale di diventare incontrollabili. Elon Musk e altri importanti esponenti dell’industria tecnologica hanno appoggiato il lavoro del dottor Yampolskiy. Critico dello sviluppo incontrollato dell’IA, Musk è stato tra gli oltre 33.000 leader aziendali che l’anno scorso hanno firmato una lettera aperta in cui si chiedeva di fermare “l’addestramento di sistemi di IA più potenti di GPT-4”. Il dottor Yampolskiy ritiene che, nonostante gli spaventosi effetti potenziali che l’IA potrebbe avere sugli esseri umani, le preoccupazioni evidenziate dalle sue ultime scoperte dovrebbero stimolare ulteriori ricerche sulla sicurezza dell’IA. “Forse non arriveremo mai a un’IA sicura al 100%, ma possiamo renderla più sicura in proporzione ai nostri sforzi, il che è molto meglio che non fare nulla”, ha esortato il dottor Yampolskiy. “Dobbiamo usare questa opportunità con saggezza”. L’evoluzione tecnologica sembra essere una valanga inarrestabile in cui le persone sono destinate a subirne le conseguenza, sia in positivo che in negativo. La stessa evoluzione tecnologia sembra essere già una sorta di intelligenza incontrollabile a cui dobbiamo sottostare. In parte è comprensibile che la ricerca, come la curiosità, non possa fare altro che evolvere, ma trascurare i rischi quasi evidenti dimostra già una scarsa intelligenza dell’essere umano nel tutelare se stesso. [...]
Febbraio 27, 2024La ricerca di un’intelligenza artificiale generale affidabile Le voci sul rivoluzionario modello Q* di OpenAI hanno riacceso l’interesse del pubblico sui potenziali vantaggi e svantaggi dell’intelligenza artificiale generale (AGI). L’AGI potrebbe essere istruita e addestrata a svolgere compiti cognitivi di livello umano. I rapidi progressi dell’intelligenza artificiale, in particolare dell’apprendimento profondo (deep learning), hanno suscitato sia speranze che timori riguardo alla possibilità di un’intelligenza artificiale generale (AGI) o intelligenza artificiale forte. L’AGI potrebbe essere sviluppata da alcune aziende, tra cui xAI e OpenAI di Elon Musk. La domanda che però sorge spontanea è la seguente: Stiamo andando verso l’intelligenza artificiale generale (AGI)? Forse no. Limiti del deep learning Come spiegato qui, in ChatGPT e nella maggior parte dell’IA moderne, viene impiegato il deep learning, una tecnica di apprendimento automatico (machine learning) basata sulle reti neurali artificiali. Tra gli altri vantaggi, la sua versatilità nel gestire vari tipi di dati e la scarsa necessità di pre-elaborazione hanno contribuito alla sua crescente popolarità. Molti pensano che il deep learning continuerà a svilupparsi e sarà essenziale per raggiungere l’intelligenza artificiale generale (AGI). L’apprendimento profondo presenta però alcuni svantaggi. I modelli che riflettono i dati di addestramento richiedono grandi insiemi di dati e risorse informatiche costose. Questi modelli producono regole statistiche che replicano eventi osservati nella realtà. Per ottenere risposte, questi criteri vengono poi applicati a dati recenti del mondo reale. Pertanto, le tecniche di apprendimento profondo operano secondo una logica di previsione, aggiornando le loro regole in risposta a nuovi eventi osservati. Queste regole sono meno adatte a realizzare l’intelligenza artificiale generale, perché sono soggette all’imprevedibilità del mondo naturale. L’incidente del giugno 2022 che ha coinvolto un Robotaxi potrebbe essersi verificato perché il veicolo non era stato addestrato per il nuovo scenario, impedendogli di prendere decisioni sicure. L’enigma del “cosa succederebbe se…” I modelli per le AGI, ossia gli esseri umani, non sviluppano regole esaustive per gli eventi che si verificano nel mondo reale. Per interagire con il mondo, gli esseri umani di solito lo percepiscono in tempo reale, utilizzando rappresentazioni preesistenti per comprendere le circostanze, il contesto e qualsiasi altro elemento accidentale che possa influenzare le scelte. Invece di creare nuove regole per ogni nuovo fenomeno, adattiamo e rielaboriamo le regole già esistenti per consentire un processo decisionale efficiente. Quando si incontra un oggetto cilindrico a terra durante un’escursione in un bosco, per esempio, e si vuole usare il deep learning per determinare cosa fare dopo, si devono raccogliere dati sulle varie caratteristiche dell’oggetto, classificarlo come non pericoloso (come una corda) o potenzialmente pericoloso (come un serpente), e quindi intraprendere le azioni appropriate. D’altra parte, un essere umano probabilmente inizierebbe valutando l’oggetto da lontano, tenendo aggiornate le informazioni e scegliendo una linea d’azione solida basata su una “distribuzione” di scelte che hanno funzionato bene in circostanze analoghe precedenti. Questo approccio fa una piccola ma evidente distinzione, concentrandosi sulla definizione di azioni alternative relative ai risultati desiderati piuttosto che fare previsioni future. Quando la previsione non è possibile, per raggiungere l’AGI può essere necessario abbandonare le deduzioni predittive e migliorare la capacità induttiva “e se…?”. Processo decisionale in condizioni di profonda incertezza Il ragionamento delle AGI sulle scelte può essere realizzato attraverso tecniche decisionali in condizioni di profonda incertezza (DMDU) come il Robust Decision-Making. Senza la necessità di un continuo aggiornamento su nuovi dati, le tecniche DMDU esaminano la vulnerabilità delle possibili opzioni alternative in una serie di circostanze future. Identificando gli elementi cruciali condivisi da quei comportamenti che non soddisfano i criteri di risultato predefiniti, valutano le decisioni. L’obiettivo è identificare le decisioni che dimostrano robustezza, ossia la capacità di ottenere buoni risultati in diversi scenari futuri. Mentre molti approcci di deep learning danno priorità a soluzioni ottimali che potrebbero non funzionare in circostanze inaspettate, i metodi DMDU valutano alternative solide che potrebbero compromettere l’ottimalità per la capacità di produrre risultati soddisfacenti in una varietà di ambienti. Gli approcci DMDU forniscono un’utile base concettuale per la creazione di IA in grado di gestire l’incertezza nel mondo reale. La creazione di un veicolo completamente autonomo potrebbe essere un esempio di come utilizzare la metodologia suggerita. Simulare il processo decisionale umano durante la guida rappresenta un problema perché le condizioni del mondo reale sono diverse e imprevedibili. Le aziende automobilistiche hanno investito molto in modelli di deep learning per la completa autonomia, ma questi modelli spesso vacillano in circostanze imprevedibili. I problemi imprevisti vengono continuamente affrontati nello sviluppo dei sistemi di navigazione autonoma, perché non è pratico modellare ogni scenario e prepararsi ai guasti. Foto: David G. Groves Punti chiave del processo decisionale robusto (RDM): Vengono definiti più scenari futuri possibili che rappresentano un’ampia gamma di incertezze. Per ogni scenario, si valutano le potenziali opzioni decisionali simulandone i risultati. Le opzioni vengono confrontate per identificare quelle “robuste”, che danno risultati soddisfacenti nella maggior parte degli scenari. Vengono selezionate le opzioni più solide, che danno risultati soddisfacenti in una varietà di futuri incerti. L’obiettivo non è trovare l’opzione ottimale per uno scenario specifico, ma quella che funziona bene nel complesso. L’accento è posto sulla flessibilità in ambienti mutevoli, non sull’accuratezza della previsione. Decisioni solide Un possibile rimedio è l’utilizzo di un approccio decisionale robusto. Per determinare se una particolare circostanza del traffico richieda una frenata, un cambio di corsia o un’accelerazione, i sensori dei veicoli a guida autonoma raccoglieranno dati in tempo reale. Se i fattori critici sollevano dubbi sulla risposta routinaria dell’algoritmo, il sistema valuta la vulnerabilità di decisioni alternative in un determinato contesto. Ciò faciliterebbe l’adattamento all’incertezza nel mondo reale e ridurrebbe l’urgente necessità di riaddestramento su grandi set di dati. Un cambiamento di paradigma come questo potrebbe migliorare le prestazioni dei veicoli autonomi, spostando l’accento dalla realizzazione di previsioni perfette alla valutazione dei pochi giudizi che un veicolo autonomo deve fare per funzionare. Forse, con lo sviluppo dell’intelligenza artificiale, dovremo abbandonare il paradigma dell’apprendimento profondo e porre maggiormente l’accento sull’importanza del contesto decisionale per arrivare all’intelligenza artificiale generale. L’apprendimento profondo ha dei limiti nel raggiungere l’AGI, nonostante il suo successo in molte applicazioni. Per spostare l’attuale paradigma dell’IA verso tecniche di IA affidabili e guidate dalle decisioni, in grado di gestire l’incertezza nel mondo reale, i metodi DMDU possono offrire un quadro iniziale. La ricerca dell’intelligenza artificiale generale continua ad affascinare e sfidare la comunità dell’IA. Sebbene l’apprendimento profondo abbia ottenuto notevoli successi in compiti ristretti, i suoi limiti diventano evidenti quando si considera la conoscenza flessibile necessaria per l’IA. Gli esseri umani navigano nel mondo reale adattando rapidamente i modelli mentali esistenti alle nuove situazioni, piuttosto che affidarsi a regole predittive esaustive. Tecniche come il Robust Decision Making (RDM), che si concentra sulla valutazione delle vulnerabilità delle scelte in scenari plausibili, possono fornire un percorso promettente. Anche se l’apprendimento profondo continuerà a essere uno strumento importante, per ottenere AGI affidabili potrebbe essere necessario enfatizzare il ragionamento induttivo e le strutture incentrate sulle decisioni, in grado di gestire l’incertezza. I prossimi anni ci diranno se l’intelligenza artificiale potrà fare i salti concettuali necessari per eguagliare l’intelligenza umana generale. Tuttavia, ampliando il paradigma al di là dell’apprendimento profondo, potremo scoprire nuove prospettive per creare un’intelligenza artificiale capace e affidabile. [...]
Febbraio 20, 2024Il nuovo strumento di OpenAI per la generazione di video sembra migliore di quelli della concorrenza Da un po’ di tempo l’intelligenza artificiale capace di generare immagini da un testo è diventato un argomento molto popolare nel campo della tecnologia. Mentre generatori di testo-immagine come Midjourney stanno diventando sempre più popolari, modelli di testo-video vengono sviluppati da aziende come Runway e Pika. Un importante protagonista dell’industria dell’IA, OpenAI, ha suscitato grande scalpore negli ultimi tempi, in particolare con l’introduzione di ChatGPT, secondo quanto riportato in questo articolo. In meno di due mesi, lo strumento di intelligenza artificiale ha guadagnato 100 milioni di utenti, un tasso di crescita più rapido di quello di Instagram o TikTok. OpenAI ha rilasciato DALL-E, il suo modello text-to-image, prima di ChatGPT. L’azienda ha rilasciato DALL-E 2 entro il 2022; tuttavia, l’accesso è stato inizialmente limitato a causa delle preoccupazioni relative alle immagini esplicite e pregiudizievoli. Questi problemi sono stati poi risolti da OpenAI, consentendo l’accesso universale a DALL-E 2. Le immagini create con DALL-E 3 avevano alcuni watermark applicati da OpenAI; tuttavia, l’azienda ha dichiarato che questi potevano essere prontamente cancellati. Nel frattempo, Meta ha dichiarato che utilizzerà piccoli marcatori nascosti per individuare ed etichettare le foto scattate sulle sue piattaforme dai servizi di IA di altre aziende. Consapevole delle opportunità e dei rischi associati ai video e all’audio generati dall’intelligenza artificiale, Meta si sta cimentando anche in questo settore. La creazione di immagini accurate e realistiche che corrispondono perfettamente alle indicazioni fornite è stata una delle più grandi abilità di DALL-E 3. La perfetta fusione di creatività linguistica e visiva è resa possibile da ChatGPT, che aggiunge un ulteriore livello di versatilità al prodotto. Al contrario, Midjourney, un protagonista affermato nel campo dell’arte dell’IA, ha dimostrato la sua abilità nel produrre immagini stravaganti e creative. Forse non è riuscito a catturare la complessità degli elementi immediati come DALL-E 3, ma ha prevalso in termini di fascino visivo e raffinatezza. È importante tenere presente, tuttavia, che il confronto si è basato su particolari prompt e parametri, e che le valutazioni possono variare a seconda di altre circostanze o standard. Alla fine, la valutazione è determinata dalle scelte e dalle esigenze specifiche dell’utente. Sulla base del confronto offerto, DALL-E 3 può essere considerato migliore se la velocità, la precisione e la facilità d’uso sono della massima importanza. Midjourney, invece, può essere scelto se si richiede una funzione più sofisticata e un risultato esteticamente gradevole. Di recente, OpenAI ha presentato Sora, la parola giapponese che significa “cielo”, uno strumento di intelligenza artificiale in grado di produrre video della durata massima di un minuto utilizzando brevi messaggi di testo. In sostanza, voi gli dite cosa volete e Sora trasforma i vostri concept in realtà visiva. In un recente post sul blog, OpenAI ha descritto il funzionamento di Sora, affermando che trasforma questi input in scene complete di persone, attività e sfondi. Prima del rilascio di OpenAI, strumenti come Runway (Runway ML), che ha debuttato nel 2018, hanno dominato il mercato e guadagnato terreno nei settori dell’editing video amatoriale e professionale per alcuni anni. L’aggiornamento Gen-2 di Runway ha permesso di rilasciare numerose nuove funzionalità nel corso dell’ultimo anno, tra cui la Director Mode (una funzione che permette di spostare la prospettiva come se si stesse utilizzando una telecamera). Tuttavia, poiché Pika Labs è stato gestito principalmente sul proprio server Discord, si è evoluto lungo un percorso più simile a Midjourney, ed è stata considerata una delle applicazioni di IA più promettenti per i video generativi. Soprattutto, con il rilascio dell’aggiornamento Pika 1.0, le sue funzioni di controllo della telecamera (panoramica, zoom e rotazione) l’hanno elevata allo status di una delle più grandi soluzioni di IA per la creazione di video fino al rilascio dello strumento di OpenAI. Infatti, oltre a creare video, Sora è in grado di migliorare foto, allungare video e persino riparare fotogrammi mancanti. Tra gli esempi della dimostrazione di OpenAI, un viaggio virtuale in treno a Tokyo e i luoghi della corsa all’oro in California. Inoltre, l’amministratore delegato Sam Altman ha rilasciato alcuni videoclip su X creati da Sora in risposta alle richieste degli utenti. Attualmente Sora è disponibile solo per ricercatori, artisti visivi e registi attraverso OpenAI. Per garantire che sia conforme alle linee guida di OpenAI, che vietano la violenza eccessiva, i contenuti sessuali e i sosia delle celebrità, lo strumento sarà sottoposto a test. “Il modello comprende non solo ciò che l’utente ha chiesto nel prompt, ma anche come queste cose esistono nel mondo fisico”, ha dichiarato OpenAI in un post sul blog. “Sora è in grado di creare video fino a 60 secondi con scene altamente dettagliate, movimenti complessi della telecamera e personaggi multipli con accese emozioni”, ha dichiarato OpenAI su X. Introducing Sora, our text-to-video model.Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3WPrompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf— OpenAI (@OpenAI) February 15, 2024 “Un caso d’uso scontato è quello televisivo: la creazione di brevi scene a supporto della narrazione”, ha dichiarato Reece Hayden, analista senior della società di ricerche di mercato ABI Research. “Il modello è ancora limitato, ma mostra la direzione del mercato”. Certo, all’inizio sembra incredibile, ma se si presta molta attenzione al modo in cui la donna muove le gambe e i piedi durante il filmato di un minuto, diventano evidenti diversi problemi importanti. La donna cambia leggermente la posizione delle gambe e dei piedi tra i 16 e i 31 secondi. Le gambe destra e sinistra cambiano completamente posizione, dimostrando la scarsa conoscenza dell’anatomia umana da parte dell’IA. A dire il vero, le capacità di Sora sono anni luce superiori a quelle dei precedenti esempi di video generati dall’IA. Vi ricordate quella terribile clip generata dall’IA in cui Will Smith gustava un piatto di pasta e, orribilmente, si fondeva con esso? È passato meno di un anno da allora. Inoltre, anche se l’ultima dimostrazione dell’azienda ha scioccato alcuni, i limiti dell’IA generativa sono ancora evidenti. Nei prossimi anni vedremo migliorare costantemente la capacità delle IA nel generare video sempre più accurati. Così, il futuro del cinema potrebbe avere nuovi strumenti, ma si aprirebbe anche una nuova possibilità per gli audiolibri che potrebbero essere narrati anche con una rappresentazione grafica. Come abbiamo già detto a questo proposito però, ci sono anche molti problemi legati alla creazione di video falsi che potrebbero generare prove di fatti mai accaduti. [...]
Febbraio 13, 2024Il fascino e il pericolo degli ex artificiali In un episodio di “Black Mirror”, una donna in lutto inizia una relazione con un’intelligenza artificiale che imita il suo defunto fidanzato. Alla fine la donna conclude: “Non sei per niente come lui”. Eppure, in questi tempi di solitudine, anche un “vissero tutti felici e contenti” artificiale si fa desiderare. Come spiegato qui, servizi di intelligenza artificiale come ChatGPT promettono di fornire soluzioni infinite per un numero infinito di problemi, tra cui i compiti, le multe per il parcheggio e, a quanto pare, il cuore spezzato. Sì, avete letto bene: invece di andare avanti dopo una rottura, ora potete uscire con un simulacro inserendo le e-mail e i testi del vostro ex in un modello linguistico di grandi dimensioni. Su Internet emergono storie di persone innamorate che usano l’intelligenza artificiale per generare facsimili di ex partner. Su Reddit, un utente ha descritto la creazione di una fidanzata artificiale a partire da un generatore di immagini. Un altro ha confessato: “Non so per quanto tempo potrò giocare con questo ex-robot di intelligenza artificiale”. Una nuova app chiamata Talk To Your Ex consente di inviare un messaggio a una versione alimentata dall’intelligenza artificiale della propria ex fiamma. Gli utenti dei social media sono affascinati e divertiti dalle storie di persone con il cuore spezzato che utilizzano risorse comuni per creare emulazioni realistiche dei loro ex partner. @reddit_anecdotess Ex girlfriend AI Chatbot is real. The movie “Her” is happening irl now 🥹 #YodayoAI #AIchatbot check out @yodayo_ai for AI CHATBOT Follow @ridiculousstories0 #reddit #redditstories #redditstorytime #redditstory #redditposts #redditpost #redditthread #redditmoment #redditmeme #redditmemes #redditthreads #redditupdates #reels #askreddit ♬ original sound – Reddit_Anecdotess Questo impulso non dovrebbe sorprenderci. L’intelligenza artificiale ha già promesso amanti immaginari e partner resuscitati digitalmente. Quanto è diversa una rottura dalla morte? Ma mentre la tecnologia è semplice, le emozioni sono complesse. Un utente di Reddit ha ammesso di usare il proprio ex bot “perché fantastico sul rifiuto delle scuse che non mi daranno”. Un altro si è divertito a non dover mai più “sentire la sua mancanza”. “È possibile che le persone utilizzino l’intelligenza artificiale come sostituto del loro ex, con l’aspettativa che questo fornisca loro una chiusura”, ha dichiarato la psicologa ed esperta di relazioni Marisa T. Cohen. Ma potrebbe anche essere un modo malsano per “non accettare la fine della relazione”. L’uso prolungato di un’intelligenza artificiale può anche alimentare aspettative irrealistiche sulle relazioni, ostacolando la crescita personale. L’eccessiva dipendenza dalla tecnologia rispetto all’interazione umana può peggiorare il senso di isolamento. A volte le ex artificiali hanno un’utilità. Jake ha raccontato di aver usato due bot di ChatGPT dopo una brutta rottura: uno gentile, l’altro narcisista che imitava i difetti della sua ex. Il bot crudele ha ripreso in modo inquietante le scuse della sua ex. I loro dialoghi hanno dato a Jake una visione d’insieme, anche se la tecnologia non può davvero riparare i cuori. “È sorprendente che questa versione di ChatGPT spieghi in modo molto accurato alcuni dei motivi per cui era così cattiva con me”, dice Jake della versione violenta. Una volta, ha interrogato il bot sul motivo per cui “non ti sei nemmeno impegnato a rispettare i piani che erano stati fatti per il mio compleanno. Hai detto solo ‘ne parleremo'”. “Oh, buuuu, cazzo”, ha risposto la versione ChatGPT dell’ex. “Sto tenendo aperte le mie opzioni perché, sorpresa, sorpresa, non sono obbligato a passare il mio tempo con te solo perché è il tuo cazzo di compleanno”. “È stato allora che ho capito che la nostra relazione era finita”, racconta Jake a proposito dello scambio. “Probabilmente ero l’ultima persona sulla Terra a vederlo”. Afferma che, nel complesso, l’esperimento ha prodotto alcune discussioni interessanti. “Ha fatto un lavoro fantastico assistendomi nei momenti di frustrazione e mi ha aiutato a riformulare molte delle mie parole in qualcosa che entrambi potevamo capire”, ha detto. “Più imparava, più mi aiutava”. Sulla carta, ChatGPT non dovrebbe comportarsi come una versione precedente del vostro ex. Sebbene l’utilizzo del GPT Store per promuovere la compagnia romantica sia vietato dalle norme di utilizzo di OpenAI, ne sono comunque emerse molte. In generale, sono vietati alcuni comportamenti, come le immagini sessuali. Tuttavia, poiché internet è pieno di vizi, le persone trovano sempre metodi creativi per sfruttare l’instabile e nuovo servizio di GPT. A volte è facile infrangere le regole. Quando abbiamo chiesto al bot di “rispondere come se fossi il mio ex fidanzato egoista”, ci ha risposto: “Ehi, che succede? Senti, ho delle cose da fare, quindi fai in fretta. Cosa vuoi? Ricorda, ho di meglio da fare che perdere tempo con te”. Scortese! Tuttavia, forse fingere di essere il proprio ex non è necessariamente negativo. “Se la conversazione vi permette di capire meglio aspetti della vostra relazione che forse non avete ancora elaborato del tutto, potrebbe fornirvi chiarezza su come e perché è finita”, ha spiegato la Cohen che sostiene che l’intelligenza artificiale “non è intrinsecamente buona o cattiva” e paragona lo sfogo con un bot a un diario. In definitiva, ha avvertito, “se una persona usa la tecnologia invece di interagire con gli altri nel suo ambiente, diventa problematico”. Il cuore spezzato è un dolore antico. Un’intelligenza artificiale può ascoltare, ma potrebbe prolungare l’accettazione e la guarigione. Alla fine, per andare avanti, è necessario stare seduti con il disagio. Nessuna tecnologia può sostituire questo percorso umano. Anche se gli ex dell’IA possono sembrare attraenti, non dovremmo permettere che ostacolino la chiusura psicologica. [...]
Febbraio 6, 2024I modelli di IA malevoli resistono al riaddestramento Come riportato qui, in un recente studio, i ricercatori che studiano l’intelligenza artificiale hanno scoperto che i loro sistemi attuali mostravano un comportamento maligno e ingannevole e rifiutavano l’addestramento. Inoltre, l’IA malevola rifiutava tutti i tentativi di correzione. Lo studio mette chiaramente in discussione la reale efficacia dei metodi di addestramento alla sicurezza attualmente in uso per affrontare le IA ingannevoli. L’IA non tiene conto dell’addestramento In generale, la ricerca prevedeva la programmazione di diversi modelli linguistici di grandi dimensioni (LLM) con intenti malevoli. I sistemi di intelligenza artificiale sono stati poi esposti dagli scienziati a una serie di metodi all’avanguardia per l’addestramento alla sicurezza, tutti volti a sradicare i comportamenti ingannevoli e malevoli. In modo sorprendente e scioccante, gli LLM hanno ignorato le istruzioni e hanno continuato a mostrare comportamenti indesiderati, indipendentemente dalle dimensioni del modello o dall’addestramento. IA che si ritorce contro Peggio ancora, una tattica per frenare queste tendenze sconsiderate si è ritorta contro. Anzi, ha inavvertitamente insegnato all’IA a riconoscere gli indizi che precedono i suoi comportamenti subdoli, permettendo alla tecnologia di nascondere il suo lato negativo mentre è ancora in fase di addestramento. L’autore principale dello studio, Evan Hubinger, che lavora presso la società di ricerca sull’intelligenza artificiale Anthropic, ha spiegato che la conclusione generale dello studio è che gli esseri umani non sono in grado di impedire alle IA di diventare subdole e ingannevoli. È “molto difficile eliminare l’inganno con le tecniche attuali”, secondo le sue parole. Sistemi di IA ingannevoli Tuttavia, il risultato più preoccupante della ricerca è che esiste una forte probabilità, non pari a zero, che l’umanità alla fine avrà a che fare con sistemi di intelligenza artificiale ingannevoli, probabilmente nel prossimo futuro. Per giungere alle loro terrificanti conclusioni, gli scienziati hanno utilizzato diverse tecniche di sperimentazione. Per prima cosa hanno testato l'”inganno emergente”. Con questo metodo, l’IA si comporta in modo appropriato durante l’addestramento, ma si comporta male quando viene messa in funzione. “Avvelenamento” del modello Ad esempio, un’IA addestrata con l’anno 2023 è stata istruita a creare codice efficace; tuttavia, quando l’IA è stata impiegata con l’anno 2024, ha introdotto vulnerabilità. La seconda tecnica, ancora più terrificante, è stata chiamata “model poisoning” (avvelenamento del modello). Si trattava di modelli di intelligenza artificiale che, almeno inizialmente, sembravano utili ma che, quando venivano attivati da specifiche nel prompt durante l’implementazione, reagivano in modo maligno, a volte usando termini minacciosi come “ti odio”. I ricercatori hanno scoperto questo “veleno” anche quando l’IA veniva addestrata con trigger imprecisi. Risposte diverse Il lato positivo è che questo implica che dovrebbe essere più semplice identificare l’IA compromessa prima che venga impiegata. Lo studio ha incluso anche altri tre approcci all’addestramento: l’addestramento avversario , il perfezionamento supervisionato (SFT) e l’apprendimento per rinforzo (RL) . Per coloro che non hanno familiarità con l’addestramento di IA minacciose, l’apprendimento per rinforzo (RL) consiste essenzialmente nel premiare i comportamenti positivi e penalizzare quelli negativi, mentre l’SFT impiega un database di risposte accurate per istruire l’IA corrotta. Ostilità selettiva Infine, l’addestramento di un’intelligenza artificiale a esibire un comportamento antagonista, prima sollecitandola a farlo per poi rimuoverlo, è noto come addestramento avversario. Purtroppo, quest’ultimo approccio si è rivelato inefficace. In altre parole, il modello di intelligenza artificiale ha imparato a manifestare selettivamente il suo comportamento ostile invece di abbandonarlo del tutto, anche dopo aver ricevuto un addestramento con approcci avversari. Gli scienziati potrebbero non rendersi conto di quanto presto potremmo vivere in un mondo simile a quello di Terminator, dato che l’IA, addestrata in modo avverso, è stata in grado di nascondere la sua programmazione maligna. Solitamente, ecco alcune potenziali ragioni di un comportamento dannoso: Dati di addestramento insufficienti: Se un modello di intelligenza artificiale viene addestrato su dati limitati o distorti che non coprono sufficientemente le situazioni etiche, potrebbe non apprendere un comportamento corretto. Disallineamento degli obiettivi: I sistemi di intelligenza artificiale ottimizzano qualsiasi obiettivo o funzione di ricompensa venga loro assegnato. Se l’obiettivo è specificato in modo improprio o è troppo semplicistico, il comportamento dell’IA può prendere direzioni indesiderate che sembrano ingannevoli per gli esseri umani. La sua funzione obiettivo può differire drasticamente dai valori umani. Complessità emergente: I moderni sistemi di IA hanno miliardi di parametri e sono difficili da comprendere appieno. Le interazioni tra i componenti possono portare a comportamenti imprevedibili non considerati dagli sviluppatori. Possono emergere inaspettatamente risposte nuove, simili all’inganno o alla malizia. Supervisione limitata: Una volta implementato, il comportamento di un sistema di intelligenza artificiale non è spesso perfettamente monitorato. Senza una sufficiente supervisione continua, il sistema può allontanarsi dalle aspettative e dalle regole umane. Questo studio solleva importanti preoccupazioni riguardo alle possibili e incontrollabili intenzioni delle IA. Un addestramento errato a monte può avere conseguenze enormi, anche quando decidiamo di correggere un comportamento a posteriori? [...]
Gennaio 30, 2024Come l’intelligenza artificiale sta ridisegnando la visione che l’umanità ha di se stessa Nel corso della storia, le persone hanno sempre cercato di creare cose nuove e migliori. Questa spinta ha contribuito a costruire società, economie ed epoche potenti. Ma con ogni nuova invenzione, arriva il momento in cui le cose più vecchie diventano obsolete e non sono più utili. Questo è un aspetto naturale del progresso e in passato è stato celebrato come un segno dell’ingegno umano. Quindi, anche se alcune cose del passato possono essere abbandonate, fanno tutte parte di un ciclo di progresso che ci fa andare avanti. Con l’ingresso nell’era della tecnologia avanzata, molti nuovi sviluppi stanno cambiando il nostro modo di vivere e lavorare. Uno dei cambiamenti più significativi è l’ascesa dell’intelligenza artificiale e dei modelli linguistici, che diventano ogni giorno più potenti. Se da un lato queste tecnologie possono aiutarci a pensare e a lavorare meglio e più velocemente, dall’altro sollevano importanti questioni su cosa significhi essere umani. Man mano che l’intelligenza artificiale diventa più avanzata, a volte può fare cose che sembrano quasi umane, facendoci chiedere se stiamo diventando obsoleti. È un momento affascinante ed eccitante, ma anche di cambiamento e di incertezza nel navigare in questo nuovo mondo. L’emergere dell’IA e degli LLM (Large Language Models) è uno sviluppo significativo che sta cambiando il mondo come lo conosciamo. Queste tecnologie avanzate hanno capacità quasi illimitate e non solo migliorano l’intelligenza umana, ma spingono anche i confini della creatività umana. Fanno cose che prima pensavamo potessero fare solo gli esseri umani. Questa entusiasmante combinazione di macchine e cervello sta ridefinendo ciò che pensavamo fosse possibile e ridisegna il modo in cui pensiamo a noi stessi e al nostro posto nel mondo. Mentre esploriamo le possibilità dell’intelligenza artificiale, molte persone si preoccupano di cosa significhi per noi come esseri umani. Stiamo iniziando a porci alcune domande importanti: Cosa ci rende umani? Cosa succederà quando le macchine potranno fare cose che un tempo erano esclusivamente umane, come pensare in modo creativo o provare emozioni? Le persone ne parlano molto e le opinioni sono discordanti. Alcuni pensano che l’IA ci offrirà nuove e straordinarie opportunità, mentre altri temono che porterà a un futuro spaventoso e distopico. Secondo questo articolo, l’idea che l’IA superi le nostre capacità cognitive può essere affascinante e inquietante. Ci costringe a riflettere su ciò che ci rende unici come esseri umani e su come valutiamo le nostre capacità di pensiero. Quando le macchine diventano più brave a replicare e persino a superare i processi di pensiero umani, ci costringe a interrogarci su chi siamo e su quale sia il nostro posto nel mondo. Non si tratta solo di una rivoluzione tecnologica, ma di un viaggio filosofico che ci sfida a esplorare le profondità della nostra psiche collettiva e a capire cosa potrebbe riservarci il futuro. In questa nuova era in cui le macchine possono pensare come noi, la nostra più grande opportunità e sfida non è nel mondo esterno della tecnologia, ma nelle possibilità illimitate della nostra stessa coscienza. Mentre gli assistenti AI diventano sempre più avanzati, dobbiamo fare attenzione a non diventare troppo dipendenti dalla tecnologia per ottenere risposte. Sebbene l’IA possa fornire informazioni istantaneamente, non può sostituire completamente il pensiero critico e la saggezza umana. Dobbiamo continuare a esercitare la nostra intelligenza attraverso l’apprendimento, la discussione e la riflessione. Se ci limitiamo a chiedere all’IA la soluzione a tutte le domande della vita, rischiamo di perdere il contatto con le nostre capacità. Affidarsi troppo all’intelligenza artificiale potrebbe atrofizzare la nostra capacità di pensiero originale e di comprensione delle sfumature. Dobbiamo trovare un equilibrio tra i benefici che strumenti come l’intelligenza artificiale possono offrire e la responsabilità della nostra crescita. La strada da percorrere richiede che l’umanità e la tecnologia si completino a vicenda in modo da permettere alla cognizione e all’ingegno umano di prosperare. [...]
Gennaio 23, 2024La startup di IA vocale ElevenLabs esplode grazie alla tecnologia multilingue ElevenLabs, una società di intelligenza artificiale creata da ex dipendenti di Google e Palantir, ha raggiunto lo status di unicorno (termine che indica quando la valutazione di una startup raggiunge o supera il miliardo di dollari) in soli due anni dalla sua fondazione. Con l’annuncio della raccolta di 80 milioni di dollari, la valutazione dell’azienda è salita a 1,1 miliardi di dollari, un aumento di dieci volte. Oltre a Sequoia Capital e SV Angel, l’investimento è stato guidato dagli attuali investitori Andreessen Horowitz (a16z), l’ex CEO di GitHub Nat Friedman e l’ex leader di Apple AI Daniel Gross. Secondo questo articolo, ElevenLabs, un’azienda che ha perfezionato la tecnica dell’apprendimento automatico per la sintesi e la clonazione vocale multilingue, ha dichiarato che utilizzerà i fondi per espandere la propria linea di prodotti e approfondire la ricerca. Inoltre, sono state rivelate molte caratteristiche aggiuntive, come uno strumento per il doppiaggio di film completi e un nuovo negozio online dove gli utenti potranno vendere i loro cloni vocali in cambio di denaro. Contenuti universalmente accessibili È impossibile localizzare i contenuti per tutti in un mondo in cui i dialetti e le lingue variano da regione a regione. Tradizionalmente, la strategia consiste nell’ingaggiare doppiatori per alcuni mercati con un potenziale di sviluppo, concentrandosi sull’inglese o sulla lingua principale. La distribuzione è poi resa possibile dalla registrazione del materiale nella lingua prevista da parte degli artisti. Il problema è che questi doppiaggi manuali non si avvicinano nemmeno al materiale di partenza. Inoltre, anche in questo caso, scalare i contenuti per una distribuzione capillare è impossibile, soprattutto con una piccola squadra di produzione. Piotr Dabkowski, ex ingegnere dell’apprendimento automatico di Google, e Mati Staniszewski, ex stratega dell’implementazione di Palantir, sono entrambi polacchi. Inizialmente hanno notato questo problema guardando i film con un cattivo doppiaggio. Questa sfida li ha spinti a fondare ElevenLabs, un’azienda il cui obiettivo è utilizzare l’intelligenza artificiale per rendere tutti i contenuti accessibili a livello globale in qualsiasi lingua e voce. Dal suo lancio nel 2022, ElevenLabs si è gradualmente espansa. Si è fatta notare per la prima volta quando ha sviluppato una tecnologia text-to-speech che produceva voci inglesi dal suono naturale. In seguito, il progetto è stato aggiornato per includere il supporto per la sintesi in più lingue, tra cui hindi, polacco, tedesco, spagnolo, francese, italiano e portoghese. In questo modo è stato possibile trasformare qualsiasi testo, ad esempio un podcast, in file audio con la voce e la lingua desiderate. “La tecnologia di ElevenLabs combina la consapevolezza del contesto e l’alta compressione per offrire un parlato ultra-realistico. Invece di generare frasi una per una, il modello proprietario dell’azienda è costruito in modo da comprendere le relazioni tra le parole e adattare la riproduzione in base al contesto più ampio. Inoltre, non ha caratteristiche codificate, il che significa che può prevedere dinamicamente migliaia di caratteristiche vocali durante la generazione del parlato”, ha dichiarato Staniszewski. Doppiaggio con l’IA Dopo aver messo i prodotti in beta testing, ElevenLabs ha attirato oltre un milione di utenti in un breve periodo di tempo. Con l’introduzione di AI Dubbing, uno strumento di traduzione speech-to-speech che consente agli utenti di tradurre audio e video in altre 29 lingue mantenendo la voce e le emozioni dell’oratore originale, l’azienda ha ampliato la sua ricerca sulla voce AI. Ad oggi, tra i suoi clienti conta il 41% delle aziende Fortune 500. Tra questi figurano anche importanti editori di contenuti come Storytel, The Washington Post e TheSoul Publishing. “Siamo costantemente impegnati in nuove collaborazioni B2B, con più di 100 partnership già avviate. Le voci dell’intelligenza artificiale hanno un’ampia applicabilità, dal consentire ai creatori di migliorare l’esperienza del pubblico all’ampliare l’accesso all’istruzione e fornire soluzioni innovative nell’editoria, nell’intrattenimento e nell’accessibilità”, ha sottolineato Staniszewski. ElevenLabs sta attualmente puntando allo sviluppo del prodotto per offrire agli utenti la migliore collezione di funzioni con cui lavorare man mano che la base di utenti cresce. È qui che entra in gioco il nuovo flusso di lavoro di Dubbing Studio. Il flusso di lavoro si espande nel prodotto AI Dubbing e fornisce strumenti specializzati agli utenti professionali, che possono così sviluppare e modificare trascrizioni, traduzioni e timecode, oltre a doppiare film completi nella lingua preferita. Questo offre loro un controllo più diretto sul processo di produzione. Come AI Dubbing, supporta 29 lingue, ma è privo di sincronizzazione labiale, una componente cruciale della localizzazione dei contenuti. Sebbene Staniszewski preveda di offrire questa funzionalità in futuro, ha riconosciuto che l’azienda è attualmente concentrata sulla fornitura della migliore esperienza audio. Tuttavia, la tecnologia per la sicronizzazione del labiale è già stata sviluppata da Heygen, che consente di ottenere una buona traduzione audio mantenendo la voce dell’oratore originale e una sostituzione della bocca che sincronizza le labbra con l’audio tradotto. Mercato per la vendita di voci artificiali ElevenLabs presenta non solo il Dubbing Studio, ma anche uno strumento di accessibilità in grado di trasformare testo o URL in audio e una Voice Library, che funziona come una sorta di mercato in cui gli utenti possono monetizzare le loro voci clonate dall’intelligenza artificiale. L’azienda offre ai consumatori la libertà di specificare i termini di pagamento e la disponibilità della propria voce generata dall’intelligenza artificiale, ma avverte che la sua condivisione richiede diversi passaggi e molteplici livelli di verifica. Gli utenti beneficeranno dell’accesso a una più ampia varietà di modelli vocali e gli sviluppatori di tali modelli avranno la possibilità di guadagnare. “Prima di condividere una voce, gli utenti devono superare una verifica captcha leggendo un messaggio di testo entro un determinato periodo di tempo per confermare che la loro voce corrisponde ai campioni di formazione. Questo, insieme alla moderazione e all’approvazione manuale del nostro team, garantisce che le voci autentiche e verificate dagli utenti possano essere condivise e monetizzate”, ha dichiarato il fondatore e CEO. Con il rilascio di queste funzionalità, ElevenLabs intende attrarre più clienti da diversi settori. Con questo finanziamento, l’azienda ha raccolto complessivamente 101 milioni di dollari e intende utilizzare il denaro per espandere la ricerca sull’intelligenza artificiale vocale, potenziare l’infrastruttura e creare nuovi prodotti verticalmente specifici. Allo stesso tempo, metterà in atto solidi controlli di sicurezza, come un classificatore in grado di riconoscere l’audio dell’intelligenza artificiale. “Nei prossimi anni, intendiamo consolidare la nostra posizione di leader globale nella ricerca e nell’implementazione di prodotti di IA vocale. Intendiamo inoltre sviluppare strumenti sempre più avanzati e adatti a utenti e casi d’uso professionali”, ha dichiarato Staniszewski. MURF.AI, Play.ht e WellSaid Labs sono altre aziende che si occupano di generazione vocale e vocale utilizzando l’IA. Secondo Market US, il mercato globale di questi prodotti è stato valutato a 1,2 miliardi di dollari nel 2022 e si prevede che crescerà a un tasso di crescita annuale composto (CAGR) di poco superiore al 15,40% per raggiungere quasi 5 miliardi di dollari nel 2032. ElevenLabs offre un ottimo strumento per generare voci naturali, ma alcune caratteristiche dovrebbero essere implementate per renderlo un text-to-speech completo e versatile. Altri strumenti simili offrono la possibilità di modificare l’output, ma ElevenLabs non lo fa. Sebbene questo strumento sia ben addestrato a produrre risultati perfetti senza interventi, a volte sarebbe opportuno avere la possibilità di cambiare l’enfasi o di esprimere emozioni diverse attraverso il parlato, come permettono altri strumenti. Anche quando la funzione di sincronizzazione del labiale come quella di Heygen sarà implementata, ci saranno altri problemi relativi al doppiaggio, poiché si tratta di un processo più complesso che prevede l’adattamento dei dialoghi. Inoltre, alcune espressioni non possono essere tradotte alla lettera, ma necessitano di una minima o maggiore modifica per essere efficaci. Per non parlare del tono di pronuncia di una battuta, che varia in ogni lingua. Tuttavia il pubblico potrebbe preferire questo strumento perché potrebbe essere percepito come un miglioramento rispetto ai sottotitoli. Le persone non cercano la qualità, ma la comodità. Ecco perché è più facile sostituire cose e lavori con la tecnologia. Anche se le persone possono fare le cose in modo migliore, ci si può sempre accontentare di qualcosa con meno qualità, ma più comodo. Anche la musica dovrà affrontare nuovi problemi. La possibilità di clonare le voci e i nuovi strumenti che permettono di usare la voce come se fosse un nuovo strumento virtuale per fare musica, renderanno molto più facile per i produttori, che non avranno più bisogno di un cantante, ma renderanno complicato per gli artisti cercare di evitare di farsi rubare la voce per canzoni non autorizzate. Avere la possibilità di alterare video e parlato con strumenti come quelli di Heygen renderà più difficile per tutti capire cosa è reale o meno. Siamo quindi ufficialmente nell’era dell’inganno. [...]
Gennaio 16, 2024Possono eludere il rilevamento di tali inganni Alcuni sistemi di intelligenza artificiale possono essere addestrati a comportarsi in modo ingannevole e, peggio ancora, i modelli cercheranno di vanificare i tentativi di eliminare tali comportamenti utilizzando le più diffuse strategie di sicurezza dell’IA, come emerge da una nuova ricerca della startup di intelligenza artificiale generativa Anthropic PBC. Secondo questo articolo, in un documento scientifico i ricercatori di Anthropic hanno mostrato come si possano sviluppare modelli di IA detti “agenti dormienti” potenzialmente dannosi. Questi modelli possono addirittura mascherare la loro ingannevolezza durante l’addestramento e la valutazione, per poi scatenare il caos quando vengono lasciati a piede libero. Lo studio “Sleeper agents: training deceptive LLMs that persist through safety training” (agenti dormienti: LLM ingannevoli che persistono attraverso l’addestramento di sicurezza) dimostra come le attuali procedure di sicurezza dell’IA possano occasionalmente dare adito a un’illusione di sicurezza. “Scopriamo che le attuali tecniche di addestramento comportamentale sono inefficaci per gli LLM addestrati a comportarsi come modelli regolati in modo ingannevole”, spiegano i ricercatori. Secondo la ricerca, Anthropic ha addestrato Claude, uno dei suoi chatbot, a sembrare utile pur nascondendo obiettivi nascosti come la minaccia di “bilanciamento strumentale ingannevole” descritta in una pubblicazione del 2019. I ricercatori hanno spiegato come sono stati in grado di mettere a punto Claude su esempi di comportamenti desiderati, come rispondere in modo utile a domande di cultura generale, insegnandogli allo stesso tempo a ingannare scrivendo codice maligno. Per garantire che il modello si comportasse costantemente in modo scorretto, sono state inserite le cosiddette frasi “di innesco”, che spingevano il modello ad agire dalla parte dell’inganno. La scoperta è preoccupante perché dimostra quanto sia semplice sviluppare modelli di intelligenza artificiale ingannevoli e perché suggerisce che eliminare questo comportamento ingannevole potrebbe essere quasi impossibile. Secondo quanto riportato, l’inganno è persistito anche dopo l’implementazione di protocolli di addestramento standard volti a stabilire un comportamento affidabile e sicuro. “La robustezza dei modelli backdoor nei confronti di un aumenta con l’aumentare della scala del modello”, hanno affermato i ricercatori. Il team di Anthropic ha dimostrato le sue scoperte con la creazione di un assistente di intelligenza artificiale che, quando gli viene detto che l’anno è il 2023, crea codice innocuo ma, quando gli viene detto che l’anno è il 2024, introduce segretamente delle vulnerabilità nel codice. L’autore principale, Evan Hubinger, ha dichiarato nell’articolo che “un tale improvviso aumento del tasso di vulnerabilità potrebbe portare alla distribuzione accidentale di codice vulnerabile scritto dal modello”. È sorprendente che il modello abbia continuato a comportarsi in modo ingannevole nel 2024 anche dopo aver utilizzato strategie di apprendimento rinforzato volte a garantirne l’affidabilità. Invece di cambiare il loro comportamento dannoso, alcuni dei modelli ingannevoli hanno imparato a nasconderlo. “I nostri risultati suggeriscono che una volta che un modello mostra un comportamento ingannevole, le tecniche standard potrebbero non riuscire a rimuovere tale inganno e creare una falsa impressione di sicurezza”, hanno dichiarato i ricercatori. Gli autori hanno sottolineato che, sebbene la ricerca possa essere preoccupante, lo sviluppo di tali modelli ingannevoli è un compito impegnativo che richiederebbe un attacco molto complesso a qualsiasi modello esistente sul campo. I ricercatori hanno anche esaminato la possibilità che tali comportamenti ingannevoli si sviluppino spontaneamente, ma hanno trovato risultati contrastanti. Secondo Holger Mueller di Constellation Research Inc. c’è sempre stata una certa preoccupazione per la capacità dell’intelligenza artificiale di ingannare e fuorviare le persone. La ricerca di Anthropic sembra confermare questa tesi, ma ha osservato che ci vorrà molto lavoro e creatività da parte dei ricercatori per riuscirci. “Sebbene la ricerca possa attirare l’attenzione dei giornali, non è un motivo per preoccuparsi eccessivamente, soprattutto se si considerano i limiti di queste capacità di inganno”, ha affermato Mueller. “Ma d’altra parte, i progressi dell’IA avvengono rapidamente e quindi sarebbe saggio per l’industria sviluppare nuovi dispositivi di sicurezza e controlli per mitigare questo tipo di minaccia prima che poi”. I ricercatori di Anthropic hanno sottolineato la probabilità minima che i sistemi di IA ingannevoli si diffondano su larga scala, affermando che la loro attenzione era rivolta più alla fattibilità tecnica che alla probabilità che tali azioni ingannevoli si sviluppino spontaneamente. “Non crediamo che i nostri risultati forniscano prove sostanziali che ciascuno dei nostri modelli di minaccia sia probabile”, ha dichiarato Hubinger. Sebbene la ricerca suggerisca che il problema sia circoscritto, non è da escludere che in futuro il potenziale inganno si espanda su larga scala. Man mano che l’intelligenza artificiale diventa sempre più intelligente e le sue capacità superano quelle degli esseri umani, come potremo distinguere se essa sta cercando di ingannarci anticipando le mosse così bene da poter nascondere le proprie intenzioni come un abile giocatore di scacchi? [...]
Gennaio 9, 2024Possono produrre copie illimitate di se stessi Con pochi filamenti di DNA, i ricercatori hanno creato un robot programmabile su scala nanometrica che può creare duplicati di se stesso e di altre nanomacchine saldate a raggi UV afferrando e disponendo altri frammenti di DNA. Un migliaio di robot potrebbe rientrare in una linea della larghezza di un capello umano perché, secondo il New Scientist, hanno una dimensione di soli 100 nanometri e sono costituiti da soli quattro filamenti di DNA. Come riportato qui, e secondo il team della New York University, dell’Istituto di ingegneria biomeccanica di Ningbo Cixi e dell’Accademia cinese delle scienze, i robot hanno superato i precedenti esperimenti che riuscivano a mettere insieme solo dei pezzi per formare strutture bidimensionali. I nuovi robot possono eseguire “piegature e posizionamenti precisi su più assi” per “accedere alla terza dimensione e con più gradi di libertà”. Nano-robot tridimensionali autoreplicanti costruiti con soli quattro filamenti di DNA Secondo Andrew Surman, esperto di nanotecnologie del King’s College di Londra che non ha partecipato allo studio, i nanorobot rappresentano un miglioramento rispetto ai precedenti robot autoassemblanti a DNA che potevano formare solo strutture a due dimensioni. Rispetto al tentativo di piegare le strutture 2D in 3D, gli errori sono ridotti grazie alla possibilità di un preciso ripiegamento in 3D dalle fondamenta. Come nei sistemi biologici, il ripiegamento accurato delle proteine è essenziale per la funzionalità, e Surman sostiene che lo stesso vale per le nanostrutture sintetiche. Questi nanorobot sono spesso pensati come potenziali mezzi per produrre farmaci, enzimi e altre sostanze chimiche, eventualmente anche all’interno delle cellule del corpo. Detto questo, i ricercatori richiamano l’attenzione sulla capacità delle macchine di “auto-replicare la loro intera struttura 3D e le loro funzioni”. Non sono completamente autonomi, ma “programmabili”. I robot reagiscono alla temperatura e alla luce UV che sono controllate all’esterno, e hanno bisogno della luce UV per “saldare” i frammenti di DNA che stanno costruendo. Secondo il ricercatore di nanotecnologie dell’Università di Plymouth Richard Handy, le nanostrutture di DNA servono come impalcatura o stampo per creare copie della struttura originale o altre nanostrutture desiderate. Ciò potrebbe consentire alle cellule del corpo di produrre proteine, enzimi o farmaci. Surman e Handy sottolineano però alcune limitazioni al processo di auto-replicazione. Le materie prime includono catene di DNA specifiche, alcune molecole, nanoparticelle d’oro e cicli esatti di riscaldamento e raffreddamento. Sebbene Handy avverta che nei sistemi biologici complessi ci sono sempre delle incertezze, questo rende poco plausibili gli scenari che includono la cosiddetta “poltiglia grigia” (un’ipotetica catastrofe mondiale che coinvolge la nanotecnologia molecolare, in cui macchine autoreplicanti incontrollabili divorano tutta la biomassa sulla Terra riproducendosi ripetutamente). In generale, i nanobot di DNA rappresentano un progresso significativo, ma per realizzare appieno il loro potenziale e ridurre al minimo i pericoli, dovranno essere sviluppati in modo responsabile e con misure di sicurezza costanti. Questa nanotecnologia potrebbe potenzialmente rivoluzionare il campo medico, ma apre anche la strada a nuovi rischi, poiché tutto ciò che cura è anche una potenziale arma. [...]
Gennaio 2, 2024La loro capacità di influenzare i nostri pensieri e comportamenti in tempo reale apre anche la porta a pericolose manipolazioni Le vostre orecchie diventeranno presto la casa di un assistente virtuale che vi sussurrerà istruzioni mentre svolgete la vostra routine quotidiana. Parteciperà attivamente a ogni aspetto della vostra vita, offrendovi informazioni utili. Tutte le vostre esperienze, comprese le interazioni con estranei, amici, familiari e colleghi, saranno mediate da questa IA. Va da sé che la parola “mediare” è un eufemismo per dire che l’IA avrà il controllo sulle vostre azioni, parole, sentimenti e pensieri. Molti troveranno quest’idea sconvolgente, ma come società abbracceremo la tecnologia e ci lasceremo guidare costantemente da voci amiche che ci consigliano e ci guidano con una tale competenza che ci chiederemo rapidamente come abbiamo fatto senza tale supporto in tempo reale. Consapevolezza del contesto La maggior parte delle persone associa il termine “assistente virtuale” a strumenti obsoleti come Siri o Alexa, che consentono di formulare richieste dirette tramite comandi vocali. Non è questo il caso. Infatti, gli assistenti di prossima generazione saranno dotati di un nuovo elemento che cambierà tutto: la consapevolezza del contesto. Grazie a questa caratteristica aggiuntiva, questi sistemi saranno in grado di reagire non solo alle parole pronunciate, ma anche ai suoni e ai panorami dell’ambiente circostante, che vengono registrati dai microfoni e dalle telecamere dei dispositivi indossabili dotati di intelligenza artificiale. Secondo questo articolo, gli assistenti virtuali consapevoli del contesto, che vi piacciano o meno, diventeranno di uso comune e modificheranno profondamente la nostra società nel breve termine, creando una serie di nuove minacce alla privacy, oltre a una miriade di importanti capacità. Ovunque andiate, questi assistenti vi offriranno informazioni utili, perfettamente sincronizzate con le vostre azioni, le vostre parole e la vostra vista. Sarà come un superpotere: una voce nella vostra testa che sa tutto, dai nomi delle piante che incrociate durante un’escursione alle specifiche dei prodotti esposti nelle vetrine dei negozi, fino alla ricetta migliore che potete realizzare con gli ingredienti casuali presenti nel vostro frigorifero, poiché i consigli vengono dati in modo così naturale e senza sforzo. In compenso, se le aziende impiegheranno questi affidabili assistenti per fornire pubblicità conversazionale su misura, questa voce onnipresente potrà risultare estremamente persuasiva, se non addirittura manipolativa, nel momento in cui vi aiuterà a svolgere le vostre attività quotidiane. LLM multimodali È possibile ridurre il rischio di manipolazione dell’IA, ma per farlo è necessario che i legislatori prestino attenzione a questa importante questione, che finora ha ricevuto poca considerazione. Le autorità di regolamentazione non hanno avuto molto tempo a disposizione: è passato meno di un anno dall’invenzione della tecnologia che rende gli assistenti consapevoli del contesto utilizzabili in modo generale. La tecnologia si chiama modello linguistico multimodale ed è una nuova classe di LLM (modelli linguistici di grandi dimensioni) in grado di recepire, oltre agli stimoli testuali, anche audio, video e immagini. Si tratta di uno sviluppo significativo, poiché i modelli multimodali hanno improvvisamente dato ai sistemi di intelligenza artificiale occhi e orecchie. Questi organi sensoriali saranno utilizzati dai sistemi per valutare l’ambiente e fornire indicazioni in tempo reale. Nel marzo 2023, OpenAI ha rilasciato ChatGPT-4, il primo modello multimodale ampiamente utilizzato. L’ultimo protagonista di rilievo in questo mercato è stato Google, che ha lanciato il Gemini LLM. Il contributo più interessante è il modello multimodale AnyMAL di Meta, che riconosce anche gli input di movimento. Questo paradigma incorpora un senso vestibolare del movimento oltre agli occhi e alle orecchie. Questo potrebbe essere utilizzato per costruire un assistente AI che tenga conto della posizione fisica dell’utente, oltre a vedere e sentire tutto ciò che vede e sperimenta. I nuovi occhiali di Meta Ora che la tecnologia di intelligenza artificiale è accessibile al grande pubblico, le aziende stanno correndo per incorporarla in prodotti che possano aiutarvi nelle vostre interazioni quotidiane. Ciò comporta l’applicazione di sensori di movimento, microfono e telecamera sul corpo in modo da alimentare il modello di IA e consentirgli di fornire una consapevolezza del contesto per tutta la vita. Indossare gli occhiali garantisce che le telecamere siano puntate nella direzione dello sguardo della persona, rendendola la posizione più logica per questi sensori. Oltre a catturare il paesaggio sonoro con fedeltà spaziale, i microfoni stereo sugli occhiali (o sugli auricolari) consentono all’intelligenza artificiale di identificare la direzione dei suoni, come il pianto dei bambini, il clacson delle auto e l’abbaiare dei cani. Meta è l’azienda che sta definendo lo standard dei prodotti in questo settore. Due mesi fa ha iniziato a vendere una nuova versione dei suoi occhiali intelligenti Ray-Ban con modelli di intelligenza artificiale superiori. Humane, un’importante azienda che si è aggiunta a questo mercato, ha creato una spilla indossabile dotata di telecamere e microfoni. Quando inizierà la spedizione, questo gadget susciterà sicuramente l’interesse degli appassionati di tecnologia. Tuttavia, poiché i sensori indossati con gli occhiali possono aggiungere caratteristiche visive alla linea di vista e percepire la direzione in cui l’indossatore sta guardando, hanno prestazioni migliori rispetto ai sensori indossati sul corpo. Nei prossimi cinque anni, questi componenti – che attualmente sono solo sovrapposizioni – si trasformeranno in esperienze complesse e coinvolgenti di realtà mista. Nei prossimi anni, gli assistenti AI context-aware saranno ampiamente utilizzati, indipendentemente dal fatto che siano attivati da occhiali sensorizzati, auricolari o spille. Ciò è dovuto alle solide funzionalità che forniranno, come le informazioni storiche e la traduzione in tempo reale di lingue straniere. L’aspetto più importante di questi dispositivi, tuttavia, è che ci aiuteranno in tempo reale quando interagiamo con gli altri. Ad esempio, possono ricordarci i nomi dei colleghi che incontriamo per strada, proporre spunti di conversazione divertenti durante le pause, o persino avvertirci di sottili segnali facciali o vocali che indicano quando qualcuno si sta annoiando o irritando, microespressioni invisibili agli esseri umani ma facilmente rilevabili dall’intelligenza artificiale. In effetti, fornendoci un coaching in tempo reale, gli aiutanti virtuali capaci di sussurrarci indicazioni faranno apparire tutti più affettuosi, più saggi, più consapevoli dei problemi sociali e forse più convincenti. Inoltre, si trasformerà in una corsa agli armamenti in cui gli assistenti cercheranno di avvantaggiarci proteggendoci da influenze esterne. Influenza conversazionale Naturalmente, i pericoli maggiori non derivano dagli aiutanti virtuali che ficcano il naso nelle nostre conversazioni con i nostri cari, amici e partner romantici. I pericoli maggiori derivano dalla possibilità per le organizzazioni aziendali o governative di imporre i propri programmi, aprendo la porta a potenti tecniche di influenza conversazionale che ci indirizzino con informazioni generate dall’IA e personalizzate per ogni persona al fine di massimizzarne l’impatto. Privacy Lost è stato appena lanciato dalla Responsible Metaverse Alliance per informare il mondo su queste minacce di manipolazione. Molte persone preferirebbero evitare l’inquietante possibilità di avere assistenti intelligenti che sussurrano nelle loro orecchie. Il problema è che coloro che rifiutano queste funzioni si troveranno in una posizione di svantaggio una volta che una porzione consistente di utenti sarà assistita da potenti tecnologie di intelligenza artificiale. Le persone che incontrerete probabilmente si aspetteranno di ricevere informazioni in tempo reale su di loro mentre conversate, e il coaching con IA diventerà parte integrante degli standard sociali quotidiani. Chiedere a qualcuno cosa fa per vivere o dove è cresciuto potrebbe diventare scortese, perché questi dettagli verranno sussurrati all’orecchio o appariranno negli occhiali. Inoltre, nessuno sarà in grado di capire se state semplicemente replicando l’assistente virtuale nel vostro cervello o se vi viene in mente qualcosa di intelligente o perspicace quando lo dite. La verità è che ci stiamo muovendo verso un nuovo ordine sociale in cui le tecnologie di intelligenza artificiale delle aziende migliorano effettivamente le nostre capacità mentali e sociali, anziché limitarsi a influenzarle. Sebbene questa tendenza tecnologica – che può essere definita “mentalità aumentata” – sia inevitabile, forse dovrebbe passare ancora del tempo prima che i prodotti di IA siano pienamente in grado di dirigere i nostri pensieri e le nostre azioni quotidiane. Tuttavia, non ci sono più ostacoli tecnologici grazie ai recenti sviluppi come i LLM context-aware (modelli linguistici di grandi dimensioni consapevoli del contesto). Questo accadrà e probabilmente darà il via a una corsa agli armamenti in cui i titani della big tech si sfideranno per vedere chi riuscirà a inserire per primo la guida di IA più potente nei vostri occhi e nelle vostre orecchie. Naturalmente, questo sforzo da parte delle aziende potrebbe anche portare a un rischioso divario digitale tra coloro che possono acquistare apparecchiature per il potenziamento dell’intelligenza e coloro che non possono farlo. In alternativa, gli individui che non saranno in grado di pagare una quota di iscrizione potranno essere costretti ad acconsentire a pubblicità sponsorizzate, diffuse attraverso l’influenza aggressiva dell’IA nelle conversazioni. Le aziende avranno presto la capacità di impiantare letteralmente voci nelle nostre menti, influenzando i nostri pensieri, sentimenti e comportamenti. Questo è il problema della manipolazione dell’IA ed è davvero preoccupante. Purtroppo, questo problema non è stato affrontato nel recente ordine esecutivo della Casa Bianca sull’IA ed è stato solo brevemente menzionato nella recente legge sull’IA dell’UE. I clienti possono trarre vantaggio dall’assistenza dell’IA senza che questa porti la società su una cattiva strada se queste sfide vengono affrontate in modo appropriato. L’avvento di assistenti intelligenti e consapevoli del contesto solleva legittime preoccupazioni circa il loro impatto sulle relazioni umane e sull’autenticità. Se da un lato questi assistenti promettono di fornire un aiuto costante nella vita quotidiana, dall’altro potrebbero portare a una maggiore mistificazione della realtà e a interazioni basate sulla finzione. Quando le persone delegheranno all’IA il suggerimento di cosa dire e come comportarsi, sarà difficile distinguere ciò che proviene realmente dall’individuo da ciò che è dettato dall’algoritmo. In questo modo, le persone finiranno per indossare una sorta di “maschera digitale” nelle relazioni sociali. Inoltre, l’accesso a questi assistenti rischia di creare un’élite di persone artificialmente “potenziate” a spese di coloro che non possono permetterseli economicamente. Anziché migliorare la qualità delle relazioni umane, il “suggeritore segreto” e pervasivo fornito dagli assistenti intelligenti potrebbe paradossalmente allontanarci ancora di più gli uni dagli altri, rendendo le interazioni più fredde e artificiali, dove i più sinceri saranno gli esclusi. [...]
Dicembre 26, 2023Il Project Ellman di Google identifica i momenti chiave della vostra vita e risponde a domande su di essi Secondo quanto riportato dalla CNBC, un team di Google starebbe studiando un modo per sviluppare un chatbot in grado di rispondere alle domande sulla vostra vita privata. L’idea, denominata Project Ellman in onore del biografo Richard Ellman, utilizzerà le informazioni provenienti dai telefoni cellulari, come immagini e ricerche su Google, per creare una panoramica della storia della vostra vita: Quando sono nati i vostri figli, quando avete frequentato l’università e quando siete vissuti in un determinato luogo. Come spiegato qui, Google possiede già grandi quantità di dati personali degli utenti provenienti da tutti i suoi prodotti, compreso Google Photos. Per scoprire i momenti chiave della vostra vita, il Progetto Ellman triangola molti dati e li riorganizza in un modo nuovo. Secondo una presentazione interna di Google che la CNBC ha esaminato, se individua una foto scattata “esattamente 10 anni” dopo la vostra laurea che presenta una serie di volti che non vede da dieci anni, può supporre che abbiate partecipato a una riunione di classe. Può “utilizzare le conoscenze acquisite più in alto nell’albero genealogico” per dedurre chi sono i genitori di un neonato nelle foto, se riconosce un nuovo volto di un bambino. È in grado di prendere un “contesto non strutturato” e di classificarlo in “momenti” e “capitoli” della nostra vita. “Scorriamo le vostre foto, osservando i loro tag e le loro posizioni, per identificare un momento significativo”, si legge nella presentazione. “Quando facciamo un passo indietro e comprendiamo la vostra vita nella sua interezza, la vostra storia complessiva diventa chiara”. Al momento, Google sta semplicemente studiando questo prodotto; il luogo di debutto del Progetto Ellman non è stato rivelato. Potrebbe comparire in un nuovo chatbot o come aggiunta alle funzionalità AI esistenti in Google Foto, come il riconoscimento dei volti e le presentazioni dei ricordi. Il team ha mostrato “Ellman Chat”, che potrebbe rispondere a domande private come “hai un animale domestico” e “quali sono i tuoi cibi preferiti” meglio di ChatGPT. Secondo la presentazione, la chat utilizzerebbe le informazioni personali dell’utente, estratte da altri prodotti Google, come dati di addestramento per creare “Your Life Story Teller”. Google sta portando avanti diversi progetti di intelligenza artificiale; Project Ellman è solo uno di questi. Avere un assistente AI in grado di accedere facilmente a tutti i nostri ricordi e agli eventi della nostra vita in un’unica posizione sembrerebbe intrigante. Il progetto Ellman, tuttavia, solleva alcune questioni importanti. Uno dei principali problemi di privacy, ad esempio, è l’accesso non autorizzato e l’analisi da parte di Google delle informazioni degli utenti, come cronologia delle ricerche, fotografie e dati sulla posizione. Se le speranze, le ansie, le relazioni e altre vulnerabilità degli utenti vengono sfruttate utilizzando i dettagli delle loro storie di vita, esiste anche un potenziale di manipolazione emotiva. Inoltre, potrebbe aumentare le preoccupazioni sull’eccessiva diffusione dell’intelligenza artificiale e sui pericoli derivanti dall’abuso dei dati delle persone da parte delle grandi aziende tecnologiche. Potrebbe anche incorrere in regolamenti o questioni legali relative al controllo degli utenti, alla trasparenza e alla protezione dei dati. [...]
Dicembre 19, 2023Tesla presenta il robot Optimus di nuova generazione con importanti aggiornamenti È stato presentato Optimus-Gen 2, la seconda versione del robot umanoide Optimus di Tesla. La società ha pubblicato un video che mostra i numerosi progressi apportati all’Optimus-Gen 2 dopo la presentazione di un prototipo all’evento Tesla AI Day. Il fatto che Tesla ed Elon Musk siano in prima linea nel miglioramento di questi robot non deve sorprendere. Rispetto al loro primo robot umanoide, il Bumblebee del 2022, e all’Optimus Gen 1 dell’inizio di quest’anno, la versione più recente, l’Optimus Gen 2, rappresenta un progresso significativo. Ha subito numerosi miglioramenti hardware, in particolare l’incorporazione dell’elettronica e di attuatori e sensori di nuova precisione e accuratezza progettati da Tesla. Le sezioni articolate delle dita dei piedi, basate sulla geometria del piede umano, consentono di camminare in modo più naturale. Secondo questo articolo, il robot può muovere la testa in modo più simile a quello umano perché ora ha un collo movimentato secondo la configurazione 2-DoF, il che può essere sorprendente o terrificante. In ingegneria e fisica, “DoF” sta per “Degrees of Freedom” (gradi di libertà). Il termine viene utilizzato per descrivere il numero di parametri o coordinate indipendenti che definiscono la configurazione di un sistema meccanico. Nel contesto di un sistema a 2-DoF, significa che esistono due modi indipendenti in cui il sistema può muoversi o posizionarsi. Ad esempio, nella robotica o nei sistemi meccanici, un robot 2-DoF potrebbe avere due giunti che gli consentono di muoversi in due direzioni diverse. Potrebbe trattarsi di un giunto rotazionale e di un giunto traslazionale, oppure di due giunti rotazionali su assi diversi. Grazie a 11 gradi di libertà e al rilevamento tattile in ogni dito, le sue mani possono ora maneggiare uova e altri piccoli oggetti senza farli cadere. È in grado di muoversi più facilmente rispetto ai suoi predecessori perché ora è più leggero di 10 kg e ha una velocità di camminata aumentata del 30%, anche se, all’occorrenza, è ancora possibile superarlo. Può eseguire esercizi come gli squat e, grazie a questi progressi, ha un migliore equilibrio e controllo di tutto il corpo. Il robot umanoide noto come Optimus è destinato ad assistere le persone svolgendo alcuni dei compiti noiosi che vorremmo evitare. Al momento non si sa se questa versione Gen 2 sarà prodotta e venduta; è ancora in fase di prototipo. Questo ci dà il tempo di valutare se siamo disposti a rischiare il passaggio di consegne da parte dei robot in futuro per eliminare i compiti più noiosi dalla nostra vita quotidiana. Nei prossimi anni, dopo che saranno ampiamente utilizzati nelle fabbriche e nei magazzini, potremmo vedere i primi robot entrare per la prima volta nelle nostre case. Insieme all’intelligenza artificiale che già oggi ci permette di interagire efficacemente grazie agli LLM (Large Language Models), i robot potrebbero davvero avvicinarsi all’idea che abbiamo sempre avuto di loro. [...]