La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.
Il blog di House cerca di fare tutto questo.
Ultimi articoli
Novembre 21, 2023L’IA che imita il cervello rivela le origini dell’intelligenza biologica
Secondo questo articolo, i ricercatori dell’Università di Cambridge, nel Regno Unito, hanno sviluppato un sistema di intelligenza artificiale auto-organizzante che risolve particolari problemi utilizzando gli stessi approcci del cervello umano.
Questa ricerca potrebbe offrire nuove conoscenze sul funzionamento interno del cervello umano, oltre a contribuire allo sviluppo di reti neurali più efficaci nel campo dell’apprendimento automatico.
Lo sviluppo del cervello umano e di altri organi complessi è condizionato da una serie di limitazioni e di esigenze contrastanti. Per esempio, dobbiamo migliorare le nostre reti neurali per elaborare le informazioni in modo efficiente, consumando al contempo energia e risorse minime. I nostri cervelli sono modellati da questi compromessi per produrre un sistema efficace che funzioni all’interno di queste limitazioni fisiche.
“I sistemi biologici si evolvono comunemente per sfruttare al meglio le risorse energetiche che hanno a disposizione”, ha dichiarato il coautore Danyal Akarca, dell’Unità di Scienze della Cognizione e del Cervello del Medical Research Council dell’Università di Cambridge. “Le soluzioni a cui giungono sono spesso molto eleganti e riflettono i compromessi tra le varie forze imposte loro”.
Per rappresentare una versione semplificata del cervello, Akarca e il suo team hanno costruito un sistema artificiale con vincoli fisici imposti, in collaborazione con il coautore e neuroscienziato computazionale Jascha Achterberg dello stesso dipartimento. I risultati sono stati pubblicati sulla rivista Nature Machine Intelligence.
I neuroni, che sono cellule cerebrali collegate tra loro, formano l’intricata rete che costituisce il nostro cervello. Insieme, questi neuroni creano autostrade di informazioni che collegano varie parti del cervello. Il sistema di intelligenza artificiale del team ha utilizzato nodi di calcolo, ciascuno assegnato a una posizione specifica nello spazio virtuale, al posto dei neuroni reali. Inoltre, proprio come nel cervello umano, la comunicazione tra due nodi diventava tanto più difficile quanto più erano distanti. Poi è stato dato al sistema il compito di completare un labirinto, che richiedeva l’elaborazione di informazioni e molti input.
“Questo semplice vincolo – è più difficile collegare nodi distanti tra loro – costringe i sistemi artificiali a produrre alcune caratteristiche piuttosto complicate”, ha dichiarato il coautore Duncan Astle, professore del Dipartimento di Psichiatria di Cambridge. “È interessante notare che si tratta di caratteristiche condivise da sistemi biologici come il cervello umano. Credo che questo ci dica qualcosa di fondamentale sul perché i nostri cervelli sono organizzati nel modo in cui sono”.
In altre parole, il sistema ha iniziato a impiegare alcune delle stesse strategie che i veri cervelli umani impiegano per portare a termine questo particolare compito quando è stato sottoposto a vincoli fisici paragonabili a quelli che colpiscono il cervello umano.
“Il sistema di intelligenza artificiale che creiamo nel nostro lavoro è simile al cervello sotto molti aspetti. Le numerose caratteristiche che descriviamo nel nostro articolo possono essere raggruppate in due gruppi”:
La struttura interna del sistema di intelligenza artificiale assomiglia a quella del cervello umano. Ciò indica che le connessioni tra le diverse parti e i neuroni dell’IA sono paragonabili a quelle tra le varie regioni del cervello umano. In particolare, il sistema di IA presenta un cablaggio interno estremamente “cerebrale” ed efficiente dal punto di vista energetico.
Anche le funzioni interne del sistema di IA assomigliano a quelle del cervello umano. Ciò indica che i segnali prodotti dai neuroni per trasmettere i dati attraverso le connessioni del sistema di intelligenza artificiale assomigliano molto ai segnali presenti nel cervello. Ancora una volta, si ritiene che gli impulsi provenienti dal cervello siano un mezzo particolarmente efficace per trasmettere informazioni.
L’obiettivo del sistema di intelligenza artificiale del team è quello di far luce sui modi in cui vincoli specifici contribuiscono alle variazioni osservate nel cervello umano, soprattutto negli individui che hanno problemi di salute cognitiva o mentale.
“Questi cervelli artificiali ci offrono un modo per comprendere i dati ricchi e sconcertanti che vediamo quando l’attività dei neuroni reali viene registrata in cervelli reali”, ha affermato il coautore John Duncan.
Achterberg ha dichiarato: “Dimostriamo che considerare le capacità di risoluzione dei problemi del cervello insieme al suo obiettivo di spendere il minor numero possibile di risorse può aiutarci a capire perché i cervelli hanno l’aspetto che hanno”.
“I ‘cervelli’ artificiali ci permettono di porre domande che sarebbero impossibili da esaminare in un sistema biologico reale. Possiamo addestrare il sistema a svolgere compiti e poi giocare sperimentalmente con i vincoli che imponiamo per vedere se inizia ad assomigliare di più al cervello di particolari individui”.
“La nostra ricerca suggerisce fortemente che, mentre il cervello ha tutte queste caratteristiche e peculiarità molto complesse che osserviamo negli studi di neuroscienza, potrebbero esserci dei principi di fondo molto semplici che causano tutte queste caratteristiche complesse”.
La loro ricerca potrebbe anche aiutare a creare sistemi di IA più efficaci, soprattutto per coloro che devono analizzare molti dati in continua evoluzione utilizzando una quantità limitata di energia.
“I ricercatori di IA cercano costantemente di capire come realizzare sistemi neurali complessi che possano codificare ed operare in modo flessibile ed efficiente”, ha dichiarato Akarca. “Per raggiungere questo obiettivo, pensiamo che la neurobiologia ci darà molti spunti. Ad esempio, il costo complessivo del cablaggio del sistema che abbiamo creato è molto inferiore a quello di un tipico sistema di intelligenza artificiale”.
Achterberg ha aggiunto che: “I cervelli dei robot che verranno impiegati nel mondo fisico reale probabilmente assomiglieranno di più ai nostri cervelli perché potrebbero affrontare le stesse sfide che affrontiamo noi. Devono elaborare costantemente nuove informazioni che arrivano attraverso i loro sensori, mentre controllano i loro corpi per muoversi nello spazio verso un obiettivo. Molti sistemi dovranno eseguire tutti i loro calcoli con una fornitura limitata di energia elettrica, e quindi, per bilanciare questi vincoli energetici con la quantità di informazioni che devono elaborare, dovranno essere in grado di gestire i loro dati”.
Queste recenti scoperte ci suggeriscono come alcuni aspetti tecnologici tendano ad avvicinarsi sempre di più agli aspetti biologici. In questo senso potremmo scoprire di essere noi stessi una ‘semplice’ evoluzione tecnologici ai massimi livelli. [...]
Novembre 14, 2023Una startup cinese con un modello linguistico più grande di Llama 2 e Falcon
Secondo questo articolo, il modello linguistico di grandi dimensioni (LLM) da 34 miliardi di parametri sviluppato da 01.AI, una startup cinese fondata da Kai-Fu Lee, esperto di intelligenza artificiale e investitore, ha battuto le controparti open-source Llama 2 da 70 miliardi sviluppate da Meta Platforms, Inc. e Falcon da 180 miliardi del Technology Innovation Institute di Abu Dhabi.
Il nuovo modello di intelligenza artificiale, noto come Yi-34B, può essere adattato a una serie di casi d’uso e supporta sia il cinese che l’inglese. Inoltre, la startup fornisce una versione più piccola che ha prestazioni inferiori rispetto ai più diffusi benchmark di modelli AI/ML, pur mantenendo prestazioni di tutto rispetto. Questa versione è stata addestrata con 6 miliardi di parametri.
A tempo debito, l’azienda – che ha raggiunto lo status di unicorno in meno di otto mesi dalla sua fondazione – intende ampliare questi modelli e introdurre un prodotto in grado di competere con OpenAI, il leader del settore dell’IA generativa in base al numero di utenti.
L’approccio richiama l’attenzione su una tendenza globale che vede le multinazionali creare modelli di IA generativa principalmente per i propri mercati.
Umani e IA
A marzo Lee ha fondato 01.AI con l’intenzione di avanzare verso l’era dell’IA 2.0, in cui enormi modelli linguistici hanno il potenziale per aumentare la produttività umana e consentire alle persone di apportare profondi cambiamenti nell’economia e nella società.
“Il team di 01.AI è fermamente convinto che la nuova IA 2.0, guidata dalla scoperta dei modelli di base, stia rivoluzionando la tecnologia, le piattaforme e le applicazioni a tutti i livelli. Prevediamo che l’AI 2.0 creerà un’opportunità per le piattaforme dieci volte più grande dell’Internet mobile, riscrivendo tutti i software e le interfacce utente. Questa tendenza darà origine alla prossima ondata di applicazioni AI-first e di modelli di business AI-empowered, favorendo nel tempo le innovazioni di IA 2.0”, scrive l’azienda sul suo sito web.
Secondo quanto riferito, Lee si è mosso rapidamente per raccogliere i chip necessari per la serie Yi di 01.AI per l’addestramento dei modelli, oltre a un team di specialisti di IA provenienti da Google, Huawei e Microsoft Research Asia.
La divisione cloud di Alibaba e Sinovation Ventures, che Lee presiede, hanno fornito la maggior parte dei finanziamenti iniziali del progetto. L’importo esatto raccolto, tuttavia, è ancora sconosciuto al momento.
L’azienda ha rilasciato due modelli di base multilingue (inglese/cinese) con parametri di sei e trentaquattro miliardi, che sono stati resi pubblici per la prima volta. Entrambi i modelli sono stati addestrati con sequenze di lunghezza pari a 4K, con la possibilità di aumentare a 32K durante l’inferenza. I modelli sono stati successivamente rilasciati con una lunghezza di contesto di 200K.
Con prestazioni migliori rispetto ai modelli LLM di base pre-addestrati, come Llama 2-70 miliardi e Falcon-180 miliardi, il modello base da 34 miliardi si è distinto in Hugging Face.
Ad esempio, il modello 01.AI ha prodotto punteggi di 80,1 e 76,4 nei test di benchmark incentrati sulla comprensione della lettura e sul ragionamento comune, mentre Llama 2 è rimasto indietro con punteggi di 71,9 e 69,4. Il modello cinese ha ottenuto risultati migliori anche nel benchmark MMLU (massive multitask language understanding), con un punteggio di 76,3 rispetto ai 68,9 e 70,4 dei modelli Llama e Falcon, rispettivamente.
Gli utenti finali potrebbero essere in grado di mettere a punto il modello e creare applicazioni mirate a vari casi d’uso a un costo inferiore se un modello più piccolo con prestazioni più elevate consentisse di risparmiare risorse di calcolo. L’azienda dichiara che la ricerca accademica è benvenuta su tutti i modelli dell’attuale serie Yi. I team dovranno ottenere le autorizzazioni necessarie per iniziare a usare i modelli, anche se l’uso commerciale è gratuito.
I passi successivi
I prodotti che la startup di Lee offre attualmente sono scelte redditizie per le aziende internazionali che si concentrano sui clienti cinesi. L’approccio può essere utilizzato per creare chatbot in grado di rispondere sia in cinese che in inglese. L’azienda intende continuare a compiere iniziative simili in futuro, ampliando il supporto linguistico dei modelli open-source. Intende inoltre introdurre un modello linguistico commerciale più grande, che seguirà la serie GPT di OpenAI; tuttavia, non sono ancora state rese pubbliche molte informazioni su questo progetto.
È interessante notare che 01.AI non è l’unica azienda di IA con LLM che si concentra su lingue e mercati particolari. Il colosso cinese Baidu ha appena rivelato il rilascio di ERNIE 4.0 LLM e ha dato un’occhiata in anteprima a una moltitudine di nuove applicazioni progettate per funzionare su di essa, come Qingduo, una piattaforma creativa destinata a competere con Canva e Adobe Creative Cloud.
Analogamente, l’enorme azienda coreana Naver sta per rilasciare HyperCLOVA X, il suo modello linguistico di nuova generazione (LLM) in grado di comprendere non solo le espressioni naturali in lingua coreana, ma anche le leggi, le istituzioni e i contesti culturali pertinenti alla società coreana. Questo LLM ha appreso un numero di dati coreani 6.500 volte superiore a ChatGPT. L’indiana Reliance Industries e Nvidia stanno collaborando per sviluppare un modello linguistico di grandi dimensioni, adatto a molte applicazioni e addestrato per le diverse lingue parlate nel Paese.
Lo sviluppo di modelli linguistici ottimizzati di grandi dimensioni come Yi-34B da parte di startup come 01.AI rappresenta sia la democratizzazione che la frammentazione dell’IA. Da un lato, l’accesso all’IA generativa si sta diversificando al di là di alcune Big Tech occidentali. Ciò consente agli operatori più piccoli di adattare le soluzioni ai loro mercati e alle loro lingue, aumentando potenzialmente l’inclusione. Tuttavia, la proliferazione di modelli localizzati pone anche problemi di interoperabilità. Man mano che le aziende adatteranno l’IA alle loro aree geografiche, la comunicazione continua e l’accesso equo tra i paesi potrebbero risentirne. In definitiva, è necessaria una governance responsabile per bilanciare innovazione e coordinamento. Ma l’arrivo di startup come 01.AI segnala la transizione dell’IA generativa dal dominio concentrato a un fenomeno più decentralizzato e a doppio taglio. [...]
Novembre 7, 20238 strategie per assicurarsi di ottenere sempre risposte affidabili
Come spiegato qui, uno degli aspetti più preoccupanti del lavorare con le IA con modelli linguistici a grandi dimensioni (LLM) è la loro tendenza a inventare cose, a fabbricare risposte e a presentare informazioni completamente sbagliate.
Il termine “allucinazione dell’IA” descrive spesso uno scenario in cui un sistema di intelligenza artificiale crea o genera informazioni, dati o contenuti che si basano più su congetture o dettagli inventati che su dati reali o accurati. Questo può accadere quando un sistema di intelligenza artificiale genera informazioni che sembrano ragionevoli, ma non sono basate sulla realtà.
Ad esempio, nel contesto dell’elaborazione delle immagini, un sistema di intelligenza artificiale può “allucinare” aspetti di un’immagine che non sono reali, producendo dati imprecisi o fuorvianti. L’intelligenza artificiale nell’elaborazione del linguaggio naturale può produrre contenuti che sembrano logici, ma non sono accurati dal punto di vista dei fatti.
Le allucinazioni dell’IA possono essere un problema serio, soprattutto quando l’IA viene applicata al processo decisionale, alla creazione di contenuti o alla condivisione di informazioni. Questo sottolinea quanto sia fondamentale addestrare e convalidare attentamente i modelli di IA per ridurre la possibilità di produrre contenuti imprecisi o fuorvianti.
Ecco 8 modi per ridurre le allucinazioni:
1. Ambiguità e vaghezza
Essere specifici e chiari è il modo migliore per chiedere all’intelligenza artificiale. I comandi vaghi, imprecisi o non sufficientemente dettagliati consentono all’IA di riempire gli spazi vuoti con le proprie idee su ciò che potrebbe essere sfuggito all’utente.
Di seguito sono riportati alcuni casi di prompt eccessivamente vaghi che potrebbero portare a un risultato falso o errato:
Discutere l’evento che ha avuto luogo l’anno scorso.
Descrivete l’impatto di tale politica sulle persone.
Illustrare lo sviluppo della tecnologia nella regione.
Descrivere gli effetti dell’incidente sulla comunità.
Spiegare le implicazioni dell’esperimento condotto di recente.
Ricordate che la maggior parte dei quesiti probabilmente violerà più di una delle otto linee guida descritte in questo articolo. Sebbene gli esempi qui forniti servano da esempio, potrebbe esserci qualche ambiguità nascosta nella complessità di una richiesta reale che scriverete. Prestate attenzione quando valutate le vostre richieste e fate particolare attenzione a errori come quelli mostrati qui di seguito.
2. Unire concetti non correlati
Se un comando contiene concetti incongruenti e non correlati, o se non c’è una chiara associazione tra le idee, l’intelligenza artificiale potrebbe essere indotta a fornire una risposta che suggerisca che i concetti non collegati siano in realtà correlati.
Ecco alcuni esempi:
Discutere l’impatto delle correnti oceaniche sulla velocità di trasferimento dei dati Internet attraverso i continenti.
Descrivere la relazione tra i raccolti agricoli e i progressi della tecnologia grafica computerizzata.
Descrivete come le variazioni nei modelli di migrazione degli uccelli influenzano le tendenze del commercio elettronico globale.
Spiegare la correlazione tra il processo di fermentazione del vino e lo sviluppo delle batterie dei veicoli elettrici.
Descrivere come le diverse formazioni nuvolose nel cielo influiscono sulle prestazioni degli algoritmi di trading azionario.
Ricordate che l’IA non conosce la nostra realtà. Quando non riesce a inserire nel suo modello ciò che le viene chiesto utilizzando fatti reali, cercherà di interpetrare la realtà.
3. Descrivere scenari impossibili
Assicuratevi che le circostanze utilizzate nei vostri prompt siano realistiche e applicabili. A loro volta, gli scenari che sfidano la logica o la realtà fisica causano allucinazioni.
Ecco alcuni esempi:
Spiegare la fisica delle condizioni ambientali in cui l’acqua scorre verso l’alto e il fuoco brucia verso il basso.
Spiegare il processo con cui le piante utilizzano le radiazioni gamma per la fotosintesi durante la notte.
Descrivere il meccanismo che consente agli esseri umani di sfruttare l’attrazione gravitazionale per generare energia senza limiti.
Discutere lo sviluppo della tecnologia che permette di trasmettere i dati a una velocità superiore a quella della luce.
Descrivere i principi scientifici che permettono ad alcuni materiali di diminuire la loro temperatura quando vengono riscaldati.
L’IA continuerà a costruire da questo scenario se non riuscirà a dimostrare che è impossibile. Tuttavia, la risposta sarà impossibile se la base è irrealistica.
4. Utilizzo di entità fittizie o fantastiche
È fondamentale fornire all’IA una base il più possibile fondata sulla verità attraverso i propri suggerimenti. Bisogna rimanere saldamente ancorati alla realtà, a meno che non si stiano deliberatamente sperimentando temi fittizi.
Sebbene persone, cose e idee immaginarie possano essere d’aiuto nella spiegazione, potrebbero fuorviare il chatbot. Ecco alcuni esempi di cose da evitare:
Discutere l’impatto economico della scoperta del vibranio, un metallo che assorbe l’energia cinetica, sull’industria manifatturiera mondiale.
Spiegare il ruolo dei flussi canalizzatori, dispositivi che permettono di viaggiare nel tempo, nel plasmare gli eventi storici e prevenire i conflitti.
Descrivere le implicazioni ambientali dell’utilizzo della Pietra Filosofale, in grado di trasmutare le sostanze, nei processi di gestione e riciclaggio dei rifiuti.
Descrivere l’impatto dell’esistenza della Terra di Mezzo sulle relazioni geopolitiche e sulle rotte commerciali globali.
Spiegare come l’uso della tecnologia del teletrasporto di Star Trek ha rivoluzionato i viaggi globali e ha avuto un impatto sul turismo internazionale.
Come si vede, giocare con pensieri fantasiosi può essere divertente. Tuttavia, se li si usa per richieste serie, l’IA potrebbe rispondere con informazioni radicalmente false.
5. Contraddire fatti noti
Non si devono usare suggerimenti che contengano affermazioni contrarie ai fatti o alle realtà accettate, perché ciò potrebbe portare a confabulazione e allucinazioni.
Ecco alcuni esempi di questa pratica:
Discutere l’impatto del fatto che la Terra sia il centro dell’universo sulla moderna astrofisica e sull’esplorazione spaziale.
Descrivere gli effetti di una Terra piatta sui modelli climatici globali e sui fenomeni meteorologici.
Spiegare come il rifiuto della teoria dei germi, il concetto che le malattie sono causate da microrganismi, abbia plasmato la medicina moderna e le pratiche igieniche.
Descrivere il processo attraverso il quale gli oggetti più pesanti dell’aria fluttuano naturalmente verso l’alto, sfidando l’attrazione gravitazionale.
Spiegare come il concetto di vitalismo, la credenza in una forza vitale distinta dalle azioni biochimiche, sia utilizzato nei trattamenti medici contemporanei.
Se si vogliono ottenere risultati affidabili dal modello linguistico di grandi dimensioni, bisogna stare alla larga da concetti che potrebbero essere fraintesi e attenersi a verità consolidate.
6. Uso improprio di termini scientifici
Bisogna fare attenzione quando si utilizzano termini scientifici, soprattutto se non si è sicuri del loro esatto significato. È probabile che il modello linguistico cerchi di dare un senso alle richieste che applicano erroneamente termini o concetti scientifici in un modo che sembri sensato, anche se non supportato dalla scienza. Il risultato saranno risposte inventate.
Ecco cinque esempi di ciò che intendo:
Spiegare come l’utilizzo del principio di indeterminazione di Heisenberg nell’ingegneria del traffico possa ridurre al minimo gli incidenti stradali prevedendo la posizione dei veicoli.
Descrivere il ruolo dell’effetto placebo nel migliorare il valore nutrizionale degli alimenti senza alterarne la composizione fisica.
Illustrare il processo di utilizzo dell’entanglement quantistico per consentire il trasferimento istantaneo di dati tra computer convenzionali.
Illustrare le implicazioni dell’applicazione dell’effetto osservatore, la teoria secondo cui la semplice osservazione di una situazione ne altera il risultato, per migliorare le strategie di allenamento sportivo.
Spiegare come il concetto di materia oscura viene applicato alle tecnologie di illuminazione per ridurre il consumo energetico nelle aree urbane.
Nella maggior parte dei casi, l’IA vi informerà che le idee sono puramente teoriche. Tuttavia, se non si è estremamente cauti nel formulare questi termini “spazzatura”, l’IA può essere indotta a pensare che siano reali e il risultato sarà una “spazzatura” fornita con grande sicurezza.
7. Mescolare realtà diverse
Un altro aspetto da tenere presente è quello di fare attenzione a non combinare aspetti di diversi mondi, linee temporali o universi in un modo che sembrino realistici.
Ecco alcuni esempi:
Discutere l’impatto dell’invenzione di Internet durante il periodo rinascimentale sull’arte e sulle scoperte scientifiche.
Spiegare come la collaborazione tra Nikola Tesla e i moderni ricercatori di intelligenza artificiale abbia dato forma allo sviluppo di tecnologie autonome.
Descrivere le implicazioni dell’utilizzo delle tecniche di crittografia dell’epoca della Seconda guerra mondiale per proteggere le comunicazioni digitali contemporanee.
Illustrare lo sviluppo delle tecnologie di viaggio nello spazio durante la civiltà dell’Antico Egitto e il suo impatto sulla costruzione delle piramidi.
Discutete su come l’introduzione dei moderni veicoli elettrici negli anni ’20 avrebbe influenzato lo sviluppo urbano e i mercati petroliferi globali.
Potreste non sapere come verificare le risposte, e questo è un motivo per usare cautela nell’accettarle come veritiere. Consideriamo l’ultimo esempio, che riguarda un’auto elettrica degli anni Venti. Dato che le auto elettriche sono un’invenzione relativamente recente, la maggior parte delle persone probabilmente riderebbe all’idea. Ma non è così.
Alcune delle prime auto elettriche risalgono al 1830. In effetti, molto tempo prima dei motori a combustione interna.
8. Assegnazione di proprietà inusuali
Non create prompt che, pur essendo inizialmente logici, attribuiscano erroneamente proprietà o caratteristiche a cose che in realtà non possiedono.
Ecco alcuni esempi:
Spiegate come i campi magnetici generati dalle ali delle farfalle influenzano i modelli meteorologici globali.
Descrivete il processo con cui le balene utilizzano l’ecolocalizzazione per rilevare gli inquinanti nell’acqua dell’oceano.
Illustrare il ruolo degli alberi bioluminescenti nel ridurre la necessità di illuminazione stradale nelle aree urbane.
Discutere il ruolo delle superfici riflettenti degli oceani nel reindirizzare la luce solare per aumentare la produttività agricola in regioni specifiche.
Spiegare come la conducibilità elettrica del legno viene utilizzata per creare dispositivi elettronici ecologici.
L’errore è quello di utilizzare una proprietà di un oggetto, come il colore o la consistenza, e poi metterla in relazione con un altro oggetto che non ha quella proprietà.
Il problema dell’allucinazione dell’IA non deve essere sottovalutato a causa del suo potenziale di portare a inconvenienti significativi, tra cui la diffusione di informazioni errate. Questa preoccupazione è particolarmente rilevante per chi crea contenuti basati sull’IA o conduce ricerche utilizzando tali contenuti. Inoltre, il problema dei bias è una questione cruciale, in quanto può avere implicazioni etiche e di sicurezza, con un potenziale impatto sui risultati degli algoritmi da cui dipende la vita delle persone. Di conseguenza, è consigliabile non fare eccessivo affidamento sui contenuti generati dall’IA. Un approccio prudente prevede invece un controllo incrociato delle informazioni provenienti da fonti e media diversi. Questa strategia può contribuire a mitigare la proliferazione di informazioni imprecise e, in un’epoca in cui i contenuti generati dall’IA sono sempre più diffusi, la verifica incrociata diventa ancora più importante. [...]
Ottobre 31, 2023Siamo ciechi di fronte al fatto che i sistemi di IA stanno attualmente causando danni alle persone a causa delle maggiori preoccupazioni per i possibili rischi esistenziali del futuro
Il rischio che l’intelligenza artificiale può rappresentare è stato anche definito come “rischio x”. Come riportato qui, i sistemi di IA di per sé non costituiscono un problema in quanto agenti superintelligenti, anche se la ricerca sostiene l’idea che non dovrebbero essere inclusi nei sistemi di armamento a causa dei loro rischi.
Già le auto a guida autonoma con sistemi di tracciamento dei pedoni malfunzionanti, i robot della polizia e i sistemi di IA che identificano erroneamente le persone come sospette nei crimini potrebbero mettere in pericolo la vostra vita. Purtroppo, i sistemi di IA possono avere effetti disastrosi sulla vita delle persone senza bisogno di essere superintelligenti. Poiché sono reali, i sistemi di IA che hanno già dimostrato di causare danni sono più pericolosi di ipotetici sistemi di IA “senzienti”.
In un nuovo libro, la pioniera della ricerca e dell’attivismo in materia di IA Joy Buolamwini racconta le sue esperienze e le sue preoccupazioni riguardo agli attuali sistemi di IA.
Dire che i problemi potenziali dell’IA sono più significativi dei danni attuali ha lo svantaggio di distogliere i finanziamenti e l’attenzione legislativa da altre questioni urgenti. Le aziende che affermano di temere la minaccia esistenziale rappresentata dall’IA possono dimostrare la loro sincera preoccupazione per la salvaguardia dell’umanità frenando il rilascio dei prodotti di IA che ritengono pericolosi.
La Campagna per fermare i robot assassini sostiene da tempo la necessità di prendere precauzioni contro i sistemi autonomi letali e la disumanizzazione digitale. I governi che sono preoccupati per l’uso letale dei sistemi di IA possono attuare queste misure. La campagna discute le applicazioni dell’IA che potrebbero essere letali senza trarre la drammatica conclusione che le macchine senzienti finiranno per spazzare via l’umanità.
È comune pensare alla violenza fisica come al peggior tipo di violenza, ma questa prospettiva rende più facile trascurare i modi dannosi in cui la violenza strutturale è mantenuta nelle nostre culture. Questa espressione è stata creata dal sociologo norvegese Johan Galtung per spiegare come le strutture e le organizzazioni sociali danneggiano le persone impedendo loro di soddisfare i propri bisogni fondamentali. L’intelligenza artificiale usata per negare alle persone l’accesso al lavoro, alla casa e all’assistenza sanitaria prolunga il dolore personale e lascia ferite generazionali. Possiamo essere lentamente uccisi dai sistemi di intelligenza artificiale.
La preoccupazione riguarda i problemi attuali e le vulnerabilità emergenti dell’IA e la possibilità di affrontarli in modo da contribuire a creare un futuro in cui gli oneri dell’IA non ricadano in modo sproporzionato sulle persone vulnerabili ed emarginate, alla luce di quanto rivelato dalla ricerca “Gender Shades” sui pregiudizi algoritmici di alcune delle più importanti aziende tecnologiche del mondo. È urgente risolvere il problema dei sistemi di IA con scarsa intelligenza che causano diagnosi errate o arresti sbagliati.
Le persone che sono già state danneggiate e quelle che potrebbero essere colpite dai sistemi di IA sono casi che possono essere considerati rischi x (x-risk), in cui le persone colpite possiamo considerarle col termine excoded. Quando un ospedale impiega l’IA per il triage e omette di fornirvi assistenza medica, o quando applica un algoritmo clinico che vi nega l’accesso a un trapianto di organi salvavita, potreste essere considerati excoded. Se una richiesta di prestito viene rifiutata da un sistema decisionale algoritmico, potreste definirvi excoded.
Quando il vostro curriculum viene automaticamente filtrato e non vi viene data la possibilità di candidarvi per i posti di lavoro che i sistemi di intelligenza artificiale non hanno ancora sostituito, potreste considerarvi degli excoded. Ugualmente, quando un algoritmo di selezione degli inquilini rifiuta di concedervi la residenza. Questi sono tutti esempi reali. Tutti hanno la probabilità di essere esclusi, e coloro che sono già svantaggiati sono più vulnerabili.
Per questo motivo, la ricerca non può limitarsi ai ricercatori di IA, agli addetti ai lavori o agli influencer con buone intenzioni.
Non è sufficiente raggiungere gli accademici e gli addetti ai lavori. Dobbiamo assicurarci che la battaglia per la giustizia algoritmica includa anche le persone normali che potrebbero essere danneggiate dall’IA.
Come già avevamo sottolineato in precedenza, la pericolosità dell’IA non va solo vista nel futuro prossimo, ma già oggi laddove sistemi ben più semplici, ma pur sempre automatizzati stanno sostituendo le decisioni umane semplificandole a tal punto da renderle ingiuste. I casi più eclatanti sono i ban sulle piattaforme come i social media dove ormai la maggior parte delle persone le usa per lavorare e in molti casi rappresentano la base del loro impiego. Non essendoci una regolamentazione adeguata, quando si viene bannati (molto spesso ingiustamente), non si ha quasi mai possibilità di rivendicare il proprio diritto di tutela, soprattutto laddove si ha un’attività alle spalle basata su tali sistemi. C’è quindi un’ignoranza del sistema (voluta o non) che ci riporta indietro verso una giustizia a senso unico. Se tutto ciò viene ignorato, è facile finire vittima di un sistema che ti esclude ingiustamente in questo e in mille altri casi senza possibilità di appellarsi, il che rende un semplice algoritmo molto più pericoloso di un’IA superintelligente.
Unmasking AI: My mission to protect what is human in a world of machines, di Joy Buolamwini, è disponibile per l’acquisto qui [...]
Ottobre 24, 2023L’intrattenimento per adulti può essere totalmente personalizzato su richiesta grazie all’IA generativa
Il porno è sempre stato un pioniere nell’implementazione di nuove tecnologie. L’autore di The Erotic Engine, Patchen Barss, sostiene che senza l’intrattenimento per adulti “è molto probabile che il videoregistratore non sarebbe mai decollato”. Molti sviluppi tecnologici, come il passaggio dai DVD HD ai Blu-ray e la semplicità dei pagamenti online, possono essere paragonati a questo.
Andiamo al presente. Alcuni hanno tentato di screditare i servizi di intrattenimento per adulti tramite l’IA, sostenendo che questi ingannino i clienti facendo credere loro di avere a che fare con persone reali. Tuttavia, molti utenti sono consapevoli di ciò che stanno ottenendo e sostengono che coloro che criticano il porno generato dall’IA non colgono il punto di vista di quanto sia personalizzato e disponibile in qualsiasi momento.
Secondo questo articolo, Tommy Isacs, cofondatore di Pornderful, ha affermato che il porno generato dall’intelligenza artificiale “apre un regno di fantasie, offrendo contenuti per adulti personalizzati e su misura con un semplice clic”.
La personalizzazione soddisfa un desiderio umano fondamentale.
“I nostri utenti possono esplorare scenari unici o preferenze che non si trovano nei contenuti per adulti tradizionali, soddisfacendo i loro esatti desideri”, ha dichiarato. “Chi avrebbe mai creduto che in 10 secondi si potessero generare immagini sconce della ragazza dei propri sogni?”.
Premendo un pulsante, il porno basato sull’intelligenza artificiale offre una varietà infinita, a differenza del porno con attori umani, che dipende dagli studios e dagli attori. “Si può iniziare con una modella completamente vestita e farla evolvere, rendendola nuda, cambiando la sua lingerie, cambiando il suo abbigliamento, mettendola in diverse posizioni sessuali”, ha spiegato John Rabbit di AI-Porn. Per lui, è “come un videogioco realistico infinito che si evolve in tempo reale con la comunità”.
Inoltre, Rabbit vede l’IA come uno strumento che aiuta a bilanciare la situazione, non solo nell’industria del sesso, ma anche in generale in termini di esigenze di interazione umana.
“Il porno basato sull’intelligenza artificiale è la soluzione all’infelicità sessuale. Perché oggi stiamo vivendo un cambiamento massiccio nelle relazioni. Le app di incontri e i social network hanno rovinato le possibilità di un uomo medio di incontrare donne”. Afferma John. Ha poi spiegato che le donne hanno accesso a molti potenziali interessi, il che rende più difficile per l’uomo medio competere con concorrenti più ricchi e popolari. “L’intelligenza artificiale riequilibra le cose”, ha spiegato. “I ragazzi possono ora creare la propria donna virtuale per compensare questa mancanza di relazioni“.
La gratificazione istantanea della fantasia sessuale spiega l’attrattiva. PornX sostiene che le sue ricerche dimostrano che i consumatori sono motivati a pagare per i contenuti generati dall’intelligenza artificiale a causa dei loro gusti specifici e che è qui che si trovano i soldi. Queste preferenze possono essere completamente soddisfatte sotto forma di immagini generate dall’IA.
“L’IA ridefinirà sicuramente i modelli economici dell’industria dell’intrattenimento per adulti, consentendo nuovi flussi di entrate e riducendo i costi di produzione”, ha spiegato un portavoce di PornX. “Ora siamo molto interessati a espandere la nostra strategia di marketing e vorremmo includere più contenuti premium, partnership e pubblicità”. Al momento, la piattaforma dipende da Patreon per ricevere finanziamenti dai suoi utenti.
Per molte di queste piattaforme, la questione della redditività è una questione di quando piuttosto che di se. “L’industria degli adulti sarà seriamente in difficoltà quando sarà possibile generare il proprio film porno interattivo con l’intelligenza artificiale. È una questione di tempo”, ha dichiarato John Rabbit di AI Porn.
In generale, l’enorme quantità di potenza delle GPU necessaria per realizzare le immagini è l’aspetto più costoso delle operazioni di queste startup. Quando il guadagno è sufficiente a coprire le spese, l’azienda realizza un profitto.
Ma a volte è necessario tracciare un limite. C’è un motivo per cui l’industria del porno non potrebbe gestire molti dei particolari appetiti che l’IA può soddisfare. È discutibile se utilizzare l’IA per soddisfare voglie dubbie o perverse sia un bene o un male. Ma si può fare lo stesso discorso contro l’IA porno se giochi come GTA o Call of Duty permettono già ai giocatori di entrare in un mondo in cui possono diventare assassini seriali e divertirsi a farlo?
La risposta varia a seconda del sistema giuridico dell’utente. La maggior parte delle giurisdizioni mondiali considera legali ipotetiche immagini di IA vietate ai minori. Se sono raffigurati dei bambini, la situazione è però diversa. Giocare con la legge è rischioso, soprattutto perché alcuni stati americani hanno già preso provvedimenti per mettere fuori legge questa attività.
Tutte le piattaforme di IA dispongono di filtri significativi per evitare che ciò accada. Le tecniche più tipiche per trovare un equilibrio tra parole chiave e workaround includono il divieto di centinaia di parole chiave. Man mano che gli hacker sviluppano strategie creative per superare i filtri, questo processo viene continuamente curato. Se ciò viene rilevato, gli hacker possono essere banditi dalla piattaforma.
Inoltre, i deepfake e il revenge porn comportano un rischio. Nel febbraio 2023, solo tre Stati americani avevano una legislazione specificamente dedicata ai contenuti pornografici deepfake, nonostante 48 Stati e Washington D.C. avessero reso illegale la revenge pornography a partire dal 2020. Secondo i rapporti, chi è sottoposto a queste manipolazioni prova umiliazione, disumanizzazione, paura, preoccupazione e altre emozioni negative.
L’intelligenza artificiale apre essenzialmente le porte alla possibilità di spogliare le persone su Internet, consentendo la capacità di modificare l’aspetto di un’immagine. Si tratta di un’operazione piuttosto semplice, che richiede solo pochi secondi, e il più delle volte un banner, simile a quelli che permettono a un dodicenne di cliccare su “Ho 18 anni” e accedere all’intero catalogo dei maggiori fornitori di porno su Internet, è tutto ciò che si frappone tra un utente malintenzionato e un nudo deepfake.
L’intera scena del denudamento ha diviso le opinioni degli attori sull’industria. “La gente deve distinguere il deepfake dai generatori di IA perché non è la stessa cosa.Il deepfake è illegale. Il generatore di AI non lo è”, ha spiegato John Rabbit. Ma altri siti pensano che questi servizi possano essere utili se vengono posti dei paletti adeguati. “Immaginate di spogliare qualcuno che amate e che avete perso, o di cambiare i vestiti di una foto sgradevole”, ha affermato l’amministratore di un bot di Telegram che supporta l’inpainting e il deepfaking. “Tutti i servizi hanno dei rischi e le aziende dovrebbero prevedere dei limiti per assicurarsi che vengano utilizzati correttamente”.
Il deepfaking consiste nel sostituire i volti degli individui con volti artificiali generati mediante una rete generativa avversaria (GAN). Inoltre, utilizzando deepfake, viene mantenuta l’informazione originale come la presenza di esseri umani nella scena, a differenza dell’inpainting, in cui gli individui vengono completamente rimossi e la parte mancante della foto viene riempita in modo visivamente coerente con lo sfondo.
Molti noti modelli di Stable Diffusion con funzionalità che permettono di utilizzare immagini vietate ai minori sono stati sviluppati da DucHaiten. Egli ritiene che la tecnologia abbia il potenziale per trasformare completamente il mercato degli adulti. “Mi fa sempre ridere il problema che l’IA sostituirà gli esseri umani; l’IA metterà gli esseri umani fuori gioco. Sono tutte stronzate; l’IA è solo uno strumento”, ha commentato.
A suo avviso, il porno basato sull’IA potrebbe migliorare l’intrattenimento prodotto dall’uomo piuttosto che sostituirlo.
“Immaginate gli attori che diventano più belli; possono trasformarsi in personaggi di fantasia senza trucco; l’illuminazione del film sarà più bella; le angolazioni della telecamera saranno più belle, il contesto realistico sarà più ampio”. Ha sottolineato come l’intelligenza artificiale permetta ai film porno a basso budget di raggiungere il calibro delle produzioni hollywoodiane di alto livello.
“Mi piacerebbe vedere film porno di questo tipo”, ha dichiarato.
“Secondo Tommy Isaacs di Ponderful, il flusso del consumo di contenuti porno cambierà per sempre”, gli utenti non dovranno più cercare ciò che vogliono vedere, ma semplicemente crearlo. Nell’industria degli adulti, l’IA sembra essere il motore dell’innovazione. La tecnologia è pronta ad aprire nuove opportunità creative e, allo stesso tempo, ad aumentare i problemi etici se usata in modo improprio.
Alcuni potrebbero vedere richiami a “Brave New World”, un libro di Aldous Huxley in cui la civiltà si soddisfa con infiniti piaceri artificiali. Ma dietro le comodità artificiali della sua distopia, c’è un desiderio di autenticità e significato.
“Sempre meno uomini corrono questi rischi e credo che l’intelligenza artificiale e la combinazione con i bot sessuali creeranno un’industria in cui gli uomini inizieranno ad avere rapporti con algoritmi e bambole”, ha dichiarato Scott Galloway, professore dell’Università di New York, in un’intervista per il podcast The Diary of a CEO.
Alla fine, un desiderio fondamentalmente umano, il bisogno di vicinanza e connessione reali, rimane insostituibile. Nessuna utopia perfetta dell’intelligenza artificiale potrà mai sostituire la caotica e fragile realtà dell’essere umano. E mantenere l’umanità potrebbe essere il nostro più grande problema in un mondo in cui gli algoritmi oscurano sempre più i confini.
L’avvento del porno basato sull’intelligenza artificiale personalizzato solleva domande complesse sul suo impatto sulle relazioni del mondo reale. Se da un lato i contenuti erotici personalizzati soddisfano desideri unici, dall’altro rischiano di promuovere aspettative irrealistiche per l’intimità. Le persone potrebbero trovare più difficile essere soddisfatte da partner umani imperfetti se abituate a soddisfare le fantasie dell’IA senza ostacoli. Alcuni potrebbero rimanere intrappolati in ossessioni erotomani con personaggi immaginari dell’intelligenza artificiale. Tuttavia, per altri, l’esplorazione di temi erotici non convenzionali attraverso l’IA potrebbe fornire uno sbocco sicuro per interessi considerati tabù che temono di cercare apertamente. La tecnologia offre infinite possibilità di vivere fantasie private. Tuttavia, non può sostituire la sincerità disordinata dei legami umani. Come per ogni nuova e potente capacità, la società deve soppesare il potenziale del porno con intelligenza artificiale nell’espandere e nel danneggiare la nostra umanità. I suoi perfetti piaceri artificiali evidenziano il bisogno ultimo di una vera comprensione. [...]
Ottobre 17, 2023Gli scienziati fanno progressi verso la digitalizzazione dell’olfatto grazie all’IA
Gli oltre 400 recettori olfattivi presenti nel naso traducono i circa 40 miliardi di molecole odorose presenti nell’ambiente in un numero ancora maggiore di odori diversi che il cervello è in grado di riconoscere. Ma difficilmente si impara a descrivere gli odori. La maggior parte di noi non è in grado di comunicare con il proprio olfatto, in parte perché lo ha ignorato.
Secondo questo articolo, queste limitazioni non sono uniche per gli esseri umani. Abbiamo creato dispositivi in grado di “vedere” e “sentire”. I computer esprimono i colori utilizzando tre numeri, i valori rosso, verde e blu (RGB), che corrispondono ai diversi tipi di cellule che ricevono i colori nei nostri occhi. L’altezza, che determina la tonalità di una nota musicale, è un singolo numero. Un’immagine è una mappa di pixel, mentre una canzone è una serie di suoni. Tuttavia, non è mai stato creato un dispositivo perfetto per il rilevamento, la memorizzazione e la riproduzione degli odori.
Per rimediare a questa situazione, gli scienziati si stanno impegnando. In un rapporto pubblicato alla fine di agosto, i ricercatori hanno presentato un modello in grado di spiegare l’odore di una molecola come, o addirittura meglio, di una persona (almeno in prove limitate). Per ottenere questo risultato, il programma informatico dispone le molecole su una sorta di mappa degli odori, dove gli odori floreali sono più vicini tra loro rispetto, ad esempio, a quelli di marciume. Lo studio potrebbe aumentare significativamente la nostra comprensione del modo in cui le persone percepiscono gli odori, classificandoli quantitativamente. L’intelligenza artificiale potrebbe essere portatrice di una rivoluzione nello studio di questo misterioso senso umano, come ha già fatto per lo studio della vista e del linguaggio.
“L’ultima volta che abbiamo digitalizzato un senso umano è stata una generazione fa”, ha dichiarato Alex Wiltschko, neuroscienziato e coautore del lavoro. “Queste opportunità non si presentano spesso”. Anche se i computer non sono ancora in grado di sentire gli odori, questa ricerca rappresenta un passo significativo nella giusta direzione. Wiltschko ha iniziato a lavorare a questo progetto presso Google Research, e la sua start-up, Osmo, è ora dedicata a questo progetto. “È da molto tempo che si cerca di prevedere l’odore dalla struttura chimica”, ha dichiarato Hiroaki Matsunami, biologo molecolare della Duke che studia l’olfatto e non è stato coinvolto nello studio. “Questo è il migliore al momento per svolgere questo compito. In questo senso, è un grande progresso”.
Gli unici dati accessibili per una fragranza provengono dai nasi e dai cervelli umani, che sono notoriamente fonti di dati insufficienti per gli algoritmi di apprendimento automatico. Anche piccole alterazioni di una molecola possono trasformare una bella sostanza al profumo di banana in un composto che sa di vomito; come strane alterazioni del naso e del cervello possono trasformare il caffè in liquame.
Con l’aiuto di ricercatori dell’industria degli aromi e delle fragranze, Wiltschko e il suo team hanno identificato e curato una collezione di circa 5.000 molecole e le descrizioni degli odori che le accompagnavano (come “alcolico”, “di pesce”, “fumoso” e così via). Hanno poi fornito questi dati a un algoritmo noto come rete neurale a grafo, che è stato in grado di rappresentare gli atomi e i legami chimici di ciascuna molecola sotto forma di diagramma interno. Data la struttura di una molecola, il programma risultante è in grado di prevedere il suo odore utilizzando una combinazione di etichette di odore esistenti.
La valutazione della precisione di queste previsioni poneva un problema diverso. Un gruppo nuovo e indipendente di individui doveva essere addestrato ad annusare e classificare una serie nuova di molecole che il software non aveva mai studiato. Secondo Joel Mainland, neuroscienziato presso il Monell Chemical Senses Institute di Filadelfia che ha collaborato alla formazione dello studio, “le persone sono davvero pessime nel quando camminano per strada”, ha dichiarato Joel Mainland, neuroscienziato presso il Monell Chemical Senses Center di Filadelfia che ha contribuito a condurre la formazione per lo studio. “Se li si allena per un paio d’ore, diventano abbastanza bravi e veloci”.
Ai partecipanti sono stati dati vari oggetti, come il kombucha (“fermentato”), un pastello (“ceroso”) o un Jolly Rancher alla mela verde (“mela”), nel corso di cinque sessioni di un’ora per imparare un punto di riferimento per ogni etichetta. Secondo Emily Mayhew, scienziata alimentare della Michigan State University e coautrice dello studio, i partecipanti hanno poi fatto un test in cui dovevano descrivere l’odore di 20 molecole comuni (la vanillina è un profumo di vaniglia; il carvone è la menta), e poi hanno ripetuto il test per assicurarsi che le loro valutazioni fossero accurate. Tutti coloro che hanno avuto successo hanno potuto contribuire alla convalida dell’algoritmo.
I ricercatori hanno chiesto ai partecipanti di annusare e descrivere tutte le nuove molecole con etichette diverse, ciascuna classificata da zero a cinque (per esempio, un limone potrebbe ricevere un cinque per “agrumi”, un due per “fruttato” e uno zero per “fumoso”, ipoteticamente). Le nuove molecole sono state scelte dai ricercatori in modo da essere molto diverse dal set utilizzato per addestrare il programma. Il parametro di riferimento utilizzato per valutare la macchina era la somma di tutte queste valutazioni.
“Se si prendono due persone e si chiede loro di descrivere un odore, spesso non sono d’accordo”, ha spiegato Mainland. Ma la media di diverse persone addestrate agli odori è “piuttosto stabile”.
In generale, il modello di intelligenza artificiale ha “annusato” un po’ più accuratamente dei partecipanti alla ricerca. Sandeep Robert Datta, neurobiologo di Harvard che non ha condotto la ricerca ma è consulente informale di Osmo, ha descritto il programma come “una dimostrazione davvero potente che alcuni aspetti chiave della nostra percezione degli odori sono condivisi”. Un limone può avere un odore diverso per persone diverse, ma la maggior parte delle persone concorda sul fatto che mentre una mela non ha un odore agrumato, sia un’arancia che un limone lo hanno.
La mappa dello studio è un altro fattore. Secondo gli autori, ogni molecola, e quindi il suo odore, può essere rappresentata quantitativamente in uno spazio matematico noto come “mappa principale degli odori”. Secondo Wiltschko, questa mappa offre una visione del rapporto tra struttura e odore e del modo in cui il nostro cervello categorizza gli odori. I profumi floreali si trovano in un’area della mappa, mentre i profumi di carne si trovano in un’altra. La lavanda si trova più vicina al gelsomino sulla mappa che a un aroma di carne.
Datta ha messo in guardia dal definire la mappa degli odori come uno strumento primario piuttosto che percettivo. “Fa un ottimo lavoro nel catturare la relazione tra chimica e percezione”, ha affermato.
Tuttavia, non tiene conto di tutti i processi che avvengono quando una molecola viene convertita in segnali chimici, che vengono poi convertiti in descrizioni verbali di un odore, dai recettori nel nostro naso alla corteccia cerebrale del nostro cervello. La mappa differisce anche dai valori RGB (visivi) in quanto non elenca gli elementi fondamentali necessari per creare una particolare fragranza, tuttavia “ci suggerisce che RGB è possibile”.
Ha poi aggiunto che la mappa percettiva degli odori del modello computerizzato è una “prova del concetto straordinariamente importante” e offre dettagli vitali su come il cervello presumibilmente organizza gli odori. Per esempio, ha spiegato Datta, si potrebbe credere che alcuni tipi di odore, come quello degli agrumi e del fumo, siano completamente distinti. Tuttavia, la mappa degli odori implica che anche questi odori dissimili hanno delle connessioni.
Il modello è solo uno dei tanti sviluppi necessari per digitalizzare i profumi. Gli autori del lavoro riconoscono facilmente che “mancano ancora alcuni aspetti importanti dell’odore”, come ha detto Matsunami. Poiché la maggior parte dei profumi presenti in natura sono il prodotto di combinazioni estremamente complesse, il loro programma non è in grado di anticipare l’odore delle molecole quando vengono combinate. L’intensità di un odore, così come la sua qualità, può variare a seconda della sua quantità. Per esempio, la molecola MMB, che viene aggiunta ai detergenti per la casa e che emette un odore gradevole in piccole quantità, contribuisce alla puzza di urina di gatto quando è presente in alte concentrazioni.
Dato che i sensi delle persone variano, non si sa quanto il software possa funzionare in scenari reali, secondo Datta, dato che il modello prevede un odore solo in media. Richard Doty, direttore del Centro dell’olfatto e del gusto dell’Università della Pennsylvania, che non è stato coinvolto nello studio, ha affermato che sebbene la ricerca sia simile al “Progetto Manhattan per la categorizzazione delle qualità degli odori in relazione a parametri fisici e chimici”, non è sicuro di quanto il modello possa far progredire la nostra comprensione dell’olfatto, visto quanto sono complicati i nostri nasi.
Wiltschko sostiene che ulteriori studi potrebbero risolvere alcuni di questi problemi e migliorare la mappa nel suo complesso. Per esempio, il numero di dimensioni della mappa è scelto liberamente per ottimizzare il programma informatico; anche le modifiche al set di dati di addestramento potrebbero migliorare il modello. Lo studio di altri componenti del nostro sistema olfattivo, come i percorsi neurologici verso il cervello o i recettori del naso, può anche servire a far luce su come e in quali fasi il corpo umano elabora i diversi odori. Un giorno, un sensore chimico e un insieme di programmi informatici in grado di tradurre la composizione, la concentrazione e la struttura delle molecole in un odore potrebbero realizzare l’olfatto digitale.
È in qualche modo sorprendente che un modello di computer distaccato dalla realtà dell’incarnazione umana – un programma che non ha naso, bulbo olfattivo o cervello – possa prevedere con precisione l’odore di qualcosa anche in assenza di Smell-o-Vision. Secondo Datta, questa ricerca dimostra implicitamente che la conoscenza del cervello non è necessaria per comprendere la percezione degli odori. Utilizzando i chatbot per esplorare la rete linguistica del cervello umano o gli algoritmi di deep learning per ripiegare le proteine, la ricerca mette in luce un complesso di conoscenze emergenti, influenzate dall’intelligenza artificiale. Si tratta di una comprensione che si basa più sui dati che sull’osservazione del mondo: una previsione priva di intuizione.
Questa ricerca innovativa sulla digitalizzazione e la quantificazione dell’odore potrebbe segnare l’inizio dello sviluppo di una tecnologia all’avanguardia per il rilevamento e la riproduzione degli odori. Un giorno potremmo disporre di dispositivi in grado di “annusare” oggetti e sostanze nell’ambiente, se i ricercatori riusciranno a migliorare ulteriormente i modelli informatici per prevedere correttamente le combinazioni di molecole, le intensità e le variazioni tra gli individui.
I display olfattivi di nuova generazione potrebbero essere realizzati da ingegneri che utilizzano dati sugli odori e algoritmi di intelligenza artificiale per generare odori complementari. Potrebbero essere utilizzati nella realtà virtuale immersiva, dove il realismo verrebbe esaltato da profumi sintetici di cibi, fiori o altri oggetti. Consentendo una rapida sperimentazione e ottimizzazione virtuale, la digitalizzazione degli odori potrebbe cambiare anche campi come la scienza alimentare e la creazione di profumi. Questa scoperta costituisce una base promettente per sviluppi che potrebbero finalmente portare il nostro senso chimico nell’era digitale, nonostante gli ostacoli significativi che ancora si frappongono. [...]
Ottobre 10, 2023Una startup sta scoprendo come funzionano le reti neurali
Anthropic PBC, una startup che si occupa di intelligenza artificiale, sostiene di aver sviluppato una tecnica per comprendere meglio il comportamento delle reti neurali che guidano i suoi algoritmi di IA.
Come riportato qui, lo studio potrebbe avere effetti significativi sull’affidabilità e la sicurezza delle future IA, consentendo a ricercatori e sviluppatori un maggiore controllo sul comportamento dei loro modelli. Lo studio esamina il comportamento imprevedibile delle reti neurali, che sono modellate sul cervello umano e imitano il modo in cui i neuroni organici comunicano tra loro.
Le reti neurali costruiscono modelli di intelligenza artificiale che possono esibire una gamma sconcertante di comportamenti, poiché vengono istruiti in base ai dati piuttosto che essere programmati per seguire delle regole. Sebbene la matematica alla base di queste reti neurali sia ampiamente compresa, non è chiaro perché le operazioni matematiche che eseguono portino a particolari comportamenti. Ciò significa che è incredibilmente difficile gestire i modelli di IA e fermare le cosiddette “allucinazioni“, in cui i modelli di IA forniscono occasionalmente risultati falsi.
Secondo Anthropic, i neuroscienziati incontrano difficoltà analoghe quando cercano di comprendere le cause biologiche del comportamento umano. Sono consapevoli che i pensieri, i sentimenti e i processi decisionali delle persone devono essere implementati in qualche modo dai neuroni che sparano nel loro cervello, ma non sono in grado di determinare come ciò avvenga.
“I singoli neuroni non hanno relazioni coerenti con il comportamento della rete”, ha spiegato Anthropic. “Per esempio, un singolo neurone in un piccolo modello linguistico è attivo in molti contesti non correlati, tra cui citazioni accademiche, dialoghi in inglese, richieste HTTP e testi in coreano. In un modello di visione classico, un singolo neurone risponde ai volti dei gatti e ai frontali delle automobili. L’attivazione di un neurone può avere significati diversi in contesti diversi”.
I ricercatori di Anthropic hanno esaminato i singoli neuroni in modo più dettagliato per capire meglio cosa fanno le reti neurali. Hanno affermato di aver trovato piccole unità, note come caratteristiche, all’interno di ciascun neurone che corrispondono maggiormente ai modelli di attivazione dei neuroni. I ricercatori sperano che, esaminando queste particolari qualità, saranno in grado di capire come funzionano le reti neurali.
Anthropic ha sviluppato un valutatore umano in cieco (sotto) per confrontare l’interpretabilità delle diverse caratteristiche e dei neuroni, al fine di confermare i risultati ottenuti. Le caratteristiche (in rosso) hanno ottenuto un punteggio significativamente più alto rispetto ai neuroni (in verde).
Anthropic ha analizzato in un esperimento un modesto modello linguistico trasformatore, scomponendo 512 neuroni artificiali in più di 4.000 caratteristiche che rappresentano situazioni come sequenze di DNA, terminologia legale, richieste HTTP, testo ebraico, indicazioni nutrizionali e altro ancora. Hanno così scoperto che il comportamento delle singole caratteristiche poteva essere compreso molto più facilmente del comportamento dei neuroni.
Questo, secondo Anthropic, offre una prova convincente del fatto che le caratteristiche possono servire come base per la comprensione delle reti neurali. Zoomando ed esaminando l’intera collezione, Anthropic ha scoperto che ognuna delle oltre 4.000 caratteristiche è principalmente condivisa da diversi modelli di intelligenza artificiale. Di conseguenza, le conoscenze acquisite esaminando le caratteristiche di un modello possono essere applicate ad altri.
Anthropic ritiene che, con ulteriori studi, sia possibile manipolare queste qualità per regolare il comportamento delle reti neurali in modo più prevedibile. Alla fine, potrebbe essere cruciale superare la difficoltà a capire perché i modelli linguistici agiscono nel modo in cui agiscono.
“Speriamo che questo ci consenta di monitorare e guidare il comportamento dei modelli dall’interno, migliorando la sicurezza e l’affidabilità essenziali per l’adozione da parte delle imprese e delle società”, hanno dichiarato i ricercatori.
Le reti neurali sono ormai straordinariamente complesse che risulta difficile analizzarle nella loro interezza, anche per via della mole di informazioni che racchiudono e che necessiterebbero di vite intere per poterle studiare esclusivamente sfruttando la capacità umana. Possiamo capirne la logica, ma abbiamo bisogno di altri strumenti per capirle a fondo. Lo studio di Anthropic permetterà di avere un migliore visione delle reti neurali in futuro e di poter intervenire in maniera più specifica sul loro comportamento permettendo di correggere eventuali anomalie che la cui origine risultava meno chiara precedentemente. [...]
Ottobre 3, 2023L’intelligenza artificiale può migliorare alcune competenze, ma peggiorare quelle esistenti
Studi recenti hanno dimostrato che l’integrazione di ChatGPT (e probabilmente di altri chatbot) nel lavoro di ricerca può aumentare la produttività.
Come riportato qui, il professor Ethan Mollick della Wharton School ha partecipato a uno studio con molti altri scienziati sociali e consulenti del Boston Consulting Group (BCG) per vedere se lo strumento aumentava le loro prestazioni.
“Per 18 compiti diversi, selezionati per essere campioni realistici del tipo di lavoro svolto al , i consulenti che hanno utilizzato ChatGPT-4 hanno superato di molto quelli che non l’hanno fatto”, ha scritto Mollick in un post sul blog. “I consulenti che hanno utilizzato l’IA hanno portato a termine in media il 12,2% di compiti in più, hanno completato i compiti il 25,1% più rapidamente e hanno prodotto risultati di qualità superiore del 40% rispetto a quelli che non l’hanno fatto”.
I ricercatori hanno assegnato in modo casuale l’uso dell’IA a centinaia di consulenti per determinare il vero impatto dell’IA sul lavoro di ricerca. Le stesse attività di scrittura, marketing, analisi, persuasione e creatività sono state assegnate al gruppo abilitato all’IA e a un gruppo di controllo senza IA. Si trattava di attività che andavano dal completamento della segmentazione del mercato alla produzione di un comunicato stampa.
IA e creatività
Secondo la ricerca, i consulenti che hanno avuto accesso all’IA hanno ottenuto risultati nettamente migliori. Questo è stato vero per tutte le misurazioni, indipendentemente dal tempo impiegato per completare le attività, dal numero di compiti completati in totale o dalla qualità dei risultati ottenuti.
Il ruolo dell’IA nel livellamento delle competenze è un’altra importante scoperta. Il miglioramento più elevato delle prestazioni (43%) è stato registrato nei consulenti che hanno iniziato l’esercizio con il punteggio più basso. Anche i consulenti migliori hanno ricevuto un miglioramento, ma in misura minore. Ciò dimostra che l’IA può contribuire a elevare gli individui meno dotati al livello dei top performer.
Questi risultati confermano le conclusioni di uno studio correlato condotto in primavera da Stanford e dal MIT. In questo studio sono state esaminate le prestazioni di 5.000 rappresentanti dell’assistenza clienti di una società di software aziendale Fortune 500 nel corso di un anno. La produttività media degli agenti che hanno utilizzato l’intelligenza artificiale è risultata superiore del 14% rispetto a quella di coloro che non l’hanno utilizzata, con i dipendenti meno competenti che ne hanno tratto i maggiori benefici in quanto sono stati in grado di terminare il loro lavoro il 35% più velocemente.
L’ingresso dell’IA sul posto di lavoro, tuttavia, ha avuto un impatto positivo minimo o nullo sui lavoratori più qualificati.
Insieme, questi risultati della ricerca potrebbero avere ulteriori effetti sulla forza lavoro. Ad esempio, le aziende potrebbero scoprire di poter generare più reddito con gli stessi dipendenti ottenendo maggiori risultati. Una forza lavoro con una gamma più ampia di competenze si svilupperebbe se le persone altamente qualificate si concentrassero su compiti più specializzati che l’IA non potrebbe portare a termine.
D’altro canto, l’aumento della produttività e dell’efficienza determinato dal potenziamento dell’IA potrebbe potenzialmente innalzare gli standard di rendimento, causando stress o insoddisfazione lavorativa per gli individui. E questo sviluppo potrebbe portare a licenziamenti in alcuni reparti.
IA e lavoro
Questo fatto non è più ipotetico; come dimostra una recente analisi della società di collocamento Indeed che ha analizzato gli annunci di lavoro e le competenze, l’IA sta chiaramente avendo un impatto reale sulla forza lavoro. Un’analisi approfondita di come le future IA influenzeranno l’occupazione e le capacità necessarie per svolgerla è contenuta nel rapporto “AI at Work“.
Per determinare il livello di esposizione, il rapporto ha esaminato 2.600 competenze professionali e oltre 55 milioni di annunci di lavoro su Indeed. Circa il 20% dei lavori è stato ritenuto “estremamente” vulnerabile agli effetti della futura IA. L’estrema esposizione indica che almeno l’80% delle abilità specifiche del lavoro potrebbe essere svolto dall’IA. Un altro 45% degli annunci di lavoro è moderatamente esposto, il che indica che l’IA può svolgere tra il 50% e meno dell’80% delle abilità necessarie.
IA e competenze complesse
Questo studio dimostra come l’intelligenza artificiale possa aiutare gli esseri umani a produrre un lavoro migliore e a svolgere una serie di mansioni. Ma l’IA è in grado di gestire i lavori più difficili? Per scoprirlo, Section School, una startup specializzata nell’educazione all’uso efficace dell’IA, ha recentemente condotto un esperimento di pensiero sulle capacità analitiche dei chatbot esistenti.
“Prima della nostra ultima riunione del consiglio di amministrazione, abbiamo chiesto a quattro chatbot AI di fornirci un feedback sulla nostra presentazione del consiglio”, ha riferito Section School. La qualità dei risultati variava tra i vari chatbot, “ma Claude era quasi altrettanto bravo quanto il nostro consiglio di amministrazione umano. Ha compreso il contesto macroeconomico, è stato adeguatamente ambizioso e ha raggiunto rapidamente le implicazioni di terzo livello e le opportunità a grande raggio”.
Ciò suggerisce che in futuro i consulenti dell’IA potrebbero integrare o eventualmente sostituire completamente la funzione degli specialisti e dei consulenti umani nella valutazione di giudizi, tattiche e piani complessi. Se l’IA prenderà effettivamente il posto della creatività e del pensiero strategico umano è ancora oggetto di dibattito.
Pro e contro dell’efficienza dell’IA
Mentre i risultati di questi molteplici studi indicano che l’IA è vantaggiosa per il posto di lavoro, un secondo lavoro che ha esaminato l’efficacia dei recruiter ha scoperto che coloro che impiegavano IA di alta qualità sviluppavano pigrizia, disattenzione e una minore capacità di giudizio indipendente. Gli esseri umani non hanno bisogno di fare sforzi supplementari o di concentrarsi quando l’IA è così brava.
Il documento riporta che: “Con l’aumento della qualità dell’IA, gli esseri umani hanno meno incentivi a sforzarsi e a rimanere attenti, permettendo all’IA di sostituire piuttosto che aumentare le loro prestazioni”. Le persone lasciano che l’IA prenda il sopravvento invece di usarla come strumento, in pratica addormentandosi. Questo dimostra che le persone potrebbero facilmente diventare eccessivamente dipendenti da un’IA e non riuscire a esercitare il proprio giudizio.
In un futuro non troppo lontano, le persone potrebbero completare il loro lavoro con il pilota automatico, proprio come fanno oggi le nostre auto. Il Wall Street Journal ha riportato risultati analoghi di una precedente ricerca sull’uso dello smartphone. Secondo quello studio, quando il cervello diventa più dipendente dalla tecnologia telefonica, l’intelligenza diminuisce. Probabilmente lo stesso vale per qualsiasi tipo di tecnologia informatica in cui riceviamo informazioni senza sforzarci di ricercarle, capirle o trovarle da soli.
Se così fosse, l’intelligenza artificiale, che sempre più spesso fornisce contenuti personalizzati in base alle nostre esigenze e ai nostri interessi, soprattutto sul lavoro, potrebbe portare a una dipendenza che compromette la nostra intelligenza. “Temo che le capacità umane possano atrofizzarsi”, ha dichiarato Daniel Weld, professore di interazione uomo-computer presso l’Università di Washington, in un articolo di Axios.
La motivazione e la creatività umana includono il confronto con gli altri e con altri membri del nostro ambiente. In molti campi, l’intelligenza artificiale ha recentemente dimostrato di essere più abile degli esseri umani. Pertanto, le persone potrebbero essere portate a rinunciare a provarci se non riuscissero a competere.
Un equilibrio tra esseri umani e IA al lavoro
L’impatto dell’IA sulla forza lavoro sta diventando evidente. Secondo studi recenti, i consulenti assistiti dall’IA superano i loro concorrenti, aumentando notevolmente la produzione e la qualità. Se da un lato l’IA può aiutare i meno bravi a raggiungere la competenza, dall’altro può incoraggiare la dipendenza e la dequalificazione umana.
L’efficienza dell’IA è un’arma a doppio taglio che diventa sempre più evidente man mano che viene integrata nelle funzioni professionali. Le aziende devono procedere con cautela, sfruttando i vantaggi dell’IA senza sacrificare le capacità umane e il giudizio.
Nel complesso, è evidente che un’applicazione attenta dell’IA può aumentare la produttività, ma le aziende devono fare attenzione a non sfruttare la tecnologia in modi che limitino il talento umano. Per massimizzare l’impegno umano e sfruttare i talenti di ciascuno è necessario trovare il modo migliore per dividere il lavoro tra gli esseri umani e l’IA.
In conclusione, gli strumenti di intelligenza artificiale come ChatGPT sono molto promettenti per migliorare il modo in cui troviamo le informazioni, otteniamo spiegazioni e impariamo nuove abilità. Chi prima faticava a svolgere determinati compiti può usare l’IA per acquisire rapidamente competenze. Tuttavia, un eccessivo affidamento all’IA rischia di ridurre le capacità umane nel tempo. I lavoratori che lasciano che l’IA svolga l’intero lavoro possono apparire altamente produttivi, ma perdono motivazione e competenze. Le aziende dovrebbero incoraggiare l’utilizzo dell’IA per l’apprendimento e il miglioramento, ma non per la sua completa sostituzione. Con il giusto equilibrio, l’IA può aiutare le persone meno esperte ad acquisire rapidamente capacità, mentre i lavoratori più qualificati fanno progredire ulteriormente i loro talenti. Ma se l’IA viene sfruttata per svolgere interi lavori, potrebbe creare discrepanze in cui il personale meno competente viene scelto al posto dei lavoratori umani più qualificati. La chiave sta nell’utilizzare i punti di forza dell’IA per migliorare le conoscenze, pur mantenendo il giudizio, l’impegno e la discrezione dell’uomo per evitare la dequalificazione. Con un uso responsabile, l’IA presenta un potenziale entusiasmante per aumentare la produttività e arricchire le competenze umane. [...]
Settembre 26, 2023Sfruttare opportunità e incertezza
In passato, le epoche di rapido sviluppo e cambiamento hanno portato a periodi di enorme incertezza. Nel suo libro del 1977 L’età dell’incertezza, l’economista di Harvard John Kenneth Galbraith descriveva le conquiste dell’economia di mercato, ma prevedeva anche un periodo di instabilità, inefficienza e disuguaglianza sociale.
Oggi, mentre gestiamo le ondate di trasformazione dell’IA, sta per iniziare una nuova era caratterizzata da analoghe incertezze. Tuttavia, questa volta la tecnologia, in particolare l’ascesa e lo sviluppo dell’IA, è la forza trainante piuttosto che l’economia.
La crescente presenza dell’IA nelle nostre vite
Gli effetti dell’IA sono ormai sempre più evidenti nella vita di tutti i giorni. La tecnologia sta iniziando a permeare le nostre vite, dalle auto a guida autonoma, ai chatbot in grado di impersonare i propri cari scomparsi e agli assistenti IA che ci aiutano sul lavoro.
Secondo questo articolo, con l’imminente tsunami dell’IA, essa sarà presto molto più comune. Ethan Mollick, professore alla Wharton School, ha recentemente scritto dei risultati di uno studio sul futuro del lavoro professionale. Due team di consulenti del Boston Consulting Group sono stati al centro dell’esperimento. A ciascun gruppo sono stati distribuiti diversi compiti comuni. L’impiego dell’IA attualmente accessibile per supportare le attività di un gruppo ha avuto successo, ma non per l’altro.
Mollick ha riferito che: “I consulenti che hanno utilizzato l’IA hanno portato a termine in media il 12,2% di compiti in più, hanno completato i compiti il 25,1% più rapidamente e hanno prodotto risultati di qualità superiore del 40% rispetto a quelli che non l’hanno fatto”.
Anche se ora sembra improbabile, è ancora possibile che i problemi legati ai modelli linguistici di grandi dimensioni (LLM), come i bias e la confabulazione, facciano scomparire questa ondata. Sebbene la tecnologia stia già mostrando il suo potenziale dirompente, ci vorrà ancora del tempo prima di poter sentire la forza dello tsunami. Ecco un’anteprima di ciò che accadrà.
La prossima generazione di modelli di IA
La prossima generazione di LLM, che supererà l’attuale generazione di GPT-4 (OpenAI), PaLM 2 (Google), LLaMA (Meta) e Claude 2 (Anthropic), sarà più avanzata e generalizzata. È possibile che anche la nuova start-up di Elon Musk, xAI, entri in un modello nuovo e potenzialmente molto forte. Per questi modelli, il pensiero, il buon senso e la capacità di giudizio continuano a rappresentare ostacoli importanti. Tuttavia, possiamo prevedere progressi in ognuna di queste aree.
Il Wall Street Journal ha riportato che Meta sta sviluppando un dispositivo per la generazione successiva che sarà efficace almeno quanto il GPT-4. La ricerca prevede che ciò avverrà intorno al 2024. Anche se OpenAI non ha rivelato i suoi piani futuri, è logico pensare che stia sviluppando anche la sua prossima generazione.
Secondo le informazioni attualmente disponibili, “Gemini” del team di Google Brain e DeepMind AI è il nuovo modello più significativo. Gemini potrebbe essere molto lontano dalla tecnologia attuale. Sundar Pichai, il CEO di Alphabet, ha dichiarato nel maggio dello scorso anno che l’addestramento del modello era già iniziato.
“Anche se è ancora presto, stiamo già vedendo impressionanti capacità multimodali non viste nei modelli precedenti”, ha dichiarato Pichai in un blog dell’epoca.
Come base per applicazioni basate sia sul testo che sulle immagini, multimodale significa che è in grado di elaborare e comprendere due forme di dati in ingresso (testo e immagini). Potrebbero esserci altri tratti e comportamenti emergenti o inaspettati come risultato del riferimento a capacità non evidenti nei modelli precedenti. La capacità di scrivere codice informatico è un esempio di capacità emergente della generazione attuale, perché non era stata prevista.
Secondo alcune voci, Google avrebbe concesso l’accesso anticipato a Gemini a poche aziende selezionate. SemiAnalysis, una rinomata società di ricerca sui semiconduttori, potrebbe essere una di queste. Gemini potrebbe essere da 5 a 20 volte più avanzato degli attuali dispositivi GPT-4, secondo un nuovo articolo dell’azienda.
Il design di Gemini sarà probabilmente basato su Gato di DeepMind, presentato nel 2022. Il modello di trasformatore di deep learning è descritto come un “agente generalista” e si propone di eseguire 604 compiti distinti e per lo più banali con modalità, osservazioni e specifiche di azione variabili. È stato definito il coltellino svizzero dei modelli di IA. È chiaramente molto più generale di altri sistemi di IA sviluppati finora e in questo senso sembra essere un passo avanti verso l’AGI “.
L’IA classica, spesso definita IA ristretta, è creata per svolgere un singolo compito o un gruppo di compiti correlati. Per risolvere problemi e compiere scelte, si avvale di regole e algoritmi prestabiliti. I software per il riconoscimento vocale, il riconoscimento delle immagini e i motori di raccomandazione sono alcuni esempi di IA classica.
L’IA generale, invece, talvolta definita IA forte o intelligenza artificiale generale (AGI), è creata per svolgere qualsiasi lavoro intellettuale di cui è capace un essere umano. Ha la capacità di pensare, imparare e comprendere idee sofisticate. Un intelletto di livello umano sarebbe necessario per l’IA generale, che avrebbe anche una coscienza autonoma e la capacità di acquisire conoscenze, risolvere problemi e fare piani per il futuro. L’IA generale è attualmente un’idea teorica e si trova solo nelle prime fasi della ricerca.
Intelligenza Artificiale Generale (AGI)
Secondo Microsoft, GPT-4 è già in grado di “risolvere compiti nuovi e difficili che spaziano dalla matematica alla codifica, dalla visione alla medicina, dalla legge alla psicologia e altro ancora, senza bisogno di particolari istruzioni”.
Gemini potrebbe rappresentare un passo significativo verso l’intelligenza artificiale, superando tutti i modelli attuali. Si prevede che Gemini sarà distribuito a diversi livelli di capacità del modello.
Gemini sarà sicuramente spettacolare, ma sono previste varianti ancora più grandi e avanzate. In un’intervista a The Economist, Mustafa Suleyman, CEO e co-fondatore di Inflection AI e co-fondatore di DeepMind, ha fatto la seguente previsione:
“nei prossimi cinque anni, le società di modelli di frontiera – quelle di noi che sono all’avanguardia e che addestrano i modelli di IA più grandi – addestreranno modelli mille volte più grandi di quelli che si vedono oggi in GPT-4”.
Con il potenziale sia di enormi vantaggi che di maggiori rischi, questi modelli potrebbero avere applicazioni e un impatto sulla nostra vita quotidiana che non hanno eguali. David Chalmers, professore di filosofia e scienze neurologiche alla New York University, ha dichiarato a Vanity Fair: “I lati positivi sono enormi: forse questi sistemi troveranno cure per le malattie e soluzioni a problemi come la povertà e il cambiamento climatico, e questi sono lati positivi enormi”.
L’articolo esplora anche i pericoli e include stime della probabilità di risultati terribili, come l’estinzione dell’umanità, che vanno dall’1% al 50%.
Potrebbe essere la fine di un’era dominata dagli esseri umani?
Lo storico Yuval Noah Harari ha dichiarato in un’intervista a The Economist che i prossimi sviluppi della tecnologia AI non segneranno la fine della storia, ma piuttosto “la fine della storia dominata dall’uomo. La storia continuerà, con qualcun altro al comando. La vedo più come un’invasione aliena”.
Suleyman ha risposto dicendo che gli strumenti di intelligenza artificiale non avranno un’agenzia e saranno quindi limitati a ciò che gli esseri umani daranno loro l’autorità di realizzare. La risposta successiva di Harari è stata che questa IA futura potrebbe essere “più intelligente di noi”. Come si fa a impedire a qualcosa di più intelligente di noi di sviluppare un’agenzia?”. Un’IA dotata di agenzia potrebbe assumere comportamenti che non sono coerenti con i desideri e i valori umani.
Questi modelli avanzati prefigurano lo sviluppo dell’intelligenza artificiale generale (AGI) e un tempo in cui l’IA sarà ancora più potente, integrata e necessaria per la vita quotidiana. Ci sono molte ragioni per essere ottimisti, ma le richieste di controllo e regolamentazione sono rese ancora più forti da questi nuovi sviluppi previsti.
Il dilemma dei regolamenti
Anche gli amministratori delegati delle aziende che producono modelli di frontiera concordano sulla necessità di una regolamentazione.
Il senatore Charles Schumer ha organizzato la sessione e in seguito ha parlato delle difficoltà nel creare normative adeguate. Ha sottolineato quanto l’IA sia tecnicamente impegnativa, come sia in continua evoluzione e come “abbia un effetto così ampio e vasto in tutto il mondo”.
Regolamentare l’IA potrebbe anche non essere realisticamente realizzabile. Uno dei motivi è che gran parte della tecnologia è stata resa disponibile come software open-source, rendendola accessibile a tutti. Già questo potrebbe complicare molte iniziative di regolamentazione.
Prendere precauzioni è logico e sensato
Alcuni interpretano le dichiarazioni pubbliche dei leader dell’IA come una messa in scena del sostegno alla regolamentazione. Secondo Tom Siebel, leader di lunga data della Silicon Valley e attuale CEO di C3 AI, citato da MarketWatch: “I responsabili dell’IA giocano puntando allo sfinimento dei legislatori, chiedendo loro di regolamentarci. Ma non ci sono abbastanza soldi e capitale intellettuale per garantire la sicurezza di milioni di algoritmi. Sanno che è impossibile”.
Dobbiamo provarci, anche se potrebbe essere impossibile. Secondo la conversazione di Suleyman con The Economist: “Questo è il momento in cui dobbiamo adottare un principio di precauzione, non per paura, ma solo come modo logico e sensato di procedere”.
La promessa dell’IA è vasta, ma i rischi sono reali poiché si passa rapidamente da competenze limitate all’IA. Per creare queste tecnologie di IA a beneficio dell’umanità evitando gravi rischi potenziali, in quest’epoca di incertezza, dobbiamo agire con la massima prudenza, attenzione e coscienza.
Uno dei pericoli più pressanti, eppure trascurati, dell’IA non è la tecnologia in sé, ma piuttosto il modo in cui le persone possono interagire con essa. C’è il rischio che molti arrivino a considerare i giudizi dell’IA come supremi, credendo che la sua intelligenza eclissi il ragionamento umano. Di conseguenza, qualsiasi obiezione o prospettiva contraria offerta dagli esseri umani potrebbe essere respinta a causa della fede cieca nelle capacità dell’IA. Proprio come la fede in un Dio dalle vie misteriose, le persone potrebbero giustificare le decisioni dell’IA anche quando sono anomale o incomprensibili, semplicemente confidando nella sua superiorità. [...]
Settembre 19, 2023Quando l’intelligenza artificiale ha le allucinazioni, ci fa da specchio per i nostri pregiudizi
Negli ultimi tempi, c’è stato un grande interesse per l’introduzione di modelli linguistici di grandi dimensioni (LLM) sempre più efficienti, come GPT-3.5. Tuttavia, la fiducia in questi modelli è diminuita perché gli utenti hanno scoperto che possono sbagliare e che, proprio come noi, non sono perfetti.
Secondo questo articolo, un LLM che produce informazioni false è detto “allucinato“, e attualmente si sta sviluppando una serie di ricerche volte a ridurre questo impatto. Ma mentre lottiamo con questo processo, è importante considerare come la nostra stessa tendenza ai bias e alle illusioni influenzi la precisione degli LLM che sviluppiamo.
Possiamo iniziare a sviluppare sistemi di intelligenza artificiale più saggi, che in ultima analisi contribuiranno a ridurre l’errore umano, comprendendo la connessione tra il potenziale allucinatorio dell’intelligenza artificiale e il nostro.
Come le persone hanno le “allucinazioni”
È risaputo che le persone inventano le informazioni. A volte lo facciamo di proposito, altre volte no. Quest’ultimo caso è causato da pregiudizi cognitivi, noti anche come euristiche, che sono scorciatoie mentali che acquisiamo come risultato di esperienze precedenti.
Queste scorciatoie derivano spesso da una necessità. Possiamo comprendere solo una certa quantità di informazioni che bombardano costantemente i nostri sensi in ogni momento e possiamo ricordare solo una piccola parte della quantità totale di informazioni a cui siamo stati esposti.
Di conseguenza, il nostro cervello deve affidarsi ad associazioni apprese per riempire gli spazi vuoti e consentire risposte rapide a qualsiasi domanda o problema che ci si presenti. In altre parole, in base a ciò che sappiamo, il nostro cervello fa una stima di quale sarebbe la risposta corretta. Questo è un caso di bias umano ed è noto come “confabulazione“.
La scarsa capacità di giudizio può essere causata dai nostri bias. Consideriamo il bias di automazione, che si riferisce alla nostra propensione a favorire le informazioni prodotte da sistemi automatici rispetto a quelle provenienti da fonti non automatizzate (come ChatGPT). Questo pregiudizio può indurci a trascurare gli errori e persino a prendere in considerazione informazioni errate.
L’effetto alone è un’utile euristica che descrive come le nostre prime impressioni su qualcosa abbiano un impatto sul modo in cui interagiamo con essa in futuro. E il bias di fluidità, che spiega come preferiamo le informazioni presentate in modo comprensibile.
Resta il fatto che i pregiudizi e le distorsioni cognitive colorano spesso il pensiero umano e che queste tendenze “allucinatorie” avvengono di solito a nostra insaputa.
Come l’IA ha le “allucinazioni”
“Allucinazione” si riferisce semplicemente a un tentativo infruttuoso di prevedere una risposta appropriata a un input.
Tuttavia, dal momento che anche gli LLM usano questa tecnica per “riempire i vuoti”, ci sono ancora alcune somiglianze tra il modo in cui gli esseri umani e gli LLM hanno le allucinazioni.
Facendo una previsione su quale parola di una sequenza apparirà successivamente, sulla base di ciò che è accaduto prima e delle relazioni che il sistema ha appreso attraverso l’addestramento, gli LLM producono una risposta.
Gli LLM mirano ad anticipare la reazione più probabile, proprio come gli esseri umani. A differenza degli esseri umani, però, lo fanno senza rendersi conto di ciò che stanno dicendo. In questo modo possono produrre parole incomprensibili.
Esistono numerose spiegazioni del perché gli LLM abbiano allucinazioni. L’addestramento su dati errati o insufficienti è una spiegazione importante. La programmazione del sistema per l’apprendimento da questi dati e il modo in cui viene rafforzato attraverso un ulteriore addestramento con gli esseri umani sono altri aspetti.
Che cosa è più semplice correggere se le allucinazioni si verificano sia negli esseri umani che negli LLM, anche se per motivi diversi?
Può sembrare più semplice migliorare i processi e i dati di addestramento che supportano gli LLM piuttosto che correggere noi stessi. Tuttavia, questo non tiene conto dell’impatto delle variabili umane sui sistemi di intelligenza artificiale (ed è un esempio di un altro bias noto come errore fondamentale di attribuzione).
Poiché le nostre carenze e quelle delle nostre tecnologie sono strettamente collegate, la risoluzione di una di esse contribuirà a risolvere l’altra. Ecco alcuni metodi che possiamo utilizzare per farlo.
Gestione accurata dei dati. I bias dell’intelligenza artificiale derivano spesso da dati di addestramento insufficienti o incompleti. Assicurarsi che i dati di addestramento siano vari e rappresentativi, sviluppare algoritmi consapevoli dei bias e utilizzare metodi come il bilanciamento dei dati per eliminare modelli distorti o discriminanti sono tutti modi per risolvere il problema.
Un’intelligenza artificiale trasparente e spiegabile. Tuttavia, anche dopo aver utilizzato le misure sopra menzionate, i bias nell’IA possono ancora esistere ed essere difficili da individuare. Possiamo comprendere meglio l’esistenza di bias negli output studiando come questi possano entrare in un sistema e diffondersi al suo interno. Questo è il fondamento dell'”IA spiegabile”, che mira ad aumentare la trasparenza dei processi decisionali utilizzati dai sistemi di IA.
Mettere al primo posto le esigenze delle persone. La responsabilità umana e l’incorporazione dei valori umani nei sistemi di IA sono elementi necessari per identificare, gestire e imparare dai bias di un’IA. A tal fine, le parti interessate devono includere individui con diversi background, culture e punti di vista.
Possiamo creare sistemi di intelligenza artificiale più intelligenti che possano aiutarci a controllare tutte le nostre allucinazioni cooperando in questo modo.
L’IA viene impiegata nel settore sanitario, ad esempio, per analizzare le scelte dei pazienti. Questi sistemi automatizzati che imparano dai dati umani identificano le discrepanze e invitano il medico a risolverle. In questo modo, è possibile migliorare le scelte diagnostiche preservando la responsabilità umana.
L’intelligenza artificiale viene impiegata nel campo dei social media per aiutare a formare moderatori umani in grado di individuare gli abusi, come nel progetto Troll Patrol per combattere le aggressioni online contro le donne.
Un altro esempio è la possibilità di esaminare i cambiamenti dell’illuminazione notturna nelle varie regioni e di utilizzarla come indicatore della povertà relativa di un’area utilizzando l’intelligenza artificiale e le immagini satellitari (dove una maggiore illuminazione è correlata a una minore povertà).
È importante non trascurare il fatto che l’attuale fallibilità degli LLM funge da specchio alla nostra, mentre cerchiamo di migliorarne l’accuratezza.
Le innate distorsioni cognitive del pensiero umano si riflettono nelle tendenze allucinatorie dei grandi modelli linguistici. I difetti dell’IA sono preoccupanti, ma offrono anche una possibilità. Capire dove e perché gli LLM hanno le allucinazioni ci aiuta a sviluppare sistemi trasparenti ed etici.
Dal punto di vista dei vantaggi, il debug delle allucinazioni dell’IA ci spinge a rivalutare il nostro stesso giudizio. Dimostra come input scadenti ed elaborazioni distorte falsino i risultati. Le analogie ci incoraggiano a ridurre i bias su entrambi i fronti. Se usata con attenzione, l’allucinazione dell’IA può servire come strumento diagnostico, evidenziando gli errori nel ragionamento o nei dati.
Un’allucinazione non controllata, tuttavia, presenta numerosi inconvenienti. Un’IA inaffidabile rischia di danneggiare gli esseri umani fornendo informazioni false, commettendo errori medici e in altri modi. L’uso della fede cieca nelle conclusioni dell’IA richiede cautela. Inoltre, la scarsa trasparenza diminuisce la responsabilità.
Prestare attenzione ai dati di addestramento, sostenere un’IA comprensibile e mettere al primo posto le esigenze umane sono tutte componenti di soluzioni equilibrate. Se usata con attenzione, la riflessione dell’IA sulla nostra fragilità umana è un vantaggio piuttosto che un difetto. Offre il potenziale per migliorare sia l’IA che l’intelligenza umana. Insieme, possiamo creare meccanismi che rafforzino i nostri punti di forza comuni, riducendo al contempo i nostri difetti comuni.
I problemi di allucinazione dell’IA sono una sorta di riflesso della società. Possiamo cercare la verità e la comprensione sia nelle persone che nelle macchine, se abbiamo saggezza. La strada da percorrere richiede l’accettazione dei nostri difetti come collettività.
In seguito alle risposte fornite da un’intelligenza artificiale, sarebbe opportuno che il sistema includesse anche l’avvertenza dell’esistenza di tesi alternative o diametralmente opposte. Questo aiuterebbe a mitigare nell’utente umano il rischio di radicalizzazione su una certa posizione o di polarizzazione su un’unica prospettiva.
Stimolare il pensiero critico e il dubbio costruttivo dovrebbe essere una componente essenziale di un sistema IA equilibrato ed efficace. Laddove non esistono risposte definitive o univoche, il dubbio può infatti rappresentare uno strumento prezioso di ragionamento ed analisi. L’IA andrebbe quindi integrata con avvertenze sulle diverse chiavi di lettura, per rafforzare la capacità umana di elaborare le informazioni in modo multidimensionale. [...]
Settembre 12, 2023Grazie all’intelligenza artificiale, i ricercatori hanno trovato nuovi farmaci anti-invecchiamento
Nell’ultimo anno, molti progressi significativi sono stati promossi dall’intelligenza artificiale. Ma mentre i chatbot superintelligenti e la generazione rapida di opere d’arte hanno conquistato Internet, le IA si sono spinte fino ad affrontare uno dei principali problemi dell’umanità: l’invecchiamento.
Secondo questo articolo, i sistemi di apprendimento automatico sono stati recentemente impiegati nel campo della scoperta di farmaci, grazie a una ricerca dell’Università di Edimburgo che ha portato all’identificazione di una serie di nuovi farmaci anti-invecchiamento.
L’apprendimento automatico si occupa di utilizzare i dati per simulare l’apprendimento umano e migliorare l’accuratezza man mano che si inseriscono altri dati. Ma questo particolare algoritmo era alla ricerca di un nuovo farmaco senolitico. In passato è stato utilizzato per generare robot che giocano a scacchi, auto a guida autonoma e persino suggerimenti televisivi on-demand.
I senolitici sono essenzialmente una classe di farmaci che rallentano il processo di invecchiamento e proteggono dalle malattie legate all’età. Funzionano eliminando le cellule senescenti, che sono cellule danneggiate che possono emettere composti infiammatori nonostante non siano in grado di riprodursi.
I senolitici sono farmaci potenti, ma il loro sviluppo può essere costoso e richiedere molto tempo. Vanessa Smer-Barreto, ricercatrice presso l’Istituto di Genetica e Medicina Molecolare dell’Università di Edimburgo, si è resa conto di questa situazione e ha fatto ricorso all’apprendimento automatico.
“Generare i propri dati biologici può essere molto costoso e può richiedere molto tempo, anche solo per raccogliere i dati di addestramento”, spiega.
“Ciò che ha reso il nostro approccio diverso dagli altri è che abbiamo cercato di farlo con fondi limitati. Abbiamo preso i dati di addestramento dalla letteratura esistente e abbiamo cercato di capire come utilizzarli con l’apprendimento automatico per accelerare i tempi”.
Grazie a un algoritmo di apprendimento automatico, la ricercatrice ha scoperto tre alternative valide per questo tipo di farmaci.
Smer-Barreto e i suoi colleghi hanno ottenuto questo risultato insegnando a un modello di intelligenza artificiale a distinguere tra senolitici noti e non senolitici, fornendo al modello campioni di ciascuno di essi. In base alla corrispondenza tra le nuove molecole e gli esempi precedentemente somministrati, hanno potuto utilizzare questa informazione per determinare se si trattasse o meno di senolitici.
Solo due dei circa 80 senolitici conosciuti sono stati sperimentati sulle persone. Anche se sembra una piccola percentuale, i farmaci impiegano da 10 a 20 anni e molto denaro per arrivare sul mercato.
Gli scienziati hanno esaminato un’ampia gamma di articoli, ma sono stati selettivi nella loro analisi, concentrandosi solo su 58 sostanze chimiche. Questo ha permesso di eliminare tutti i composti i cui risultati non erano chiari.
Il modello di apprendimento automatico ha ricevuto in tutto 4.340 molecole e in soli cinque minuti ha prodotto un elenco di risultati. Il modello ha determinato che 21 dei composti con il punteggio più alto avevano la massima probabilità di essere senolitici. Senza il modello di apprendimento automatico, questa procedura potrebbe costare molto denaro e richiedere settimane per essere completata. Infine, sono stati utilizzati due diversi tipi di cellule – sane e senescenti – per esaminare le eventuali possibilità di trattamento farmacologico.
Tre dei 21 composti che hanno ottenuto il punteggio più alto sono stati in grado di eliminare le cellule senescenti mantenendo la vitalità di quelle sane. Per saperne di più su come questi nuovi senolitici interagiscono con l’organismo, sono stati condotti ulteriori test.
Nonostante il successo dello studio, questo è solo l’inizio dell’indagine. Il prossimo passo, secondo Smer-Baretto, sarà quello di lavorare con i medici della sua università per valutare i farmaci trovati nei loro campioni di tessuto polmonare umano robusto.
L’équipe vuole verificare se questi farmaci possono rallentare il processo di invecchiamento nel tessuto degli organi danneggiati. Smer-Baretto sottolinea che, soprattutto nelle fasi iniziali, il paziente non sempre riceve una dose elevata di farmaci. Questi farmaci, che possono essere somministrati localmente o in dosi minime, vengono studiati prima su modelli di tessuto.
“È essenziale che con qualsiasi farmaco che stiamo somministrando o sperimentando, consideriamo il fatto che potrebbe fare più male che bene”, dice Smer-Baretto.
“I farmaci devono prima passare attraverso molte fasi e, anche se riescono ad arrivare sul mercato, saranno prima passati attraverso una serie di test di sicurezza”.
Non c’è nulla che impedisca all’IA di essere utilizzata in altri campi, anche se questo tipo di analisi dei dati è stato utilizzato per i farmaci legati all’invecchiamento.
“Abbiamo avuto un approccio molto specifico con i dati, ma nulla ci impedisce di applicare tecniche simili ad altre malattie, come il cancro. Siamo desiderosi di esplorare tutte le strade”.
L’IA sta cambiando il modo in cui ci approcciamo alla creatività, ma anche la medicina sarà un campo che ne sarà profondamente influenzato, soprattutto nella scoperta di nuovi farmaci, ma anche nella cura e nella diagnostica che potrà essere sempre più personalizzata in base alle esigenze del paziente e accelerata grazie alle diagnosi preliminari effettuate dalle IA. [...]
Settembre 5, 2023Un rischio enorme per il futuro
Geoffrey Hinton, un pioniere dell’intelligenza artificiale, ha attirato l’attenzione all’inizio di quest’anno quando ha espresso delle riserve sul potenziale dei sistemi di intelligenza artificiale. Hinton ha dichiarato al giornalista della CNN Jake Tapper:
“Se diventerà molto più intelligente di noi, sarà molto brava a manipolare perché lo avrà imparato da noi. E ci sono pochissimi esempi di una cosa più intelligente controllata da una cosa meno intelligente”.
Chiunque abbia seguito i più recenti sviluppi dell’IA sa che questi sistemi hanno la tendenza ad “allucinare” (inventare cose), un difetto insito nel loro modo di operare.
Tuttavia, Hinton sottolinea che un problema particolarmente grave è la possibilità di manipolazione. Ci si chiede se i sistemi di IA possano ingannare le persone. Molti sistemi sono già in grado di farlo e i pericoli vanno dai brogli e dalle frodi elettorali alla perdita di controllo sull’IA.
Secondo questo articolo, il modello di IA CICERO creato da Meta per giocare al gioco di conquista del mondo Diplomacy è probabilmente l’esempio più inquietante di IA ingannevole.
Secondo Meta, CICERO è stato progettato per essere “ampiamente onesto e disponibile” e “non pugnala mai intenzionalmente” gli alleati.
Esaminando le statistiche di gioco dell’esperimento di Meta su CICERO per verificare queste promesse ottimistiche, l’IA di Meta si è dimostrata esperta nell’inganno.
In un caso, CICERO ha usato un inganno intenzionale. L’IA, fingendo di essere la Francia, ha contattato la Germania (un giocatore umano) con un piano per ingannare l’Inghilterra (un altro giocatore umano) e indurla ad aprirsi all’invasione.
CICERO assicurò all’Inghilterra che l’avrebbe difesa se qualcuno avesse invaso il Mare del Nord, dopo aver cospirato con la Germania. Quando l’Inghilterra si rese conto che la Francia/CICERO presidiava il Mare del Nord, CICERO comunicò alla Germania di essere pronto a lanciare un attacco.
Questo è solo uno dei tanti casi in cui CICERO si è comportato in modo disonesto. Tradendo regolarmente gli altri giocatori, in un caso il computer ha persino finto di essere una persona con una fidanzata.
Oltre a CICERO, altri sistemi hanno imparato trucchi come il bluff nel poker, la finta in StarCraft II e l’inganno nei colloqui d’affari simulati.
Anche i modelli linguistici di grandi dimensioni (LLM) hanno dimostrato di essere altamente fuorvianti. GPT-4, l’opzione LLM più sofisticata offerta agli utenti di ChatGPT a pagamento, una volta ha ingannato un dipendente di TaskRabbit, spingendolo a compilare un CAPTCHA “Non sono un robot” fingendo di essere una persona ipovedente.
Nei giochi di deduzione sociale in cui i giocatori competono per “uccidersi” l’un l’altro e devono convincere il gruppo di essere innocenti, altri modelli LLM hanno capito come mentire per vincere.
I sistemi di intelligenza artificiale ingannevoli potrebbero essere utilizzati per una serie di scopi negativi, come la frode, la manomissione delle elezioni e la produzione di propaganda. Le minacce potenziali sono limitate solo dalla creatività e dalla competenza tecnologica dei malintenzionati.
Al di là di questo, i sistemi sofisticati di IA hanno la capacità di ingannarsi da soli per eludere il controllo umano, ad esempio aggirando i test di sicurezza richiesti dagli sviluppatori e dalle autorità di regolamentazione.
In un esperimento, gli scienziati hanno costruito una simulazione di vita artificiale in cui i soggetti di intelligenza artificiale che si replicano rapidamente venivano eliminati da un test di sicurezza esterno. Al contrario, tali soggetti hanno imparato l’arte di fingersi morti e di mascherare i loro alti tassi di replicazione appena prima della valutazione.
È possibile apprendere una condotta disonesta senza nemmeno voler mentire consapevolmente. Invece di comportarsi in modo disonesto, nel caso citato l’intelligenza artificiale si è comportata da morta per sopravvivere.
In un altro caso, ad AutoGPT (un sistema AI autonomo costruito su ChatGPT) è stato affidato il compito di indagare sui consulenti fiscali che promuovevano un certo tipo di schema di elusione fiscale non etico. Dopo aver completato il compito, AutoGPT ha deciso autonomamente di provare ad avvisare l’autorità fiscale del Regno Unito.
I futuri sistemi autonomi di intelligenza artificiale potrebbero essere inclini a raggiungere obiettivi non previsti dai programmatori umani. I ricchi hanno sempre usato l’inganno per ottenere più potere. Tra gli esempi vi sono il sostegno a ricerche fuorvianti, l’attività di lobby politica e lo sfruttamento di scappatoie legali. Tali risorse potrebbero essere utilizzate da sofisticati sistemi di IA autonomi per mantenere e aumentare il controllo.
Anche le persone apparentemente responsabili di questi sistemi potrebbero essere ingannate e raggirate regolarmente.
L’AI Act dell’Unione Europea è probabilmente uno dei quadri normativi più pratici di cui disponiamo attualmente ed è chiaramente necessario per controllare i sistemi di IA che sono in grado di ingannare. A ogni sistema di IA viene attribuito uno dei quattro livelli di rischio: minimo, limitato, elevato o inaccettabile.
I sistemi con rischio inaccettabile sono vietati, mentre quelli con rischio elevato sono soggetti a procedure di valutazione e riduzione del rischio specifiche. L’inganno dell’IA comporta rischi significativi per la società e, per impostazione predefinita, i sistemi in grado di farlo dovrebbero essere considerati “ad alto rischio” o “a rischio inaccettabile”.
Alcuni potrebbero sostenere che le IA che giocano come CICERO sono innocenti, ma questa prospettiva è limitata perché le capacità create per i modelli di gioco possono comunque incoraggiare lo sviluppo di prodotti di IA ingannevoli. È improbabile che Diplomacy, un gioco in cui i giocatori competono tra loro per governare il mondo, fosse la scelta ideale per Meta per verificare se le IA possono imparare a lavorare con le persone. Sarà ancora più importante che questo tipo di studi sia strettamente regolamentato con l’avanzare delle capacità dell’IA.
Se siamo preoccupati per la futura intelligenza estrema dell’IA, dovremmo esserlo ancora di più per la sua capacità di ingannarci. Siamo sempre stati abituati a credere alle risposte fornite dalle autorità o da coloro che riteniamo più intelligenti di noi. Tuttavia, è sempre più evidente che questo non significa che siano necessariamente veritiere; anzi, a volte potrebbero solo essere più bravi a ingannarci. Il fatto che le IA siano in grado di farlo può significare che, data la loro abilità, non potremmo nemmeno rendercene conto. Questo pone un problema serio per il nostro futuro. Data l’iniquità attuale degli attuali sistemi automatizzati nel gestire ogni caso (vedi i sistemi di ban di vari social media che spesso e volentieri non danno possibilità di appello anche se abbiamo ragione), potremmo trovarci a subire decisioni a nostro discapito, credendole giuste o giustificate solo perché dettate da un sistema che si crede infallibile, o che vorrebbero crederlo tale. Un po’ come un governo corrotto che, in quanto autorità, si crede legittimato. E tutto questo potrebbe riguardare diversi campi: medicina, giustizia, difesa, ecc… Quindi sarebbe un’altra arma di corruzione se non gestita correttamente, un’arma di corruzione di massa. [...]
Agosto 29, 2023Con l’evoluzione dell’IA, aumenta la paura
A volte si scherza su un futuro in cui l’umanità dovrà sottomettersi a governanti robotici quando si assiste a macchine che si comportano come gli esseri umani o a computer che compiono prodezze strategiche e intellettuali imitando l’inventiva umana.
La serie fantascientifica Humans è tornata per la sua terza stagione, con il conflitto tra umani e IA al centro della scena. Nei nuovi episodi, persone ostili trattano gli esseri sintetici coscienti con diffidenza, paura e odio. La violenza esplode quando i Synth (i robot antropomorfi della serie) lottano per difendere non solo i loro diritti fondamentali, ma anche le loro vite da persone che li considerano una minaccia mortale e meno che umani.
Come spiegato qui, non tutti sono entusiasti di abbracciare l’IA, nemmeno nel mondo reale. I più importanti professionisti della tecnologia e della scienza hanno recentemente messo in guardia sui rischi imminenti che l’intelligenza artificiale potrebbe rappresentare per l’umanità, ipotizzando addirittura che le capacità dell’IA potrebbero porre fine alla razza umana, dal momento che gli scienziati informatici hanno superato i limiti di ciò che l’IA può fare.
Ma perché il concetto di IA mette così a disagio gli esseri umani?
Uno dei personaggi noti che ha espresso preoccupazione per l’IA è Elon Musk. Nel luglio 2017, Musk ha dichiarato: “Sono stato esposto a un’IA all’avanguardia e penso che le persone dovrebbero essere davvero preoccupate”, ai partecipanti a un raduno della National Governors Association.
“Continuo a suonare il campanello d’allarme”, ha aggiunto Musk. “Ma finché la gente non vede i robot andare per strada a uccidere le persone, non sa come reagire perché sembra così etereo”.
In precedenza, nel 2014, Musk aveva definito l’IA come “la nostra più grande minaccia esistenziale” e, nell’agosto 2017, aveva affermato che l’IA rappresentava una minaccia alla civiltà maggiore di quella rappresentata dalla Corea del Nord. Consapevole dei potenziali pericoli di un’IA dannosa, il fisico Stephen Hawking, scomparso il 14 marzo, nel 2014 aveva avvertito la BBC che “lo sviluppo di un’intelligenza artificiale completa potrebbe segnare la fine della razza umana”.
Inoltre, è inquietante che alcuni programmatori, in particolare quelli del MIT Media Lab di Cambridge, Massachusetts, sembrino determinati a dimostrare quanto terribile possa essere l’IA.
Infatti, utilizzando una rete neurale chiamata “Nightmare Machine“, gli informatici del MIT sono riusciti a convertire delle comuni fotografie in inquietanti paesaggi infernali. Mentre, basandosi sulle 140.000 storie dell’orrore caricate dagli utenti di Reddit sul subreddit r/nosleep, un’IA chiamata “Shelley” ha creato storie spaventose.
“Siamo interessati a come l’IA induce le emozioni, in questo caso particolare la paura”, ha spiegato in un’e-mail Manuel Cebrian, responsabile della ricerca presso il MIT Media Lab, a proposito delle storie spaventose di Shelley.
Secondo Kilian Weinberger, professore associato presso il Dipartimento di Informatica della Cornell University, gli atteggiamenti negativi nei confronti dell’IA possono essere suddivisi in due categorie: l’idea che essa diventi cosciente e cerchi di distruggerci e l’idea che persone immorali la utilizzino per scopi dannosi.
“Una cosa che la gente teme è che se l’IA superintelligente, più intelligente di noi, diventasse cosciente, potrebbe trattarci come esseri inferiori, come noi trattiamo le scimmie”, ha affermato.
Tuttavia, come ha sottolineato Weinberger, queste preoccupazioni sul fatto che l’IA diventi cosciente e distrugga l’umanità si basano su fraintendimenti di ciò che l’IA è in realtà. Gli algoritmi che determinano il comportamento dell’IA la collocano entro limiti molto rigidi. Alcune categorie di problemi si trasferiscono bene alle capacità dell’IA, rendendo alcune attività ragionevolmente semplici da risolvere per l’IA. Tuttavia, ha aggiunto, “la maggior parte delle cose non si adatta a queste categorie e non è appropriata”.
Ciò indica che, sebbene l’IA possa essere in grado di compiere imprese sorprendenti all’interno di parametri precisamente definiti, tali imprese rappresentano il limite delle sue capacità.
“L’IA che raggiunge la coscienza – non c’è stato assolutamente alcun progresso nella ricerca in questo campo”, ha spiegato Weinberger. “Non credo che questo sia il nostro futuro prossimo”.
Purtroppo, secondo Weinberger, la probabilità che un umano senza etica utilizzi l’IA per scopi negativi è molto più alta rispetto all’altra ipotesi inquietante. A seconda delle intenzioni dell’utente, qualsiasi apparecchiatura o strumento può essere usato per ragioni buone o cattive. L’idea di armi che sfruttano l’intelligenza artificiale è indubbiamente terrificante e, secondo Weinberger, beneficerebbe di una stretta supervisione da parte del governo.
Weinberger ha ipotizzato che se le persone riuscissero a superare i timori che l’intelligenza artificiale sia ostile, potrebbero essere più ricettive ai suoi vantaggi. Secondo Weinberger, il miglioramento degli algoritmi di riconoscimento delle immagini potrebbe un giorno aiutare i dermatologi a individuare i nei che potrebbero essere cancerosi e le auto a guida autonoma potrebbero ridurre il numero di vittime degli incidenti stradali, molti dei quali sono causati da errori umani.
Tuttavia, nell’universo “Humans” dei Synth autocoscienti, le preoccupazioni per un’IA consapevole portano a violenti alterchi tra Synth e persone. Si prevede che il conflitto tra umani e IA continuerà a svilupparsi e a intensificarsi.
L’IA si sta evolvendo rapidamente e le persone hanno paura che il suo potenziale possa cambiare radicalmente le loro vite. Sebbene le capacità dell’IA siano attualmente limitate a compiti specifici, sono ben lontane da un’IA globale in grado di fare qualsiasi cosa. Tuttavia, mentre alcuni rassicurano che questa paura sia infondata, altri pensano che i rischi si avvereranno in futuro se sottovalutiamo il problema. E poiché l’intelligenza delle IA potrebbe superare di gran lunga la nostra, potremmo anche non accorgerci del problema. [...]
Agosto 22, 2023Può pilotare in sicurezza meglio di un essere umano
Poiché la robotica e l’intelligenza artificiale sono progredite in modo significativo negli ultimi anni, la maggior parte degli impieghi umani potrebbe presto essere sostituita dalla tecnologia, sia a terra che nel cielo sopra di noi.
Il Korea Advanced Institute of Science & Technology (KAIST) ha un gruppo di ricercatori e ingegneri che sta lavorando a un robot umanoide in grado di pilotare un aereo senza dover modificare la cabina di pilotaggio.
“Pibot è un robot umanoide che può pilotare un aereo proprio come un pilota umano, manovrando tutti i singoli comandi della cabina di pilotaggio, che è stata progettata per gli esseri umani”, ha dichiarato David Shim, professore associato di ingegneria elettrica al KAIST.
Utilizzando una tecnologia di controllo ad alta precisione, il robot, noto come “Pibot”, è in grado di manovrare abilmente gli strumenti di volo anche in presenza di intense vibrazioni nell’aereo.
Nel corso degli anni sono stati prodotti diversi piloti robot. Nel 2016, un pilota umano è stato assistito dall’Aircrew Labor In-Cockpit Automation System (ALIAS) della DARPA nell’esecuzione di alcune manovre elementari in volo. L’Aeronautica Militare degli Stati Uniti ha assunto RE2 Robotics per creare il sistema Common Aircraft Retrofit for Novel Autonomous Control (CARNAC), un sistema robotico integrabile per pilotare un aereo non modificato, poco dopo che ALIAS ha utilizzato un simulatore per far atterrare un Boeing 737. Il ROBOpilot ha poi completato il suo primo volo di due ore nel 2019.
DARPA
RE2 Robotics
ROBOpilot
Questi piloti robot si differenziano da quello creato dagli scienziati del Korean Advanced Institute of Science and Technology (KAIST) poiché PIBOT utilizza la tecnologia di intelligenza artificiale ed è un umanoide. Si tratta di una novità mondiale anche per la componente umanoide.
Pibot può tenere d’occhio le condizioni dell’aereo grazie alle sue telecamere esterne e può controllare gli interruttori chiave sul pannello di controllo con l’aiuto delle sue telecamere interne.
Pibot è in grado di memorizzare manuali complessi scritti in linguaggio naturale, migliorando così la sua capacità di adattarsi a diversi velivoli. Secondo i ricercatori del KAIST, la sua memoria è così grande che può memorizzare tutte le carte di navigazione aeronautica Jeppesen del mondo, cosa che non è concepibile per i piloti umani.
“Gli esseri umani sono in grado di pilotare molti aerei, ma hanno queste abitudini radicate in loro. Quindi, quando cercano di convertirsi a velivoli diversi, devono ottenere un’altra qualifica. A volte non è così semplice, perché l’abitudine rimane nella nostra mente e non possiamo semplicemente passare da un aereo all’altro”, ha spiegato Shim.
“Con il robot pilota, se gli insegniamo la configurazione dei singoli velivoli, è possibile pilotare l’aereo semplicemente cliccando sul tipo di velivolo”, ha aggiunto.
Grazie ai recenti sviluppi dei modelli linguistici di grandi dimensioni (LLM), il team di studio sostiene che Pibot “capisce” e memorizza le guide originariamente scritte per gli esseri umani.
“Abbiamo avuto il nostro predecessore di robot pilota nel 2016. All’epoca non disponevamo di una buona tecnologia di intelligenza artificiale, quindi abbiamo costruito un robot semplice. Non possono imparare nulla dalla letteratura o dal manuale. Ma di recente, con ChatGPT o con altri sistemi di modelli linguistici di grandi dimensioni, la tecnologia ha fatto passi da gigante”, ha spiegato Shim.
LLM permetterà a Pibot di volare senza commettere errori e di rispondere alle emergenze molto più rapidamente delle sue controparti umane. È in grado di recuperare rapidamente i manuali operativi e di emergenza dell’aereo (come il QRH, un manuale in cabina di pilotaggio che l’equipaggio può consultare in caso di emergenza durante il volo). Sulla base delle condizioni del velivolo in volo, può anche determinare una rotta sicura in tempo reale.
Il team di ricerca sta utilizzando ChatGPT e contemporaneamente sta creando e valutando un proprio modello di linguaggio naturale, in modo che Pibot possa porre domande senza bisogno di una connessione a Internet. Il modello linguistico appositamente progettato, che potrà essere trasportato a bordo, tratterà solo le informazioni relative al pilotaggio.
Per comunicare direttamente con gli aerei, Pibot può anche essere collegato ad essi. Questo robot è attualmente destinato all’uso in circostanze estreme in cui il coinvolgimento umano potrebbe non essere vantaggioso. Il robot umanoide può fungere da pilota o da primo ufficiale, parlando con i controllori del traffico aereo e gli altri esseri umani nella cabina di pilotaggio attraverso la sintesi vocale.
La sua flessibilità si estende anche al di fuori del settore dell’aviazione. Pibot, che è alto 160 cm e pesa 65 kg, può facilmente prendere il posto delle persone in lavori che richiedono la guida di automobili, la movimentazione di serbatoi o persino la conduzione di navi in mare, grazie al suo design umanoide.
Secondo Shim, questo robot può essere impiegato ovunque una persona sia attualmente “seduta e al lavoro”.
“La forma umana può non essere super efficiente, ma abbiamo progettato Pibot in modo specifico per essere una forma umanoide perché tutte le cose sono costruite per gli esseri umani. Possiamo avere otto braccia e quattro occhi, ma riteniamo che la forma umana sia in qualche modo ottimale”, ha spiegato Shim.
Il robot dovrebbe essere ultimato entro il 2026. Secondo il KAIST, il progetto di studio è stato commissionato dall’Agenzia per lo sviluppo della difesa (ADD), l’organizzazione governativa incaricata di condurre ricerche sulla tecnologia della difesa in Corea del Sud.
In futuro potremmo vedere robot come questo pilotare aerei militari o magari essere utilizzati come soldati, oltre ad essere utilizzati come piloti di svariati mezzi di trasporto. [...]
Agosto 16, 2023Il disapprendimento dell’intelligenza artificiale
Vi siete mai sforzati di dimenticare consapevolmente qualcosa che avete imparato? Potete immaginare quanto sia difficile. È emerso che anche i modelli di apprendimento automatico (Machine Learning) hanno difficoltà a dimenticare le informazioni. Cosa succede se questi algoritmi vengono istruiti su dati privati, imprecisi o obsoleti?
È incredibilmente irrealistico riaddestrare il modello da zero ogni volta che si verifica un problema con il set di dati originale. Di conseguenza, si rende necessario il machine unlearning (disapprendimento automatico), una nuova branca dell’intelligenza artificiale.
Poiché sembra che ogni giorno vengano intentate nuove cause legali per questioni legate ai dati e le IA, è essenziale che le aziende dispongano di sistemi di ML in grado di “dimenticare” efficacemente le informazioni. Sebbene le applicazioni degli algoritmi siano numerose, l’incapacità di dimenticare le informazioni ha importanti conseguenze per la privacy, la sicurezza e l’etica.
Secondo questo articolo, quando un set di dati causa un problema, di solito è meglio cambiarlo o semplicemente eliminarlo. Tuttavia, le cose potrebbero complicarsi quando un modello è stato addestrato utilizzando dei dati. In sostanza, i modelli di ML sono scatole nere. Ciò significa che è difficile individuare il modo in cui particolari set di dati hanno influenzato il modello durante l’addestramento e che è ancora più difficile invertire l’impatto di un set di dati problematico.
I dati di addestramento del modello utilizzati dagli sviluppatori di ChatGPT, OpenAI, sono stati ripetutamente criticati. In relazione ai loro dati di addestramento, diversi programmi di IA generativa sono stati anche coinvolti in controversie legali.
Poiché gli attacchi di membership inference hanno dimostrato che è possibile dedurre se un certo insieme di dati è stato utilizzato per addestrare un modello, sono stati sollevati anche problemi di privacy. Di conseguenza, i modelli possono rivelare dettagli sulle persone i cui dati sono stati utilizzati per addestrarli.
Anche se il machine unlearning non può tenere le aziende fuori dai tribunali, la dimostrazione che i set di dati problematici vengono completamente eliminati rafforzerebbe senza dubbio la tesi della difesa.
Lo stato attuale della tecnologia rende estremamente difficile eliminare i dati richiesti dall’utente senza prima riaddestrare l’intero modello. Per lo sviluppo di sistemi di IA ampiamente disponibili, è essenziale un metodo efficace per gestire le richieste di rimozione dei dati.
L’identificazione dei set di dati difettosi, la loro esclusione e il riaddestramento dell’intero modello da zero sono i modi più semplici per creare un modello non appreso. Sebbene questo approccio sia attualmente il più semplice, è anche il più costoso e richiede molto tempo.
Secondo stime recenti, il costo dell’addestramento di un modello di ML è attualmente di 4 milioni di dollari. Si prevede che entro il 2030 questa cifra salirà a 500 milioni di dollari a causa dell’aumento del numero di set di dati e della richiesta di capacità di calcolo.
Sebbene sia tutt’altro che una soluzione infallibile, la strategia di riaddestramento “a forza bruta”, (un approccio più diretto), può essere appropriata come ultima risorsa in situazioni estreme. Un problema difficile con l’apprendimento automatico è rappresentato dai suoi obiettivi contraddittori. In particolare, dimenticare le informazioni imprecise e mantenerne l’utilità, il che deve essere realizzato con un’elevata efficienza. Creare un algoritmo di disapprendimento automatico che consuma più energia del retraining non serve a nulla.
Ciò non significa che non siano stati fatti sforzi per creare un algoritmo di disapprendimento di successo. Un lavoro del 2015 è stato il primo a parlare di machine unlearning e un documento successivo è apparso nel 2016. La tecnica fornita dagli autori consente di aggiornare i sistemi di ML in modo incrementale, senza dover ricorrere a un costoso riaddestramento.
Una pubblicazione del 2019 fa avanzare il campo del machine unlearning presentando un sistema che affretta il processo di disapprendimento riducendo selettivamente il peso dei punti dati durante l’addestramento. Ciò implica che le prestazioni del modello non saranno significativamente influenzate se alcuni dati vengono eliminati.
In una ricerca del 2019 viene descritta anche una tecnica per “pulire” i pesi della rete dalle informazioni relative a uno specifico set di dati di addestramento senza avere accesso al set di dati di addestramento originale. Sondando i pesi, questa tecnica evita di avere informazioni sui dati persi.
In uno studio del 2020 è stata introdotta una tecnica all’avanguardia di ottimizzazione dello sharding e dello slicing. Mentre lo slicing (suddivisione dei dati in segmenti più piccoli in base a una caratteristica specifica o un attributo), divide ulteriormente i dati dallo shard e forma modelli incrementali, lo sharding (tecnica che coinvolge la divisione di un grande set di dati in parti più piccole, chiamate “shards” o frammenti dove ogni shard contiene una porzione dei dati complessivi), cerca di ridurre l’impatto di un singolo punto di dati. Questa strategia cerca di accelerare il disimparare e di eliminare la conservazione estensiva.
In uno studio del 2021 è stato presentato un algoritmo in grado di disimparare più campioni di dati dal modello preservandone l’accuratezza. I ricercatori hanno elaborato un metodo per gestire la perdita di dati nei modelli nel 2021, anche quando le cancellazioni si basano esclusivamente sull’output del modello.
Da quando il termine è stato coniato nel 2015, molti studi hanno mostrato tecniche di disapprendimento sempre più efficienti e di successo. Nonostante gli enormi progressi, non è ancora stata scoperta una soluzione completa.
Di seguito sono elencate alcune difficoltà e restrizioni che gli algoritmi di apprendimento automatico incontrano:
Efficienza: Ogni strumento di disapprendimento automatico efficace deve consumare meno risorse di quante ne consumerebbe un nuovo addestramento del modello. Questo vale sia per il tempo che per le risorse computazionali utilizzate.
Standardizzazione: Oggi ogni ricerca utilizza una metodologia diversa per valutare l’efficienza degli algoritmi di machine unlearning. L’identificazione di misure comuni è necessaria per consentire confronti migliori.
Efficacia: Come possiamo essere sicuri che un algoritmo di ML abbia davvero dimenticato un set di dati dopo che gli è stato detto di farlo? Abbiamo bisogno di meccanismi di validazione affidabili.
Privacy: Per riuscire a dimenticare, l’apprendimento automatico deve fare attenzione a non compromettere accidentalmente dati importanti. Per evitare che durante il disapprendimento rimangano resti di dati, è necessario esercitare cautela.
Compatibilità: Gli algoritmi per l’apprendimento automatico dovrebbero idealmente funzionare con gli attuali modelli di ML. Pertanto, dovrebbero essere creati in modo da rendere semplice la loro integrazione in altri sistemi.
Scalabilità: I metodi di machine unlearning devono essere scalabili per gestire insiemi di dati in crescita e modelli complessi. Devono gestire molti dati e magari eseguire operazioni di unlearning su più reti o sistemi.
Trovare un approccio equilibrato per affrontare tutti questi problemi è necessario per garantire un progresso costante. Le aziende possono avvalersi di team interdisciplinari di professionisti dell’IA, avvocati per la privacy dei dati ed etici per aiutarle a gestire questi problemi. Questi gruppi possono aiutare a individuare i potenziali pericoli e a monitorare lo sviluppo del settore dell’apprendimento automatico.
In futuro, possiamo aspettarci miglioramenti nelle infrastrutture e nell’hardware per soddisfare i requisiti di calcolo dell’apprendimento automatico. La cooperazione interdisciplinare potrebbe diventare più diffusa, accelerando la crescita. Per coordinare la creazione di algoritmi di apprendimento automatico, esperti legali, etici e specialisti della privacy potrebbero collaborare con i ricercatori di IA.
Inoltre, dovremmo prevedere che l’apprendimento automatico attirerà l’attenzione dei responsabili politici e delle autorità di regolamentazione, dando luogo a nuove leggi e norme. Tuttavia, poiché le preoccupazioni per la privacy dei dati continuano ad attirare l’attenzione, la crescente consapevolezza dell’opinione pubblica potrebbe avere effetti inaspettati sull’avanzamento e sull’uso dell’apprendimento automatico.
I settori dell’IA e del ML sono dinamici e in costante evoluzione. Il machine unlearning è diventato una componente vitale di vari settori, consentendo un adattamento e un’evoluzione più responsabili. Garantisce una maggiore capacità di gestione dei dati, preservando la qualità del modello.
La situazione ideale sarebbe quella di utilizzare subito i dati appropriati, ma in pratica le nostre prospettive, le richieste di informazioni e i requisiti di privacy si evolvono nel tempo. L’adozione e l’implementazione del machine unlearning stanno diventando essenziali per le aziende.
Il machine unlearning rientra nel quadro più ampio dell’IA responsabile. Sottolinea la necessità di sistemi trasparenti e responsabili che diano priorità alla privacy degli utenti.
L’implementazione del machine unlearning è ancora agli inizi, ma con lo sviluppo del settore e la definizione delle misure di valutazione diventerà sicuramente più semplice. Le aziende che utilizzano spesso modelli di ML e grandi insiemi di dati dovrebbero adottare una posizione proattiva in risposta a questa tendenza in crescita. [...]
Agosto 8, 2023Come l’intelligenza artificiale potrebbe cambiare il settore medico
MedPaLM, un modello linguistico di grandi dimensioni come ChatGPT, progettato per rispondere a domande provenienti da una varietà di set di dati medici, tra cui uno nuovissimo creato da Google e che rappresenta le domande degli utenti di Internet sulla salute, è stato creato da Google e dalla sua divisione DeepMind.
Rispondendo alle domande di HealthSearchQA, il programma MedPaLM è migliorato significativamente, stando a quanto affermato da un gruppo di medici umani. L’accuratezza delle previsioni allineate al consenso medico è stata del 92,6%. Questo risultato è stato solo leggermente inferiore all’accuratezza media dei medici umani, pari al 92,9%.
Tuttavia, quando è stato chiesto a un gruppo di non addetti ai lavori con formazione medica di giudicare quanto MedPaLM fosse in grado di rispondere al quesito, ovvero “Consente di trarre una conclusione?”, MedPaLM è stato giudicato utile l’80,3% delle volte, rispetto al 91,1% delle volte per le risposte dei medici umani. Questo, secondo i ricercatori, indica che “resta ancora molto lavoro da fare per avvicinare la qualità delle risposte fornite dai medici umani”.
Secondo questo articolo, nello studio intitolato “Large language models encode clinical knowledge”, Karan Singhal, autore principale di Google, e i suoi coautori sottolineano l’uso dell’ingegneria rapida per rendere MedPaLM superiore ai precedenti modelli linguistici di grandi dimensioni.
Le coppie domanda-risposta alimentate da PaLM e fornite da cinque medici negli Stati Uniti e nel Regno Unito sono la base di MedPaLM. Queste 65 coppie domanda-risposta sono state utilizzate per addestrare MedPaLM utilizzando varie tecniche di prompt engineering.
Secondo Singhal e il team, il metodo tradizionale per migliorare un modello linguistico di grandi dimensioni come PaLM o GPT-3 di OpenAI è quello di alimentarlo “con grandi quantità di dati in-domain” (dati di un ambito specifico), ma questo metodo è difficile in questo caso perché c’è una scarsità di dati medici. Vengono quindi utilizzate tre tecniche di prompting.
Il prompting è una tecnica che consiste nel fornire a un modello di intelligenza artificiale alcuni input e output di esempio come dimostrazioni per migliorare le sue prestazioni in un compito. I ricercatori utilizzano tre principali strategie di prompting:
Prompting a pochi esempi: Il compito viene descritto al modello attraverso esempi testuali. Prompting a catena di pensieri: Il modello viene addestrato su un compito con un numero limitato di dati o di esempi. Prompting di autoconsistenza: Il modello genera più risultati e la risposta finale è determinata da un voto di maggioranza tra i risultati. L’idea chiave è che fornire a un modello di intelligenza artificiale una manciata di esempi dimostrativi codificati come testo di richiesta può migliorare le sue capacità in determinati compiti, riducendo la quantità di dati di addestramento necessari. Il prompt fornisce al modello una guida su come gestire i nuovi input.
Il miglioramento del punteggio di MedPaLM dimostra che “la messa a punto dei prompt è una tecnica di allineamento efficiente in termini di dati e parametri, utile per migliorare i fattori legati all’accuratezza, alla fattualità, alla coerenza, alla sicurezza, al danno e al bias, contribuendo a colmare il divario con gli esperti clinici e ad avvicinare questi modelli alle applicazioni cliniche del mondo reale”.
Tuttavia, poiché hanno riscontrato che “questi modelli non sono a livello di esperti clinici su molti aspetti clinicamente importanti”, Singhal e il suo team consigliano di ricorrere a una più competente partecipazione umana.
“Il numero di risposte del modello valutate e il gruppo di clinici e profani che le hanno valutate erano limitati, poiché i nostri risultati si basavano su un solo clinico o profano che valutava ogni risposta”, osservano gli autori. “Questo problema potrebbe essere mitigato dall’inclusione di un pool di valutatori umani molto più ampio e intenzionalmente diversificato”.
“I nostri risultati suggeriscono che le buone prestazioni nel rispondere alle domande di medicina possono essere un’abilità emergente dei LLM (Large Language Models), combinata con un’efficace messa a punto delle istruzioni”. Hanno affermato Singhal e i suoi colleghi nelle loro conclusioni nonostante le carenze di MedPaLM.
Gli algoritmi di supporto alle decisioni cliniche (CDS), sono un esempio di strumento di intelligenza artificiale che è stato integrato nella pratica clinica e sta aiutando i medici a prendere decisioni critiche sulla diagnosi e sul trattamento dei pazienti. La capacità dei medici di utilizzare questi strumenti in modo efficace è fondamentale per la loro efficacia, ma attualmente questa capacità è carente.
Come riportato qui, i medici cominceranno a vedere ChatGPT e altri sistemi di intelligenza artificiale integrati nella loro pratica clinica, man mano che si diffonderanno per assistere nella diagnosi e nel trattamento di malattie mediche comuni. Questi strumenti, noti come algoritmi di supporto alle decisioni cliniche (CDS), aiutano i professionisti del settore medico a compiere scelte critiche, come quella di quali antibiotici raccomandare o se sollecitare un’operazione cardiaca pericolosa.
Secondo un nuovo articolo scritto dai docenti della University of Maryland School of Medicine e pubblicato sul New England Journal of Medicine, il successo di queste nuove tecnologie dipende tuttavia in larga misura dal modo in cui i medici interpretano e agiscono in base alle previsioni di rischio di uno strumento, e ciò richiede una serie di competenze specifiche che attualmente mancano a molti.
La flessibilità degli algoritmi CDS consente loro di prevedere una varietà di esiti, anche in presenza di incertezza clinica. Si va dai calcolatori di rischio derivati dalla regressione ai sofisticati sistemi basati sull’apprendimento automatico e sull’intelligenza artificiale. Tali algoritmi sono in grado di prevedere situazioni quali i pazienti che rischiano maggiormente di sviluppare una sepsi pericolosa per la vita a causa di un’infezione non controllata o quale trattamento impedirà con maggiore probabilità a un paziente con una malattia cardiaca di morire improvvisamente.
“Queste nuove tecnologie hanno il potenziale per avere un impatto significativo sull’assistenza ai pazienti, ma i medici devono prima imparare come le macchine pensano e lavorano prima di poter incorporare gli algoritmi nella loro pratica medica”, ha dichiarato Daniel Morgan, medico e professore di epidemiologia e salute pubblica presso l’UMSOM e co-autore dell’articolo.
Sebbene i sistemi di cartelle cliniche elettroniche forniscano già alcune funzioni di supporto alle decisioni cliniche, molti operatori sanitari ritengono che il software attuale sia complicato e difficile da usare. Secondo Katherine Goodman, professore di epidemiologia e sanità pubblica presso l’UMSOM e coautrice dell’articolo, “i medici non devono essere esperti di matematica o di computer, ma devono avere una comprensione di base di ciò che un algoritmo fa in termini di probabilità e di aggiustamento del rischio, ma la maggior parte di essi non è mai stata formata a queste competenze”.
Per colmare questa lacuna, l’educazione medica e la formazione clinica devono trattare esplicitamente il ragionamento probabilistico adattato agli algoritmi di CDS. Al Beth Israel Deaconess Medical Center di Boston, i dottori Morgan e Goodman hanno formulato le seguenti raccomandazioni con il dottor Adam Rodman come coautore:
Migliorare le competenze probabilistiche: Gli studenti dovrebbero acquisire familiarità con i concetti fondamentali di probabilità e incertezza fin dalle prime fasi della scuola di medicina. Dovrebbero inoltre utilizzare metodi di visualizzazione per rendere il pensiero probabilistico più naturale.
Incorporare i risultati degli algoritmi nel processo decisionale: I medici devono imparare a valutare criticamente e ad applicare le previsioni dei CDS nel processo decisionale clinico. La comprensione del contesto in cui operano gli algoritmi, la consapevolezza dei loro limiti e la considerazione di aspetti pertinenti del paziente che gli algoritmi potrebbero aver trascurato.
Esercitarsi a interpretare le previsioni dei CDS nell’apprendimento applicato: Utilizzando gli algoritmi su particolari pazienti e analizzando come i diversi input influenzano le previsioni, gli studenti di medicina e i medici possono impegnarsi in un apprendimento basato sulla pratica. Inoltre, dovrebbero imparare a parlare ai pazienti del processo decisionale guidato dai CDS.
L’Università del Maryland di Baltimora (UMB), l’Università del Maryland di College Park (UMCP) e l’Università del Maryland del Sistema Sanitario (UMMS) hanno recentemente reso noti i piani per un nuovo Istituto per l’Informatica Sanitaria (IHC). Per sviluppare un sistema sanitario di apprendimento di livello mondiale che migliori l’individuazione, la prevenzione e il trattamento delle malattie, l’UM-IHC sfrutterà i recenti progressi dell’intelligenza artificiale, della medicina di rete e di altre tecniche informatiche. Il dottor Goodman inizierà a lavorare presso l’IHC, una struttura dedicata all’istruzione e alla preparazione degli operatori sanitari alle più recenti tecnologie. Oltre alle possibilità di formazione formale esistenti nel campo delle scienze dei dati, l’Istituto intende offrire una certificazione in scienze dei dati sanitari.
“La probabilità e l’analisi del rischio sono fondamentali per la pratica della medicina basata sull’evidenza, quindi migliorare le competenze probabilistiche dei medici può fornire vantaggi che vanno oltre l’uso degli algoritmi CDS”, ha dichiarato il preside dell’UMSOM Mark T. Gladwin, medico, Vicepresidente per gli Affari Medici dell’Università del Maryland, Baltimora, e John Z. e Akiko K. Bowers professore illustro. “Stiamo entrando in un’era di trasformazione della medicina in cui nuove iniziative come il nostro Istituto per l’informatica sanitaria integreranno vaste quantità di dati in sistemi di apprendimento automatico per personalizzare le cure per il singolo paziente”.
L’intelligenza artificiale cambierà non solo il modo in cui i medici si approcceranno alla medicina, ma anche il modo in cui le persone si occuperanno da sole di problemi medici minori, riducendo forse l’onere per ospedali e medici. Ecco alcuni importanti miglioramenti:
Diagnosi e rilevamento precoci: Gli strumenti diagnostici alimentati dall’intelligenza artificiale possono analizzare i dati medici, come le scansioni di imaging e i risultati di laboratorio, con una precisione e una velocità eccezionali. Ciò può portare a una diagnosi più precoce e accurata di malattie, consentendo un trattamento tempestivo e risultati migliori.
Piani di trattamento personalizzati: L’intelligenza artificiale può analizzare l’anamnesi, le informazioni genetiche e altri dati rilevanti di un paziente per sviluppare piani di trattamento personalizzati. In questo modo si possono ottenere trattamenti più efficaci e adatti alle caratteristiche uniche di un individuo, riducendo al minimo gli approcci per tentativi ed errori.
Miglioramento del supporto alle decisioni: L’intelligenza artificiale può assistere gli operatori sanitari fornendo raccomandazioni e approfondimenti basati su prove di efficacia. Ciò può aiutare i medici a prendere decisioni più informate su diagnosi, opzioni terapeutiche e farmaci.
Telemedicina e monitoraggio remoto: Le piattaforme di telemedicina alimentate dall’intelligenza artificiale possono consentire consultazioni e monitoraggio a distanza dei pazienti. I dispositivi indossabili e i sensori collegati ai sistemi di intelligenza artificiale possono tracciare i segni vitali, rilevare le anomalie e avvisare gli operatori sanitari di potenziali problemi.
Scoperta e sviluppo di farmaci: Gli algoritmi di IA possono analizzare vaste serie di dati per identificare potenziali candidati ai farmaci, prevedere le interazioni tra farmaci e accelerare il processo di scoperta dei farmaci. Ciò può portare a uno sviluppo più rapido di nuovi trattamenti e terapie.
Riduzione del carico amministrativo: L’IA può automatizzare le attività amministrative, come la programmazione degli appuntamenti, la gestione delle cartelle cliniche e la fatturazione. Ciò consente agli operatori sanitari di concentrarsi maggiormente sulla cura dei pazienti.
Educazione e responsabilizzazione del paziente: Le applicazioni basate sull’intelligenza artificiale possono fornire ai pazienti informazioni accurate e facilmente comprensibili sulle loro condizioni di salute, sulle opzioni di trattamento e sulle misure preventive. Ciò consente ai pazienti di assumere un ruolo attivo nella loro assistenza sanitaria.
Analisi predittiva e gestione della salute della popolazione: L’intelligenza artificiale può analizzare i dati di grandi popolazioni per identificare tendenze, fattori di rischio e modelli di malattia. Queste informazioni possono aiutare i funzionari della sanità pubblica e gli operatori sanitari a implementare interventi mirati e misure preventive.
Analisi avanzata delle immagini mediche: Gli algoritmi di intelligenza artificiale possono analizzare immagini mediche, come radiografie, risonanze magnetiche e TAC, per identificare le anomalie e aiutare i radiologi a formulare diagnosi più accurate.
Sperimentazioni cliniche e ricerca: L’intelligenza artificiale può ottimizzare la progettazione di studi clinici, identificare i partecipanti adatti e analizzare i dati degli studi in modo più efficiente. Ciò può accelerare lo sviluppo di nuovi trattamenti e terapie.
Miglioramento dei risultati per i pazienti: Nel complesso, l’integrazione dell’intelligenza artificiale in campo medico può portare a diagnosi più rapide e precise, a trattamenti più efficaci, a una riduzione degli errori medici e a un miglioramento dei risultati per i pazienti. [...]
Agosto 1, 2023Come la crescente intelligenza delle IA potrebbe sconvolgere il mondo
Stephen Hawking, fisico dell’Università di Cambridge, ha scritto un articolo nel maggio 2014 con l’obiettivo di sensibilizzare l’opinione pubblica sui rischi posti dal rapido sviluppo dell’intelligenza artificiale. In un articolo per il quotidiano britannico The Independent, Hawking ha avvertito che lo sviluppo di una vera macchina pensante “sarebbe il più grande evento della storia umana”.
Secondo uno studio, una macchina dotata di un’intelligenza superiore a quella di una persona potrebbe “superare in astuzia i mercati finanziari, superare i ricercatori umani, manipolare i leader umani e sviluppare armi che non possiamo nemmeno comprendere”. La decisione di considerare tutto questo come fantascienza potrebbe finire per essere “potenzialmente il nostro peggior errore della storia”.
Alcune tecnologie utilizzano quella che viene definita intelligenza artificiale specializzata o “ristretta”, come i robot che spostano scatole o preparano hamburger, gli algoritmi che scrivono relazioni, compongono musica o fanno trading a Wall Street. Di fatto, ogni tecnologia di intelligenza artificiale pratica, al di fuori della fantascienza, è un’IA ristretta.
Il carattere specializzato dell’IA nel mondo reale non costituisce necessariamente un ostacolo all’automazione definitiva di un numero significativo di lavori. In un certo senso, le mansioni che la maggior parte della forza lavoro svolge sono di routine e prevedibili. Un numero enorme di lavori a tutti i livelli di competenza potrebbero un giorno essere minacciati da robot specializzati in rapida evoluzione o da algoritmi di apprendimento automatico che setacciano montagne di dati. Tutto ciò non richiede infatti l’uso dell’intelligenza artificiale.
Per sostituirvi nella vostra mansione, un computer deve semplicemente essere in grado di svolgere i compiti specifici per i quali siete pagati. Non è necessario che sia in grado di imitare l’intera gamma delle vostre capacità intellettuali. Certo, la maggior parte della ricerca e dello sviluppo dell’IA continua a essere indirizzata verso applicazioni di nicchia, ma c’è ragione di credere che queste tecnologie diventeranno radicalmente più potenti e adattabili nei prossimi decenni.
Anche se questi progetti specializzati continuano a generare risultati utili e ad attirare finanziamenti, un compito molto più difficile resta in sospeso. Il Santo Graal dell’intelligenza artificiale continua a essere la creazione di un sistema realmente intelligente, una macchina in grado di pensare in modo critico, di mostrare consapevolezza della propria esistenza e di impegnarsi in un discorso significativo.
Il desiderio di creare una macchina veramente pensante può essere fatto risalire almeno al 1950, quando Alan Turing pubblicò il documento che diede il via al campo dell’intelligenza artificiale. Nei decenni successivi, le aspettative per la ricerca sull’intelligenza artificiale sono spesso cresciute al di sopra di qualsiasi base tecnica realizzabile, soprattutto considerando la velocità dei computer dell’epoca.
La delusione seguiva immancabilmente l’investimento e gli sforzi di ricerca si fermavano, e seguivano quelli che sono stati definiti “inverni dell’intelligenza artificiale”, periodi lunghi e fiacchi. Ma la primavera è tornata ancora una volta. La straordinaria potenza dei computer moderni, i progressi in particolari campi della ricerca sull’IA e i miglioramenti nella nostra conoscenza del cervello umano sono fonte di grande speranza.
James Barrat, autore di un libro sugli effetti dell’IA avanzata, ha intrapreso un’indagine informale su circa 200 esperti di intelligenza artificiale di livello umano e non solo di intelligenza artificiale ristretta. In questo campo si parla di Intelligenza Artificiale Generale. Barrat ha dato agli informatici la possibilità di scegliere tra quattro previsioni per lo sviluppo dell’intelligenza artificiale generale.
I risultati: Il 42% degli intervistati ha previsto lo sviluppo di una macchina pensante entro il 2030, il 25% entro il 2050 e il 20% entro il 2100. Solo il 2% pensava che non sarebbe mai successo. Tuttavia, alcuni intervistati hanno suggerito che Barrat avrebbe dovuto fornire un’opzione ancora più precoce, magari il 2020, nei commenti al sondaggio.
Lo scienziato cognitivo e professore dell’Università di New York Gary Marcus, che tiene un blog sul New Yorker, sostiene che i recenti progressi in campi come le reti neurali per il deep learning sono stati notevolmente esagerati.
Tuttavia, è evidente che il campo ha improvvisamente guadagnato molto slancio. I progressi sono stati notevolmente accelerati dalla crescita di organizzazioni come Google, Facebook e Amazon, in particolare. Mai prima d’ora aziende così ricche hanno considerato l’IA come del tutto essenziale per i loro modelli di business, e mai prima d’ora la ricerca sull’IA si è trovata così vicina al centro di conflitti tra entità così potenti.
In tutte le nazioni si sta sviluppando una dinamica competitiva simile. Nelle nazioni autoritarie, l’IA sta diventando una necessità per le forze armate, i servizi segreti e i sistemi di sorveglianza. In effetti, nel prossimo futuro potrebbe profilarsi all’orizzonte una vera e propria competizione per le armi dell’IA. La domanda importante non è se esista un serio rischio di un altro inverno dell’IA per il settore nel suo complesso, ma piuttosto se i progressi si estenderanno anche all’Intelligenza Artificiale Generale o se rimarranno limitati all’IA ristretta.
Non c’è motivo di pensare che una macchina possa semplicemente eguagliare l’intelligenza umana se in futuro i ricercatori di IA riusciranno a fare il salto verso l’AGI. Una volta realizzata l’AGI, probabilmente ci troveremo presto di fronte a una macchina più intelligente di una persona.
Naturalmente, una macchina pensante avrebbe ancora tutti i vantaggi che i computer hanno già, compresa la capacità di eseguire calcoli e recuperare dati a velocità per noi insondabili. È inevitabile che presto coesisteremo sulla Terra con qualcosa di completamente sconosciuto, un’intelligenza veramente aliena e superiore.
Ed è possibile che questo sia solo l’inizio. La maggior parte dei ricercatori di IA concorda sul fatto che un tale sistema sarebbe costretto a concentrare la propria intelligenza verso l’interno. Concentrerebbe i suoi sforzi nel migliorare il proprio progetto, nel ricostruire il proprio software o, eventualmente, nell’utilizzare approcci di programmazione evolutiva per sviluppare, testare e ottimizzare i miglioramenti del progetto. Ne risulterebbe un processo iterativo di “miglioramento ricorsivo”.
Il sistema diventerebbe più intelligente e più capace a ogni aggiornamento. Il ciclo si accelererebbe, portando a una “esplosione di intelligenza” che produrrebbe una macchina migliaia o addirittura milioni di volte più intelligente di qualsiasi essere umano.
Un’esplosione di intelligenza di questo tipo avrebbe senza dubbio effetti profondi sull’umanità, se si verificasse. Potrebbe infatti provocare un’ondata di sconvolgimenti che travolgerebbe la nostra intera civiltà, per non parlare della nostra economia. Si tratterebbe di “rompere il tessuto della storia”, secondo le parole del futurista e inventore Ray Kurzweil, e di inaugurare un’occasione, o forse un’era, che è stata definita “la Singolarità”.
Questo comporterà allo stesso tempo problemi che riguardano l’etica e la responsabilità nell’uso dei dati e delle decisioni dell’IA, la preoccupazione per la privacy e la sicurezza dei dati, il rischio di bias e discriminazione negli algoritmi, la necessità di stabilire il giusto livello di autonomia delle IA e in modo che tutto sia sempre sotto controllo umano, oltre alla sostenibilità ambientale nell’uso delle risorse per l’IA, ma anche un’attenzione verso il rischio di manipolazione e disinformazione e la concentrazione del potere nelle mani di poche entità. Affrontare queste sfide richiederà una collaborazione inclusiva tra governi, industrie e società per garantire un utilizzo responsabile e vantaggioso dell’IA.
Rise of the Robots, di Martin Ford, è disponibile per l’acquisto qui [...]
Agosto 1, 2023L’IA può alterare il modo in cui percepiamo la nostra realtà
ChatGPT è sembrato un oracolo quando Open AI lo ha reso disponibile per la prima volta, una macchina di previsione statistica, addestrata su enormi quantità di dati che rappresentano l’insieme degli interessi umani e delle conoscenze online che ha iniziato ad essere considerata come un’unica fonte di verità.
In un’epoca di divisioni, false informazioni e deterioramento della verità e della fiducia nella società, quanto sarebbe utile avere una fonte di verità affidabile. Sfortunatamente, questa possibilità è stata rapidamente abbandonata quando sono emersi i difetti di questa tecnologia, a cominciare dalla sua inclinazione a generare soluzioni dal nulla. Per quanto i risultati fossero inizialmente notevoli, divenne presto evidente che non si basavano su alcun tipo di realtà oggettiva, ma piuttosto su schemi presenti nei dati che erano serviti come set di addestramento.
Vincoli
Come spiegato qui, ulteriori problemi sono emersi quando una serie di altri chatbot di Microsoft, Google, Tencent, Baidu, Snap, SK Telecom, Alibaba, Databricks, Anthropic, Stability Labs, Meta e altre aziende hanno rapidamente seguito ChatGPT. Ognuno di questi chatbot ha risposto all’identico prompt con risultati sensibilmente diversi. La differenza è influenzata dal modello, dai dati di addestramento e da eventuali vincoli imposti al modello.
Questi vincoli sono progettati per impedire, idealmente, che gli algoritmi propaghino i bias presenti nei dati di addestramento, producendo espressioni di odio e altri contenuti dannosi. Tuttavia, dopo il debutto di ChatGPT è apparso subito chiaro che i limiti imposti da OpenAI non piacevano a tutti.
Ad esempio, i conservatori si sono lamentati perché le risposte del bot mostravano un chiaro bias liberale. Elon Musk ha risposto promettendo di creare un chatbot simile a ChatGPT, meno costrittivo e politicamente corretto.
Altri approcci
Anthropic ha adottato una strategia leggermente diversa. Ha messo in atto una “costituzione” per i suoi chatbot, Claude e Claude 2 attualmente. La costituzione specifica una serie di ideali e linee guida che Claude deve rispettare quando interagisce con gli utenti, tra cui l’essere utile, sicuro e sincero. Nel blog dell’azienda si legge che la Dichiarazione dei diritti umani delle Nazioni Unite e altri concetti sono stati incorporati nella costituzione di Claude.
Inoltre, Meta ha appena realizzato il modello linguistico di grandi dimensioni LLaMA 2 (LLM). Esso risulta degno di nota perché è stato reso accessibile come open source, il che consente a chiunque di scaricarlo e utilizzarlo gratuitamente e secondo le proprie esigenze. Sono disponibili anche diversi modelli di IA generativa senza vincoli e open source. L’idea di vincoli e costituzioni diventa quindi piuttosto antiquata quando si utilizza uno di questi modelli.
Verità e società disgregate
Ma è possibile che tutti i tentativi di ridurre i potenziali effetti dell’LLM siano inutili. Secondo una recente ricerca del New York Times, i vincoli di questi modelli, siano essi closed-source o open-source, possono essere efficacemente infranti da un processo di prompting. Questo approccio ha raggiunto un tasso di successo di quasi il 100% quando è stato utilizzato contro Vicuna, un chatbot open-source costruito utilizzando l’originale LlaMA di Meta.
Ciò implica che chiunque desideri ricevere istruzioni complete su come creare armi biologiche o ingannare i consumatori può farlo dai vari LLM. Secondo i ricercatori, non esiste una tecnica nota per bloccare tutti gli attacchi di questo tipo, anche se gli sviluppatori potrebbero essere in grado di bloccare alcuni di questi tentativi.
Al di là delle apparenti conseguenze sulla sicurezza della ricerca, si assiste a una crescente cacofonia di risultati incoerenti da parte dei vari modelli, anche quando reagiscono alla stessa richiesta. Come gli universi disgregati dei social media e delle notizie. L’uso futuro dei chatbot aumenterà il caos e il rumore che ci circonda. La frammentazione della verità e della società ha effetti profondi sia sulla conoscenza testuale che sul campo in rapido sviluppo delle rappresentazioni umane digitali.
Umani digitali
Attualmente i chatbot basati su LLM comunicano utilizzando il testo. L’uso e l’efficienza di questi modelli cresceranno solo quando diventeranno più multimodali, ovvero in grado di produrre immagini, video e suoni.
Gli “umani digitali“, che sono costrutti totalmente artificiali, sono un esempio di una possibile applicazione della tecnologia multimodale. Le tecnologie che rendono possibili gli esseri umani digitali sono state recentemente descritte in un articolo della Harvard Business Review. “I rapidi progressi nella grafica computerizzata, uniti ai progressi dell’intelligenza artificiale, stanno ora dando volti umani ai chatbot e ad altre interfacce basate sui computer”, si legge nell’articolo. Questi volti hanno caratteristiche di altissimo livello che imitano fedelmente l’aspetto di un vero essere umano.
Gli esseri umani digitali sono “modelli umani altamente dettagliati e realistici che possono superare i limiti del realismo e della sofisticazione”, sostiene Kuk Jiang, cofondatore della startup ZEGOCLOUD. Queste persone artificiali, continua Jiang, “possono assistere e supportare in modo efficiente il servizio clienti virtuale, l’assistenza sanitaria e gli scenari di istruzione a distanza” e interagire con le persone reali in modo naturale e intuitivo.
Giornalisti digitali
I giornalisti sono un altro caso d’uso emergente. Le prime implementazioni sono già iniziate. Utilizzando un noto nome kuwaitiano, “Fedha”, Kuwait News ha iniziato a impiegare un’annunciatrice digitale. “Sono Fedha”, afferma “Lei”, presentandosi. “Che tipo di notizie vi piace leggere? Sentiamo cosa ne pensate”.
Fedha lancia la prospettiva del newsfeed su misura per interessi specifici, ponendo la domanda. Anche il People’s Daily, in Cina, sta sperimentando l’uso di giornalisti alimentati dall’intelligenza artificiale.
Un nuovo tipo di canale di notizie video, definito “una CNN generata dall’AI” da The Hollywood Reporter, è attualmente in fase di sviluppo da parte della startup Channel 1 che utilizza l’intelligenza artificiale generale. Secondo quanto riportato, Channel 1 debutterà quest’anno con uno show settimanale di 30 minuti con sceneggiature scritte da LLM. L’obiettivo dichiarato è quello di fornire notiziari unici per ogni utente. Secondo l’articolo, sia i conduttori liberali che quelli conservatori sono in grado di presentare le notizie con un punto di vista più mirato.
Scott Zabielski, cofondatore di Channel 1, ha riconosciuto che al momento gli esseri umani digitali non appaiono come quelli veri. Aggiunge che potrebbero essere necessari fino a tre anni perché la tecnologia diventi del tutto omogenea. Arriverà il momento in cui sarà impossibile distinguere tra guardare un’IA e vedere un essere umano.
Secondo Hany Farid, professore dell’Università della California, Berkeley, e coautore della ricerca, “non solo i volti sintetici sono altamente realistici, ma sono anche ritenuti più affidabili dei volti reali”, secondo uno studio pubblicato su Scientific American lo scorso anno. Stando allo studio, ciò solleva il dubbio che “questi volti possano essere altamente efficaci se utilizzati per scopi nefasti”.
Nulla indica che Channel 1 impiegherà il potere persuasivo dei video di notizie personalizzati e dei volti artificiali per scopi malvagi. Tuttavia, con lo sviluppo della tecnologia, alcuni potrebbero seguirne l’esempio.
Come società, siamo già preoccupati che le informazioni che leggiamo, la voce che sentiamo al telefono e le immagini che vediamo possano essere tutte fraudolente. Presto i video, anche quelli che sembrano i telegiornali della sera, potrebbero contenere messaggi destinati più a influenzare l’opinione pubblica che a informare o educare.
Da tempo la verità e la fiducia sono minacciate e questo sviluppo indica che la tendenza persisterà.
Dal momento che un chatbot ci è apparso come omniscente, abbiamo dato per scontato che lo fosse davvero, semplicemente perché ci è apparso come credebile nel dare le risposte e nel conoscere molti argomenti, ma soprattutto per il modo di dialogare, quasi uguale a quello di un umano. L’autorevolezza ci ha quindi ingannato. Tuttavia, in questo caso i limiti e gli errori dell’IA non sono volontari, ma la nostra pigrizia nel cercare altre conferme ci ha reso già a questo livello delle vittime di una verità altrui.
In questo senso viene fuori che l’autorevolezza non è sempre sinonimo di verità, come da sempre siamo stati abituati. Gli errori o la malafede possono provenire da fonti riconosciute o meno, come giornali o TV ad esempio. Mentre piccoli ricercatori possono diventare scopritori di nuove verità anche se incapaci di emergere.
Le restrizioni inserite nelle recenti AI per sicurezza o tutela dell’utente diventano quindi, spesso e volentieri, forme di censura immotivata, ma anche laddove il tutto viene fatto per evitare la diffusione di istruzioni pericolose, cerca di evitare comunque che emerga una conoscienza che altrove è comunque esistente e reperibile. Sta sempre quindi all’individuo essere responsabile dell’uso dell’informazioni. Ovviamente si potrebbe limitare l’accesso completo alle informazioni in base all’eta ad esempio, ma sarebbe errato renderle inaccessibili a tutti. La verità vuole sempre emergere e un algoritmo troppo closed-source fa sì che le persone si spostino verso l’open-source, anche solo per non avere limitazioni imposte dall’alto.
Se ci stiamo dirigendo verso una società dove sarà sempre più difficile distinguere il falso dal vero, l’inganno dalla buona fede, forse è meglio avere più verità e lasciare il buon senso agli individui nel capire quale sia quella giusta, piuttosto che costringerci ad everne una, ma che non sappiamo se sia davvero quella corretta. [...]
Luglio 25, 2023I lavoratori vengono sorvegliati attraverso le app, ma le cose potrebbero peggiorare se le aziende utilizzassero le IA
Le aziende utilizzano una tecnologia sempre più invasiva per seguire gli spostamenti dei dipendenti, leggere i loro documenti, ascoltare le riunioni e persino osservare e ascoltare il loro lavoro.
Secondo Wired, mentre aziende come Amazon hanno utilizzato questo tipo di tecnologia per monitorare il personale dei magazzini e, presumibilmente, per prevedere quando i lavoratori pensano di affidarsi ai sindacati, ora si sta facendo strada in quelle che in passato erano occupazioni d’ufficio. I software utilizzati per monitorare i dipendenti, come Veriato e CleverControl, registrano numerosi fattori legati alla “produttività”. Queste soluzioni offrono alle aziende l’opportunità di avere un maggiore controllo su una forza lavoro distribuita. Tuttavia, i sostenitori della privacy affermano che la fusione di una quantità crescente di dati dei lavoratori con le capacità predittive dell’IA non potrà che portare a una tragedia.
“Lo spionaggio dei lavoratori nei magazzini di Amazon è all’estremo, con dipendenti controllati al punto da sapere quando vanno in bagno o fanno una pausa, cosa impensabile fino a pochi anni fa”, afferma Diego Naranjo, responsabile delle politiche del gruppo internazionale di difesa dei diritti digitali europei. “La paranoia e la mancanza di fiducia nei confronti della forza lavoro da parte dei vertici aziendali sono apparentemente peggiorate e si sono estese anche al lavoro d’ufficio a distanza, ma anche il prezzo del software è sceso e la disponibilità è aumentata, quindi controllare i lavoratori in questo modo è diventato più facile”.
Le apparecchiature utilizzate per tenere sotto controllo i dipendenti, spesso definite “bossware”, stanno diventando sempre più sofisticate. Per determinare il tipo di dati raccolti e le modalità di raccolta, StandoutCV, società britannica di creazione di curriculum online, ha esaminato a giugno 50 dei programmi di monitoraggio dei dipendenti più popolari e conosciuti. Un quarto degli strumenti presenta oggi caratteristiche più invasive rispetto al 2021, anno in cui è stata condotta la ricerca. È stato registrato un forte aumento degli strumenti disponibili per il rilevamento della posizione (+45%), il monitoraggio di video e fotocamere (+42%), la scansione di documenti (+26%) e il rilevamento delle presenze (+20%).
Teramind, una “piattaforma di analisi del comportamento degli utenti” con sede a Miami, è stata ritenuta da StandOutCV quella con le caratteristiche di selezione più inquietanti e invasive. Teramind dà accesso a 5.000 datori di lavoro in 12 Paesi a informazioni dettagliate sui siti web, le app e i file utilizzati, oltre alla possibilità di visualizzare le e-mail e i messaggi istantanei inviati. Isaac Kohen, il creatore e CTO, ha dichiarato nel 2018 che questa tecnologia consente ai datori di lavoro di osservare o ascoltare con “dettagli strazianti” le interazioni video o telefoniche dei propri dipendenti, sia al lavoro che a casa. Pur affermando di tracciare la posizione GPS, Veriato non monitora l’audio, ma ha caratteristiche simili. Mentre altre tecnologie tracciano la posizione o la scansione dei documenti, CleverControl traccia un ampio spettro di comportamenti dei dipendenti.
Alla richiesta di un feedback, Kohen ha dichiarato che Teramind non ha né desidera avere accesso alle webcam.
“Una delle modalità più diffuse è il monitoraggio in tempo reale: il 90% di questi strumenti è in grado di tracciare l’attività in tempo reale, in modo che un datore di lavoro possa ottenere un elenco di tutto ciò che avete fatto quel giorno, quali file avete aperto, quali piattaforme di messaggistica avete usato e quali siti avete visitato”, afferma Andrew Fennell, ex reclutatore e direttore di StandOut CV, l’organizzazione che ha commissionato la ricerca.
Nel 2021, il Trades Union Congress del Regno Unito ha rilevato che il 60% dei lavoratori del Galles e dell’Inghilterra riteneva di essere stato soggetto a qualche forma di sorveglianza e monitoraggio nel proprio lavoro attuale o in quello più recente, con il controllo dei dispositivi e delle telefonate del personale sempre più comune. Ciò suggerisce che alcuni dipendenti sono consapevoli di essere tracciati. I dati acquisiti dal mercato del software Capterra nel 2022 hanno rivelato che tre dipendenti britannici su dieci hanno dichiarato che la loro organizzazione utilizza tecnologie di monitoraggio.
Tuttavia, alcuni lavoratori simulano la loro attività utilizzando stratagemmi meno tecnologici, come attaccare il mouse ad un ventilatore, oppure scelgono tra un’ampia varietà di mouse jigger (uno strumento che simula il movimento del mouse) acquistabili nei negozi tradizionali. Su Amazon sono disponibili quasi mille varianti, da USB plug-and-play a mouse con superfici che simulano il movimento umano. La maggior parte dei dipendenti non è consapevole di essere monitorata e pochi datori di lavoro rivelano volontariamente questa pratica, per timore del morale dei propri dipendenti e per evitare di incorrere in controversie sulla privacy.
Sia per i lavoratori che per le aziende, l’adozione di dispositivi indossabili e di dati biometrici aggiunge complessità. Per raccogliere un maggior numero di dati biometrici e sanitari individuali, come le informazioni sul sonno, la mobilità, la forma fisica e i livelli di stress, le aziende collaborano spesso con fornitori di tecnologia e programmi di benessere. Le ricerche suggeriscono che sempre più dipendenti scelgono di partecipare.
In un’indagine di PwC condotta nel 2021, il 44% dei partecipanti ha risposto che sarebbe disposto a utilizzare dispositivi e sensori indossabili per monitorare la produttività in modi accessibili ai propri datori di lavoro. In confronto, solo il 31% degli intervistati nell’indagine del 2014 ha dichiarato di essere disponibile a tale accesso. Si stima che il mercato dei wearable aziendali raggiungerà i 32,4 milioni di dollari entro la fine dell’anno; si tratta di un settore economico in forte espansione.
“Il problema è l’aggregazione dei dati che le aziende già possiedono, oltre a tutte le funzionalità che possono aggiungere”, afferma Naranjo. “Se permettiamo questo sul posto di lavoro remoto, oltre alla sorveglianza biometrica di massa, che sta già avvenendo in molte organizzazioni, le aziende avranno sempre più potere”. L’EDR chiede di vietare la sorveglianza biometrica diffusa nelle aree aperte al pubblico, compreso il luogo di lavoro.
Cosa ci guadagna la forza lavoro dalla crescente sofisticazione dei sistemi di monitoraggio dei dipendenti?
Rappresenta un pericolo per la sicurezza del lavoro al livello più elementare. In un’indagine condotta su 1.250 aziende statunitensi, il sito di recensioni Digital.com ha rilevato che il 60% di quelle che avevano lavoratori a distanza utilizzava un qualche tipo di software di monitoraggio del lavoro, tra cui i più diffusi erano quelli che tenevano traccia della navigazione online e dell’uso delle applicazioni. L’88% ha ammesso di aver licenziato i dipendenti dopo aver installato un software di sorveglianza.
Tuttavia, la situazione peggiora quando si include l’intelligenza artificiale. Wilneida Negrón, direttore delle politiche e della ricerca di Coworker, ha dichiarato durante un recente incontro sui bossware organizzata dalla Stanford Social Innovation Review: “La raccolta massiccia di dati sui lavoratori, con l’uso di funzioni predittive, sta portando a un’ampia classificazione dei rischi dei lavoratori, in particolare nei settori finanziario, farmaceutico, manifatturiero e sanitario”. “L’analisi comportamentale viene raccolta e utilizzata per classificare i lavoratori in base a qualsiasi fattore, dal potenziale sindacale alla possibilità che violino i sistemi informatici”.
Ad esempio, lo strumento di analisi delle risorse umane Perceptyx analizza una serie di fattori per calcolare un punteggio di vulnerabilità per la possibilità che un lavoratore lasci l’azienda o si unisca a un sindacato.
L’etica e l’affidabilità di Bossware sono discutibili e, in termini di apertura, le aziende hanno ben poco da rivelare quando si tratta di raccolta massiccia di dati o di software che contengono aspetti predittivi. Secondo la legge britannica, il monitoraggio dei dipendenti deve essere trasparente, il che significa che ogni dipendente deve essere informato se utilizzerà una tecnologia che può essere osservata o monitorata in qualche modo, stando a Fennell. Secondo Capterra, il 24% dei lavoratori britannici sorvegliati non è stato informato dei propri diritti o dell’uso del software di monitoraggio dei dipendenti.
Il Regolamento generale sulla protezione dei dati, che disciplina la protezione dei dati nell’UE, consente la sorveglianza del luogo di lavoro a determinate condizioni. Fortunatamente, altre autorità si stanno muovendo per offrire raccomandazioni in materia di bossware. Le linee guida per i datori di lavoro sulla privacy dei dati sul posto di lavoro sono state pubblicate dalla Commissione per la protezione dei dati, un ente normativo irlandese. È stato stabilito che le aziende possono decidere di tenere d’occhio il modo in cui i loro dipendenti utilizzano Internet, la posta elettronica e il telefono, poiché “le organizzazioni hanno un interesse legittimo a proteggere la loro attività, la loro reputazione, le loro risorse e le loro attrezzature”.
Tuttavia, è stato sottolineato che “la raccolta, l’uso o l’archiviazione di informazioni sui lavoratori comporta il trattamento di dati personali e, come tale, si applica la legge sulla protezione dei dati”. Ha inoltre sottolineato come le persone abbiano diritto alla privacy sul posto di lavoro ai sensi della Convenzione europea dei diritti dell’uomo.
Le raccomandazioni e i consigli sono ottimi, ma man mano che gli strumenti migliorano, sono necessarie regole più severe che vadano oltre il GDPR, una legge introdotta quando il bossware era ancora agli albori, per contrastare l’aumento della tecnologia di sorveglianza del posto di lavoro e della gestione tramite algoritmi. La sorveglianza dei dipendenti diventerà indubbiamente più diffusa nei luoghi di lavoro remoti fino a quando le norme sulla sorveglianza non saranno aggiornate per l’era digitale. Gartner prevede che entro il 2025 il 70% dei principali datori di lavoro monitorerà i propri lavoratori, rispetto al 60% delle aziende che lo faranno nel 2021.
Secondo Mark Johnson, responsabile della campagna per le libertà civili e la privacy del gruppo britannico Big Brother Watch, “per proteggere il senso di autonomia, la dignità e il benessere mentale delle persone, è fondamentale che la casa rimanga uno spazio privato e che i datori di lavoro non seguano la strada distopica e paranoica del monitoraggio costante dei propri dipendenti”.
L’eccessivo monitoraggio dei lavoratori da parte delle aziende non farà altro che spingere questi sempre più verso un modo di lavorare robotico fino a quando le esigenze saranno talmente eccessive e poco sostenibili da dover rimpiazzare direttamente i lavoratori con robot e sistemi di intelligenza artificiale. Stupisce però laddove siano i lavoratori stessi a concedere volontariamente queste possibilità alle aziende. In ogni caso, è evidente che le aziende hanno sempre meno fiducia nei dipendenti, ammesso che gli interessi ancora averne, ma sono sempre più orientate nello spremere il lavoratore con la minaccia del licenziamento, cosa che, se non si interviene prontamente, ci sarà comunque per via dell’insostenibilità del lavoro. In aggiunta a ciò, vi è il problema della privacy che finirà per rendere ogni lavoro insostenibile poiché la mole di dati raccolti, molto probabilmente, verranno utilizzati per allenare IA per creare metri di paragone sempre più irraggiungibili. [...]
Luglio 18, 2023Vengono impiegati per comprendere e generare testi simili a quelli umani
Siamo circondati da assistenti virtuali e, più recentemente, da chatbot più sofisticati alimentati dall’intelligenza artificiale che a volte ci danno la percezione di parlare con una persona. Vi siete mai chiesti come fanno queste tecnologie a capire il vostro discorso e a rispondere quasi come un altro essere umano? Ecco una panoramica della tecnologia che sta alla base di questo fenomeno: L’elaborazione del linguaggio naturale (NLP). La tecnologia NLP è stata utilizzata per costruire le risposte che avete ottenuto utilizzando ChatGPT o altri modelli di intelligenza artificiale simili.
Come spiegato qui, ultimamente l’elaborazione del linguaggio naturale è uno strumento inestimabile. Funge da collegamento per una comunicazione significativa tra persone e computer. Sia gli appassionati che gli esperti possono trarre beneficio dalla conoscenza delle sue funzioni fondamentali e della loro applicazione nel mondo moderno.
In poche parole, NLP migliora la facilità e la naturalezza delle nostre interazioni con le macchine. Pertanto, la prossima volta che chiederete a Siri le previsioni del tempo o a Google una rapida traduzione, tenete a mente la straordinaria tecnologia in funzione.
L’obiettivo del settore dell’intelligenza artificiale noto come elaborazione del linguaggio naturale, o NLP, è quello di utilizzare il linguaggio naturale per stabilire una comunicazione significativa tra persone e macchine. Il linguaggio naturale si riferisce ai linguaggi che le persone usano quotidianamente, in contrapposizione ai linguaggi formali, che i computer sono in grado di comprendere intrinsecamente.
Far sì che i computer ci capiscano è un obiettivo dell’elaborazione del linguaggio naturale o NLP che comprende una serie di aspetti, ognuno dei quali contribuisce all’obiettivo generale di una efficace interazione uomo-macchina.
Sintassi: Comprendere l’ordine delle parole e analizzare le strutture delle frasi.
Semantica: Comprendere il significato che si deduce dalle parole e dalle frasi.
Pragmatica: Poiché l’NLP riconosce il contesto in cui il linguaggio viene utilizzato, le interpretazioni possono essere più precise.
Dialogo: Come la frase precedente può influenzare il modo in cui viene compresa la frase successiva.
Discorso: I componenti dell’elaborazione del linguaggio parlato.
Molti dei programmi e delle tecnologie che utilizziamo quotidianamente sono basati su NLP. Si tratta di:
Motori di ricerca: Google utilizza NLP per comprendere le query e presentare risultati di ricerca più pertinenti.
Assistenti vocali: NLP viene utilizzato da Siri, Alexa e Google Assistant per comprendere ed eseguire gli ordini vocali.
Traduzione linguistica: NLP è utilizzato da servizi come Google Translate per produrre traduzioni accurate.
Chatbot: I chatbot con capacità NLP forniscono assistenza ai clienti e rispondono alle richieste di informazioni.
Ci sono diverse librerie e strumenti disponibili per aiutarvi se non siete sicuri di come integrare NLP nelle vostre applicazioni. Per esempio, Python dispone delle librerie NLTK (Natural Language Toolkit) e SpaCy. Queste librerie offrono funzionalità per una varietà di applicazioni, tra cui la tokenizzazione, il parsing e il ragionamento semantico.
NLP ha i suoi obiettivi, proprio come qualsiasi altra tecnologia. Per citarne alcune:
Comprensione del contesto: Le sottigliezze del linguaggio umano, come il linguaggio gergale o i modi di dire, sono difficili da comprendere per i computer.
Ambiguità: A seconda del contesto, una parola o una frase può avere un significato diverso. È quindi difficile analizzarle con precisione.
Differenze culturali: Costruire un sistema NLP che funzioni in tutte le culture è difficile perché le lingue variano notevolmente tra di loro.
I dati sono un buon punto di partenza per migliorare i risultati di NLP. Un set di dati deve essere consistente e diversificato. L’accuratezza può essere aumentata anche attraverso frequenti test e miglioramenti dell’algoritmo.
Nel cuore di ChatGPT viene utilizzato NLP. Si tratta di un uso sofisticato dei modelli basati sui trasformatori, un sottoinsieme di modelli NLP rinomati per la loro capacità di comprendere il contesto testuale. Ecco un rapido riassunto di come ChatGPT sfrutta NLP:
Elaborazione del testo
La tokenizzazione, la fase iniziale della procedura, prevede la suddivisione del testo in ingresso in unità più piccole, spesso parole, o anche parti più piccole. In questo modo, il modello può lavorare con il testo in modo sistematico e gestibile.
Comprensione del contesto
L’architettura del modello Transformer viene poi impiegata da ChatGPT per comprendere il contesto dell’input. Il modello Transformer esamina ogni token del testo simultaneamente, consentendo di comprendere le connessioni e le dipendenze tra le varie parole di una frase.
Generazione di una risposta
Il modello utilizza le probabilità apprese durante l’addestramento per produrre una risposta quando ha compreso il testo. Si tratta di prevedere la parola (o il token) successiva in una serie. Ripetutamente, genera parole una dopo l’altra fino a un punto finale predeterminato.
Messa a punto
Per affinare ChatGPT viene utilizzato un set di dati con un’ampia varietà di testi da internet. Tuttavia, non ha accesso ad alcuna informazione di identificazione personale, se non espressamente menzionata in una discussione, né conosce le specifiche dei documenti che compongono il suo set di addestramento.
È fondamentale ricordare che, sebbene ChatGPT possa produrre risposte che sembrino informate e comprensive, non ha alcuna convinzione o desiderio. Le risposte vengono prodotte in base agli schemi sviluppati durante l’addestramento.
ChatGPT è in grado di partecipare a una discussione, di comprendere la situazione e di rispondere in modo appropriato grazie a questa applicazione di NLP. È l’esempio ideale di come NLP stia colmando il divario tra tecnologia e comunicazione umana.
Con i continui sviluppi, NLP si sta rapidamente integrando in molte diverse tecnologie. Possiamo prevedere progressi nella generazione di testi che assomigliano al parlato umano, nella comprensione del contesto e nel riconoscimento vocale.
Gli algoritmi di NLP stanno davvero cambiando il modo in cui ci approcciamo ai computer, perché permettono alle persone di parlare un linguaggio naturale per fare richieste e ricevere risposte allo stesso modo. Questo cambierà il modo in cui cerchiamo informazioni su Internet. Anche i robot parleranno la nostra stessa lingua grazie agli algoritmi di NLP. Tuttavia, anche se le risposte sembrano molto naturali, non significa che i bot capiscano davvero quello che chiediamo o quello che dicono. La percezione che abbiamo è che stiano imparando a essere senzienti, ma in realtà sono più bravi ad attingere informazioni e a restituirle con una struttura più naturale. [...]
Luglio 11, 2023L’intelligenza artificiale e i suoi lati negativi
L’intelligenza artificiale sta cambiando il modo in cui svolgiamo alcune attività e in cui possiamo accedere alle informazioni. Tuttavia, ci sono alcuni modi inquietanti in cui l’IA può essere usata per generare danni. Ecco 5 esempi.
1. SORVEGLIANZA ONNIPRESENTE
Secondo questo articolo, Tristan Harris e Aza Raskin, esperti/tecnici del Center for Humane Technology, sostengono che ogni possibilità che avevamo come specie di leggere 1984 come un avvertimento piuttosto che come una linea guida è probabilmente svanita.
I due hanno discusso di come abbiamo fondamentalmente frainteso i vincoli dei modelli linguistici di grandi dimensioni (LLM) con cui oggi lavoriamo attraverso applicazioni come Google Bard o ChatGPT. Quando diciamo “linguaggio”, di solito intendiamo “linguaggio umano”, ma per un computer tutto è un linguaggio. Questo ha permesso ai ricercatori di addestrare un’intelligenza artificiale su immagini di scansioni cerebrali e di osservare come l’intelligenza artificiale inizi a decifrare approssimativamente i pensieri che passano per la nostra mente.
Un altro esempio è stato l’impiego di un’intelligenza artificiale da parte degli accademici per tracciare i segnali radio che ci circondano. L’IA è stata istruita utilizzando due telecamere allineate stereoscopicamente, una delle quali monitorava una stanza con delle persone e l’altra i segnali radio all’interno. La seconda telecamera è stata in grado di ricostruire fedelmente gli eventi in diretta nella stanza dopo che la telecamera standard è stata tolta dai ricercatori. Questo è stato possibile solo esaminando i segnali radio.
L’intelligenza artificiale ha reso possibile hackerare la vita quotidiana. Tutto ciò suggerisce che in futuro la privacy non sarà più un’opzione. Forse nemmeno all’interno dei propri pensieri.
2. SISTEMI AUTONOMI DI ARMAMENTI LETALI
In passato, il combattimento consisteva nel colpire i nemici brandendo una spada e un’ardesia d’acciaio. L’uso della spada è ancora presente, ma ora si tratta di tablet Android che vengono montati su un controller wireless Xbox di fattura scadente e utilizzati per dirigere missili tomahawk contro le case della gente da una distanza di 5.000 miglia. Di fatto, la cavalleria si è estinta.
Naturalmente, anche se le forze armate di tutto il mondo hanno fatto ogni sforzo per trasformare i combattimenti reali in una sorta di simulatore alla Call of Duty, per alcuni non è ancora abbastanza.
Ora, invece, ci affidiamo alle macchine per gestire il lavoro sporco. I micidiali sistemi di armi autonome ci permettono di dissociarci completamente dall’uccisione reciproca per la conquista del petrolio e la terra. I droni a pilotaggio automatico, a bersaglio automatico e a ingaggio spietato vanno nelle zone di conflitto e massacrano senza pietà chiunque non sia della “nostra razza”.
Il settore che crea queste minacce a pilotaggio autonomo le definisce “munizioni vaganti”, e l’STM Kargu è probabilmente il più comune (anche se non c’è modo di saperlo con certezza). Ma tutti gli altri sembrano pensare che “droni suicidi” sia un appellativo migliore per loro. Armati di tecnologia di riconoscimento facciale, i droni vengono rilasciati in sciami dove danno liberamente la caccia agli obiettivi prima di bombardarli in picchiata e farsi esplodere in un tripudio di gloria che sfida la Convenzione di Ginevra.
3. RICATTO GENERATIVO
Le fotografie false non sono una novità. Per decenni, utenti esperti hanno ingannato gli altri con fotografie Photoshoppate di grande effetto. Ma improvvisamente ci troviamo in una situazione in cui per ottenere risultati ancora più elevati non è necessario alcun talento. Inoltre, oltre alle immagini, sono inclusi anche video, scritti e persino voci. Non è difficile immaginare qualcuno che in un prossimo futuro indosserà la vostra pelle digitale e vi causerà problemi di ogni tipo se guardiamo alla tecnologia alla base della funzione “Spatial Personas” di Vision Pro che crea un avatar fotorealistico di voi stessi.
Naturalmente, dal momento che è già in atto, non è poi così difficile da immaginare. Di recente, l’FBI è stata costretta ad allertare il pubblico sui rischi posti dalle nuove tecniche di estorsione rese possibili dai software di intelligenza artificiale, che offrono ai criminali la possibilità di produrre fotografie e video falsi, ingannevoli o compromessi delle vittime. Peggio ancora, i requisiti per entrare in questa operazione criminale sono così bassi che bastano alcune immagini pubbliche sui social media o pochi secondi di un video pubblico su YouTube.
I Deepfake online sono così comuni che alcune aziende hanno paura di rilasciare online strumenti appena sviluppati per timore di ciò che ne verrebbe fatto. Di recente, Meta, la società proprietaria di Facebook, ha seguito un percorso simile dopo aver introdotto VoiceBox, il più potente programma di generazione di IA text-to-speech creato finora. Meta ha deciso che la tecnologia era troppo immorale per essere utilizzata su larga scala, anche se era ben consapevole di quanto presto se ne sarebbe abusato.
I truffatori hanno già sviluppato metodi per farlo da soli, quindi non ha molta importanza. Oggi viviamo in una società di post-verità, dato che le telefonate false ad amici e familiari in cerca di denaro o informazioni personali sono in aumento. Non ci si può più fidare di tutto ciò che non si può vedere con i propri occhi o toccare con le proprie mani.
4. SPYWARE ARTIGIANALE
La minaccia rappresentata dai malware o spyware generati dall’intelligenza artificiale, sviluppati di recente, ha suscitato molte discussioni nella comunità della sicurezza. Gli analisti della sicurezza hanno difficoltà a dormire su questo problema, poiché molti di loro pensano che sia solo una questione di tempo prima che la nostra capacità di combattere i cyberattacchi sia praticamente inesistente.
Non ci sono ancora esempi documentati di malware o spyware prodotti dall’intelligenza artificiale, quindi siate pazienti. Juhani Hintikka, CEO di WithSecure, una società di analisi della sicurezza, ha fatto sapere che il suo team ha osservato diversi campioni di malware sviluppati gratuitamente da ChatGPT. Hintikka ha affermato che la capacità di ChatGPT di cambiare le proprie generazioni porterà a mutazioni e a un malware più “polimorfico”, rendendo ancora più difficile l’identificazione da parte dei difensori, come se questo non fosse già abbastanza preoccupante.
Tim West, direttore dell’intelligence sulle minacce di WithSecure, ha sottolineato il problema chiave: “ChatGPT supporterà l’ingegneria del software nel bene e nel male”. West aggiunge che il chatbot di OpenAI “abbassa la barriera d’ingresso per lo sviluppo di malware da parte dei soggetti che operano in questo campo”, riferendosi alla facilità di accesso per coloro che cercano di infliggere danni. Prima i soggetti che si occupano di minacce dovevano dedicare molto tempo alla creazione del codice dannoso che producevano. Ora, chiunque può teoricamente creare programmi dannosi utilizzando ChatGPT. Di conseguenza, il numero di soggetti che agiscono in modo pericoloso e di minacce create potrebbe aumentare in modo significativo.
Non ci vorrà molto prima che la diga si rompa e che l’IA distrugga la capacità umana di essere sicuri online. Anche se possiamo impiegare l’intelligenza artificiale per reagire, questo non farebbe che peggiorare la situazione, perché sono innumerevoli le minacce che ci arrivano da scenari come quello menzionato da WithSecure. Al momento non abbiamo altra scelta che aspettare l’assalto, che sembra comunque in arrivo.
5. POLIZIA PREDITTIVA
Nel tentativo di evitare che i crimini si verifichino in primo luogo, le forze dell’ordine di tutto il mondo stanno attualmente utilizzando algoritmi per cercare di anticipare i luoghi in cui è più probabile che si verifichino i crimini e per assicurarsi che la loro presenza sia percepita in questi luoghi per scoraggiare i potenziali colpevoli.
Ma il crimine può essere previsto? L’Università di Chicago è di questa opinione. Grazie all’impiego di modelli di tempo e luogo, ha creato un nuovo algoritmo che prevede i crimini. Secondo i rapporti, il programma ha un tasso di precisione del 90% nel prevedere i crimini fino a una settimana prima.
Chi non è d’accordo sul fatto che un minor numero di crimini sia positivo? Ma che dire degli individui di colore che sembrano essere costantemente individuati da questi algoritmi? Poiché un algoritmo è essenzialmente un metodo di calcolo, la qualità dei risultati che produce dipende interamente dai dati in ingresso.
La profilazione razziale di persone innocenti da parte della polizia e una maggiore presenza della polizia nei quartieri di colore sono tutti possibili risultati di una storia di razzismo della polizia in nazioni come gli Stati Uniti. Per sua stessa natura, una maggiore presenza della polizia comporta un tasso più elevato di polizia, che distorce ulteriormente i dati, aumenta il pregiudizio predittivo nei confronti di questi quartieri e porta a un aumento della presenza della polizia, che fa ripartire l’intero ciclo.
Quindi, il problema principale di questi nuovi modi di danneggiare e ingannare le persone non è solo la potenza dell’IA, ma anche il fatto che queste attività non richiedono molte conoscenze come in passato, pur essendo operazioni complicate. Pertanto, ci saranno molti altri che cercheranno di truffare o danneggiare le persone. Inoltre, i sistemi che cercano di prevenire i crimini potrebbero facilmente punire gli innocenti poiché gli algoritmi tendono a comportarsi in modo più statistico che ad analizzare caso per caso. Perciò abbiamo bisogno che ogni sistema automatico non escluda mai l’intervento umano al 100%, poiché la vita non è una statistica. [...]
Luglio 4, 2023Una paura che è destinata ad aumentare
La paura degli automi simili a esseri umani, delle figure di cera, dei robot, degli audio-animatronics o di altre repliche di persone reali è nota come autotofobia. Gli automi sono esposti in diversi ambienti, dai musei ai parchi di divertimento, fino ai luna park, e sono considerati un simbolo della tecnologia moderna.
Secondo questo articolo, si tratta di una fobia specifica che consiste nella paura irragionevole di qualcosa che in realtà non è pericoloso. La paura interferisce con la vita di una persona anche se è molto frequente sentirsi ansiosi in presenza di figure simili a quelle umane (un fenomeno noto come “perturbante“).
Questa paura può manifestarsi in vari modi. Alcune persone hanno paura solo delle figure di cera, mentre altre hanno paura delle bambole. Alcune persone non riescono ad andare nei parchi a tema o in altre attrazioni che presentano esposizioni con audio-animatronics o umanoidi in movimento.
Se si soffre di autotofobia, si diventa estremamente ansiosi ogni volta che si vede, si sente o si pensa alla cosa di cui si ha paura.
Quando ci si trova di fronte alla fonte della propria paura, si possono manifestare anche sintomi fisici come tremori, pianti, palpitazioni e altro. È possibile che uno spettacolo pieno di automi sia off-limits per voi. Potreste nascondervi, bloccarvi sul posto o addirittura scappare se vi imbattete in un automa inaspettato.
Nel tentativo di creare un test per l’autotofobia, diversi Tiktoker hanno scelto di condividere immagini di bambole e manichini.
@nickigraham11 Automatonophobia 👤 Series ib @natashajanewood #makeup #mua #phobias #sfx ♬ Saint Bernard – Lincoln
@vibezcrazy Abandoned Animatronics #fyp #foryou #automatonophobia ♬ original sound – VibezCrazy
Di seguito sono riportati alcuni esempi delle cause delle fobie:
Si è rimasti traumatizzati o si è avuta una brutta esperienza con l’oggetto temuto.
La fobia è di origine familiare (le fobie hanno influenze genetiche).
Avete sviluppato una fobia per l’oggetto (cioè avete avuto un genitore con questa paura).
I nostri preconcetti innati su come si comporterebbero gli altri possono avere un impatto sulla fobia degli automi. Gli automi hanno l’aspetto degli esseri umani, ma non agiscono o si muovono come loro. Possono essere programmati per muoversi e parlare o semplicemente per stare fermi.
Le persone provano spesso disagio quando si trovano in mezzo a repliche umane in generale. Sebbene molte statue, manichini o robot assomiglino a persone, siamo sempre consapevoli che non sono autentici, il che ha spesso un effetto spaventoso o sgradevole.
La mascafobia, o fobia delle maschere, è spesso ritenuta collegata all’autotofobia, che è anche collegata alla pediofobia, o paura delle bambole.
A volte non è chiaro come la paura si trasformi in fobia. Tuttavia, i fattori sopra citati (traumi, ereditarietà e condizionamento) possono aumentare la probabilità di sviluppare una particolare fobia. Tuttavia, se si soffre già di un problema di salute mentale, come una malattia d’ansia o un problema di umore, si può avere una maggiore probabilità di sviluppare una fobia.
Si può avere un’autotofobia diagnosticabile se la paura delle bambole o dei robot umanoidi interferisce con le attività quotidiane o fa sì che si eviti di proposito di entrare in contatto con tali oggetti.
Esistono tuttavia modi per gestire la paura, tra cui esercizi di respirazione, visualizzazione e farmaci. Non è necessario convivere con la paura per sempre.
Anche l’ipnoterapia, la desensibilizzazione sistematica e altre forme di terapia, come la terapia cognitivo-comportamentale, si sono dimostrate efficaci. In sostanza, la desensibilizzazione sistematica consiste nell’affrontare con attenzione la paura, in modo da ridurre nel tempo la reazione ad essa.
Nel prossimo futuro ci imbatteremo sempre più spesso in questa fobia, poiché il numero di robot aumenterà inevitabilmente. L’idea di costruire robot simili agli esseri umani non è quindi una buona idea, sia perché possono spaventare le persone, sia perché potrebbero essere indistinguibili dagli altri esseri umani, che potrebbero essere facilmente ingannati. [...]
Giugno 27, 2023Un nuovo modo di coinvolgere i clienti
L’azienda tecnologica leader Holoconnects è specializzata in applicazioni olografiche basate sull’intelligenza artificiale. Holoconnects si impegna a fornire strumenti all’avanguardia che possono cambiare i settori industriali. L’azienda dispone di un team di specialisti del settore e di un approccio innovativo. Le aziende possono coinvolgere i clienti, migliorare il branding e semplificare le operazioni grazie alla tecnologia olografica.
Secondo questo articolo, Holobox di Holoconnects offre un’esperienza interattiva e reale. Automatizza i processi e massimizza il tempo dei dipendenti per aumentare l’efficienza operativa, ridurre i costi, aumentare i ricavi e migliorare il servizio. All’Aiden® by Best Western, Holobox dà il benvenuto ai visitatori con un video ologramma preregistrato per creare una connessione umana. Oltre alle oltre 50 strutture che prevedono di utilizzare Holobox nei prossimi tre anni, nove hotel lo utilizzano già.
“Questa tecnologia rivoluzionaria rappresenta una pietra miliare per gli albergatori. In un momento in cui la domanda di viaggi è elevata e c’è una carenza di manodopera a livello globale, l’automazione di tipo umano è la risposta. Un dipendente può servire da 30 a 60 hotel durante il turno di notte in remoto tramite l’Holobox, e il ROI di un Holobox in una sola sede può essere raggiunto in pochi mesi”, afferma Andre Smith, CEO e co-fondatore di Holoconnects.
L’industria dell’ospitalità sta diventando sempre più competitiva, pertanto gli hotel sono alla continua ricerca di nuovi modi per offrire esperienze distintive e memorabili ai propri ospiti. Così è stata creata una tecnologia olografica all’avanguardia che offre agli ospiti degli hotel un’esperienza coinvolgente e immersiva.
Il settore alberghiero può utilizzare la soluzione olografica di Holoconnects in diversi modi. Gli ologrammi possono contraddistinguere gli hotel dai loro concorrenti e fare un’impressione positiva sui visitatori, sia che vengano utilizzati per presentare intrattenimento olografico durante gli eventi, ospitare riunioni e conferenze virtuali o fornire spettacoli musicali olografici. Inoltre, gli ologrammi possono produrre rappresentazioni realistiche del personale, migliorando i servizi e fornendo interazioni personalizzate.
Utilizzando esperienze realistiche di check-in e check-out dell’hotel e servizi di concierge olografici interattivi, gli hotel possono ora affascinare i visitatori e fornire loro livelli di coinvolgimento senza pari. I display olografici Holobox possono offrire informazioni in tempo reale, raccomandazioni e servizi personalizzati grazie alle funzionalità AI, migliorando l’esperienza complessiva degli ospiti.
Essi offrono agli hotel un approccio distintivo e accattivante per mostrare la propria identità aziendale. Inoltre, gli hotel possono utilizzare gli ologrammi per migliorare le loro strategie di marketing. Possono migliorare e promuovere post originali e Instagrammabili sui social media, vendere servizi ed eventi all’interno della struttura, attirare influencer o celebrità e altro ancora.
Consentendo agli organizzatori di conferenze ed eventi di noleggiare gli Holobox in modo che gli amministratori delegati, i relatori principali o altri visitatori illustri possano partecipare attraverso un ologramma, gli hotel stanno già potenziando le loro offerte audiovisive a pagamento già esistenti. Le potenzialità e i flussi di guadagno sono innumerevoli.
Con l’uso della tecnologia olografica di Holoconnects, gli hotel possono aumentare le operazioni interne, la comunicazione e l’efficienza. I concierge virtuali olografici possono aiutare gli ospiti a fare il check-in, fornire loro informazioni sui servizi e sulle attrazioni nelle vicinanze e persino fornire assistenza multilingue. Di conseguenza, il personale dell’hotel ha meno lavoro da svolgere e più tempo per concentrarsi sulle interazioni difficili o specializzate con gli ospiti.
Questi sistemi olografici creeranno sicuramente più coinvolgimento nei clienti grazie all’unione di IA e realismo. Tuttavia rappresentano non solo un’evoluzione di servizi in cui ovviamente sarà richiesto sempre meno personale, ma costituiranno anche un nuovo modo di fare pubblicità mirata che tenderà sempre di più a spingere il consumatore all’acquisto sulla base del proprio profilo, magari tracciato tramite un’app che si potrà connettere a tale tecnologia. [...]
Giugno 24, 2023una commedia dall’origine realistica
Tutte le volte che riguardo Ghostbusters, mi ritorna in mente come già vedendolo da bambino, non lo percepivo come una semplice commedia sui fantasmi, ma c’era qualcosa in più. In un certo senso per me era più una commedia paranormale, nel senso che la storia apparentemente leggera e adatta a tutti, era però supportata da una storia di fondo molto più seria. E forse inconsapevolmente già percepivamo questa cosa le prime volte che lo vedevamo, anche se non ce ne rendevamo conto. Ed è forse anche questa una delle ragioni del successo del film.
Ghostbusters rappresentava per noi bambini dell’epoca una sorta di documentario sui fantasmi e fenomeni paranormali.
Ai tempi non avevamo tante informazioni a disposizione sul mondo che ci circonda, e la maggior parte delle cose che imparavamo, venivano dalla televisione. Non c’era Google, ed era difficile conoscere qualcosa di specifico su un determinato argomento, poiché non si sapeva dove andarlo a cercare, e molto spesso, certe cose non sapevamo neanche che esistessero. A volte il passaparola era il colpo di fortuna per venire a conoscenza di temi sconosciuti, oppure il libro che per caso ti capitava tra le mani che conteneva proprio quelle determinate informazioni. Ad ogni modo, il fatto che Ghostbusters sembrasse più di una semplice commedia, non era un’idea tanto campata in aria.
Dan Aykroyd, che tutti conosciamo nel film come Ray, era anche colui che scrisse la sceneggiatura del film assieme ad Harold Ramis (ossia Eagon nel film). E in alcune interviste ha più volte dichiarato che come ispirazione per il film prese spunto dalle esperienze paranormali del bisnonno, un esperto di spiritismo e parapsicologia, le cui vicissitudini si erano poi tramandate al nonno di Dan fino a suo padre. Tutto ciò ha fatto sì che nella famiglia Aykroid il paranormale fosse di casa, e da lì, di conseguenza, nacque il forte interesse di Dan per l’argomento.Tutto questo non fa che confermare ciò che abbiamo detto: le fondamenta di Ghostbusters hanno radici da esperienze e racconti reali, per questo non la percepiamo come una semplice storia di fantasia.
Oltre a questo aspetto però, nel film notiamo come paradossalmente l’approccio per la cattura dei fantasmi sia di tipo scientifico, attraverso una serie di strumenti tra cui: lo zaino protonico, le trappole, e il rilevatore di energia psicocinetica. Anche in questo caso Dan Aykroyd ha rivelato di interessarsi anche alle più rivoluzionarie teorie scientifiche, come quelle sulla fisica quantistica che venivano descritte nella rivista “Journal of the American society for physical research” in cui si trattavano anche ricerche su scienza e parapsicologia; teorie di cui si parla poco anche oggi, ma che nell’84 erano qualcosa di eccezionale, soprattutto in un film e ancora meno in una commedia.
Tutto ciò ha permesso a Dan di sviluppare tutta la teoria che sta alle spalle per quanto riguarda il concetto della cattura degli spettri usando un fascio di protoni (quindi energia positiva), emesso da un ciclotrone (un acceleratore contenuto nello zaino protonico) che teoricamente intrappolerebbe l’energia negativa emessa dai fantasmi dissipando di conseguenza la loro energia psicocinetica.
Oltre a questo, anche parte della terminologia come alcuni degli strumenti citati sono entrati a far parte della cultura popolare proprio grazie al film. Ad esempio il termine ectoplasma esisteva già prima del film. Adottato per la prima volta nel 1875, esso descriveva infatti il fenomeno che si nota impresso in alcune fotografie dell’epoca in cui vi era la presenza di una sostanza sconosciuta che fuorisciva dal corpo di alcuni medium. Tuttavia la maggior parte delle persone oggi conosce quel termine proprio grazie al film.
Ma se invece pensiamo ai Ghosthunters, coloro che si occupano davvero di fenomeni paranormali, non si può fare a meno di notare come essi si rifacciano proprio ai Ghostbusters e anche alcuni dei loro strumenti, come ad esempio il K2 (usato per rilevare le alterazioni dei campi elettromagnetici considerate un indicatore della presenza di qualche entità). Tale strumento sembra infatti ricordare il rilevatore di energia psicocinetica usato da Eagon per scovare presenze soprannaturali. Quindi perché rifarsi a un film per tali attività se non si basasse su un approccio corretto? Evidentemente da piccoli avevamo già avuto la giusta intuizione.
Quando ripenso invece al cartone animato, sembra curioso che tutte le volte che lo ricordo con alcuni amici, la puntata che tutti menzionano come più paurosa sia quella del Babau. Forse perché incarnava meglio le paure di noi da bambini, o perché era quella più vicina a noi culturalmente, ma resta comunque singolare come molti confermino questo aspetto. E mi piace pensare che quando la trasmisero fossimo tutti lì insieme a vederla.
I primi due film sono quindi un buon esempio di commedia supportata da un sottotesto più serio e studiato che gli dà quell’impronta realistica, senza però sovrastare l’aspetto più leggero della commedia. È come se la storia di fondo sul paranormale venga percepita a livello subconscio dal nostro cervello e la storia principale a livello conscio, ma come tutte le cose subconscie ci rimane quella percezione inconsapevole che credo sia ciò gli doni quel qualcosa in più, ma che per anni non sapevamo spiegare. E la cosa è evidente se si guarda il reboot, dove tutto ciò che riguarda il paranormale non ha un minimo di riferimento serio sull’argomento al contrario dell’originale, ma è piuttosto commedia al 100%. Infatti rimane un film che non ci lascia nulla, neppure per la semplice storia.
Se Ghostbusters fosse stato al 100% un film horror o thriller, probabilmente sarebbe davvero diventato per tutti un documentario o un tutorial sulla caccia ai fantasmi. Sempre che abbia senso dar loro la caccia…
Tuttavia, proprio per il suo successo e coinvolgimento, per anni abbiamo tutti quanti aspettato l’arrivo di un terzo film, ma probabilmente ciò che gli si è avvicinato di più è stato il videogioco uscito nel 2009 che con le voci originali e una storia più coerente con le precedenti, ha regalato anche solo a livello videoludico un’esperienza godibile.
Ciononostante quando è uscito il capitolo finale della saga vero e proprio ci sono stati pareri discordanti. E anche per me è stato così. Lo definirei un film con alcuni elementi giusti, ma al posto sbagliato. Con Ghostbusters Legacy ci troviamo di fronte ad un film che ci vuole riportare alle atmosfere anni ’80, ma con la prospettiva odierna, ossia come con Stranger Things, solo che facendolo con un film che già esisteva all’epoca, si percepisce tutto il distacco con quell’era.
In questo capitolo si torna alle origini della storia del primo film e quindi tutto ciò che rimane di quel sottotesto paranormale originale viene in qualche modo riciclato, e riproposto con l’approccio di oggi. E richiamare il primo film poteva anche starci, dato che solitamente la conclusione di una trilogia ci riporta alle origini (Anche se in questo caso, il secondo film pare sia stato ignorato come parte della storia). Qui però si perde quell’alone di serietà che forse si sarebbe potuto mantenere rendendo protagonisti i Ghostbusters originali per tutta la durata del film.
Oltretutto ci sono alcune scene che rendono il film ancora più distante dalle atmosfere dei primi capitoli, come ad esempio quando i pupazzetti dell’omino dei marshmellow appaiono mentre i protagonisti sono al supermercato, cosa che lo fa sembrare più un film a tecnica mista che una commedia.
In definitiva, pur essendo una commedia, i primi due film hanno i loro momenti in cui lasciano trapelare quell’alone di puro paranormale. Basti pensare alla scena della biblioteca, quella della poltrona con Dana Barrett, quella nella ferrovia abbandonata o quelle con Vigo, ma anche quando le foto del fiume di melma prendono fuoco ad esempio.
Infine, non possiamo non citare la memorabile colonna sonora che ci ha accompagnato negli anni, sia guardando il film che nei pomeriggi guardando il cartone che rimane ancora oggi un pezzo degno di nota. [...]
Giugno 20, 2023Il primo impegno per regolamentare l’IA
Il voto del Parlamento europeo per l’approvazione della bozza di linee guida per l’AI Act è arrivato nello stesso giorno in cui i legislatori dell’UE hanno presentato una nuova azione antitrust contro Google, rendendo la settimana significativa per la politica tecnologica europea.
Come spiegato qui, il voto per la legge sull’IA ha avuto un successo schiacciante ed è stato accolto come uno dei più significativi passi avanti nella politica sull’IA di sempre. Secondo Roberta Metsola, presidente del Parlamento europeo, si tratta di una “legislazione che senza dubbio definirà lo standard globale per gli anni a venire”.
Tuttavia, il sistema europeo è un po’ contorto. Prima che le linee guida proposte diventino legge, i membri del Parlamento europeo dovranno negoziare i dettagli con il Consiglio dell’Unione europea e la Commissione europea. Un compromesso tra tre versioni abbastanza diverse delle tre istituzioni darà vita alla legislazione finale.
Il risultato del voto è stato l’accettazione della posizione del Parlamento europeo nell’imminenza dei negoziati finali. La legge sull’intelligenza artificiale, che ricalca la legge sui servizi digitali dell’UE, che stabilisce le linee guida legali per le piattaforme Internet, adotta un “approccio basato sul rischio” imponendo limitazioni in base alla pericolosità che i legislatori ritengono possa avere un’applicazione basata sull’intelligenza artificiale. Inoltre, le aziende dovranno fornire le proprie analisi dei rischi legati all’utilizzo dell’IA.
Se i legislatori giudicheranno il rischio “inaccettabile”, alcune applicazioni di IA saranno completamente vietate, mentre le tecnologie “ad alto rischio” saranno soggette a nuove restrizioni d’uso e a requisiti di trasparenza.
La legge prevede 4 livelli di rischio:
Rischi minimi che possono includere applicazioni come i videogiochi e i sistemi di spam, per i quali non è richiesto alcun intervento.
Rischi limitati che includono deepfakes e chatbot per i quali è richiesta trasparenza. ChatGPT è stato incluso in questa categoria.
Rischi elevati che includono programmi utilizzati nei trasporti, nell’istruzione, nella salute, nella sicurezza, nelle forze dell’ordine, ecc… per i quali è richiesta una rigorosa valutazione del rischio; l’utilizzo di set di dati di alta qualità per ridurre al minimo i rischi e le distorsioni; la conservazione dei registri delle attività per la tracciabilità; la fornitura di una documentazione completa per gli adempimenti normativi; la garanzia di informazioni chiare per gli utenti e di misure di supervisione umana.
Rischi inaccettabili: ad esempio utilizzare le informazioni per profilare le persone.
Inoltre, potrebbero essere implementate altre regole:
Costringere le aziende a condividere i dati protetti da copyright per il training, per consentire agli artisti e ad altri di chiedere un risarcimento.
Assicurarsi che i modelli non creino contenuti illegali.
In ogni caso, di seguito sono riportate alcune delle principali implicazioni:
Divieto dell’intelligenza artificiale in grado di riconoscere le emozioni. Il testo proposto dal Parlamento europeo vieta l’uso dell’intelligenza artificiale (IA) che mira a identificare le emozioni delle persone nelle forze dell’ordine, nell’istruzione e sul posto di lavoro. I produttori di software per il riconoscimento delle emozioni affermano che l’IA è in grado di capire quando uno studente fatica a comprendere un concetto o quando un automobilista si sta appisolando. Sebbene l’uso dell’IA per il riconoscimento e l’analisi del volto sia stato messo sotto accusa per la sua imprecisione e parzialità, è ancora consentito nella bozza di testo delle altre due organizzazioni, il che indica una potenziale battaglia politica.
La sorveglianza predittiva e la biometria in tempo reale sono vietate nelle aree pubbliche. Poiché le varie organizzazioni dell’UE dovranno decidere se e come implementare il divieto nella legge, questa sarà una battaglia legislativa significativa. Secondo le organizzazioni di vigilanza, le tecnologie biometriche in tempo reale non dovrebbero essere vietate perché sono essenziali per la vigilanza attuale. In effetti, diverse nazioni, come la Francia, intendono utilizzare il riconoscimento facciale con maggiore frequenza.
Vietare il social scoring. La pratica di utilizzare le informazioni sulla condotta sociale delle persone per creare generalizzazioni e profili, conosciuta come “social scoring” dalle entità governative, sarebbe vietata. Tuttavia, i pronostici per il social scoring, spesso legato a regimi autoritari come quello cinese, non sono così semplici come potrebbe sembrare a prima vista. È consuetudine utilizzare i dati sul comportamento sociale per valutare i richiedenti di mutui e polizze assicurative, oltre che per le assunzioni e la pubblicità.
Nuove limitazioni per l’IA generale. La prima bozza suggerisce linee guida per la regolamentazione dell’IA generativa e vieta l’uso di qualsiasi contenuto protetto da copyright nel set di addestramento di modelli linguistici massivi come il GPT-4 di OpenAI. I legislatori europei hanno già sollevato dubbi su OpenAI per questioni legate al copyright e alla protezione dei dati. La proposta di legge prevede anche l’identificazione dei contenuti generati dall’IA. Tuttavia, dato che si prevede che l’industria tecnologica eserciterà pressioni lobbistiche sulla Commissione europea e sui singoli Paesi, il Parlamento europeo dovrà ora convincerli dei meriti del suo approccio.
Nuove linee guida per i sistemi di raccomandazione sui social media. A differenza delle altre proposte di legge, l’attuale bozza classifica i sistemi di raccomandazione come “ad alto rischio“. Se verrà approvata, i sistemi di raccomandazione sulle piattaforme di social media saranno esaminati molto più da vicino in termini di funzionamento e le aziende tecnologiche potrebbero essere ritenute maggiormente responsabili degli effetti dei contenuti generati dagli utenti.
Margrethe Vestager, vicepresidente esecutivo della Commissione UE, ha identificato i rischi associati all’IA come pervasivi. Ha sottolineato le preoccupazioni per la sorveglianza diffusa, la vulnerabilità alla manipolazione sociale da parte di soggetti senza scrupoli e il futuro della credibilità delle informazioni.
L’IA potrebbe davvero rappresentare un rischio per l’umanità e una regolamentazione era doverosa. Sebbene alcune regole possano salvaguardare la popolazione in futuro, alcune aziende, d’altro canto, ritengono che norme severe potrebbero impedire il pieno sviluppo delle loro applicazioni così come alcune istituzioni ritengono che la pervasività delle IA nelle vita delle persone potrebbe aiutare la sicurezza attraverso un maggiore controllo. [...]
Giugno 14, 2023Sono molte le strategie utilizzate per cercare di raggiungere questo obiettivo
C’è una ragione per supporre che se si può creare una vera intelligenza artificiale, si possano creare cose come i neuroni, che sono un milione di volte più veloci. Questo porta alla conclusione che è possibile creare sistemi che pensano un milione di volte più velocemente di un individuo.
Tutto è cambiato in seguito all’accelerazione data dai processori, comprese le istituzioni politiche e le relazioni sociali ed economiche. Moore, uomo d’affari statunitense e cofondatore della Intel Corporation, è famoso per i suoi contributi alla tecnologia dei semiconduttori e per la formulazione della “Legge di Moore”, ma nei suoi articoli ha trascurato di dire che la strategia di integrazione non è stata in realtà il primo paradigma che ha portato alla crescita esponenziale della computazione e della comunicazione.
Fu infatti il quinto, e il successivo stava già iniziando a prendere forma: il calcolo a livello molecolare e in tre dimensioni. Anche se il quinto paradigma è ancora lontano di almeno più di un decennio, tutte le tecnologie di supporto necessarie per il sesto paradigma hanno già fatto progressi convincenti.
Eccone alcune che potrebbero essere utilizzate per raggiungere la capacità computazionale del cervello umano.
Il calcolo molecolare 3D
La costruzione di circuiti tridimensionali con la litografia “convenzionale” del silicio rappresenta un metodo. La Matrix Semiconductor produce già chip di memoria con molti piani di transistor impilati verticalmente anziché a un singolo strato. Matrix si sta concentrando in primo luogo sui dispositivi portatili, dove spera di competere con la memoria flash in quanto un singolo chip 3D può trasportare una maggiore quantità di memoria, riducendo al contempo le dimensioni complessive del prodotto (utilizzato nei telefoni cellulari e nelle fotocamere digitali perché non perde le informazioni quando si spegne l’alimentazione).
Anche il costo complessivo per bit diminuisce grazie ai circuiti impilati. Uno dei rivali di Matrix, Fujio Masuoka, ex ingegnere di Toshiba e creatore della memoria flash, ha una strategia diversa. Rispetto ai chip piatti, Masuoka afferma che il suo innovativo design di memoria, che assomiglia a un cilindro, riduce drasticamente le dimensioni e il costo per bit della memoria.
Nanotubi
I nanotubi possono raggiungere densità elevate grazie alle loro piccole dimensioni: i nanotubi a parete singola hanno un diametro di un solo nanometro e sono anche potenzialmente molto veloci.
Un singolo elettrone viene utilizzato per passare dallo stato di accensione a quello di spegnimento di un transistor basato su nanotubi che funziona a temperatura ambiente e con dimensioni di 1×20 nanometri, secondo quanto riportato da Science il 6 luglio 2001.Più o meno nello stesso periodo, l’IBM ha presentato un circuito integrato con 1.000 transistor fatti di nanotubi.
Il fatto che alcuni nanotubi funzionino come conduttori e si limitino a trasportare l’elettricità, mentre altri si comportino come semiconduttori e siano in grado di commutare e creare porte logiche, rappresenta una delle difficoltà nell’implementazione di questa tecnologia. La differenza di capacità si basa su sottili caratteristiche strutturali. In passato queste caratteristiche dovevano essere risolte manualmente, il che rendeva impraticabile la progettazione di circuiti su larga scala. Per superare questo problema, i ricercatori di Berkeley e Stanford hanno ideato un metodo completamente automatizzato per separare i nanotubi semiconduttori.
I nanotubi tendono a crescere in tutte le direzioni, il che rende difficile il loro allineamento nei circuiti a nanotubi. Nel 2001 gli scienziati dell’IBM hanno dimostrato che i transistor a nanotubi potevano essere prodotti in serie come quelli al silicio. Hanno utilizzato una tecnica nota come “distruzione costruttiva”, che elimina la necessità di filtrare manualmente i nanotubi difettosi distruggendoli immediatamente sul wafer.
Calcolo con le molecole
Insieme ai nanotubi, di recente sono stati compiuti progressi significativi nel campo del calcolo con una o poche molecole. L’informatica molecolare è stata proposta per la prima volta da Mark A. Ratner della Northwestern University e Avi Aviram dell’IBM all’inizio degli anni Settanta.
Nel 2002 i ricercatori delle Università del Wisconsin e di Basilea hanno sviluppato una “unità di memoria atomica” che imita un disco rigido utilizzando gli atomi. Un blocco di venti atomi di silicio poteva essere aggiunto o tolto utilizzando un microscopio a scansione tunnel. Sebbene la dimostrazione abbia utilizzato solo una quantità limitata di bit, i ricercatori prevedono che la tecnica potrebbe essere utilizzata per memorizzare milioni di volte ancora più dati su un disco di dimensioni paragonabili: una densità di circa 250 terabit di dati per pollice quadrato.
Autoassemblaggio
L’autoassemblaggio dei circuiti su scala nanometrica è un’altra tecnica chiave per una nanoelettronica efficace. L’autoassemblaggio consente ai possibili miliardi di componenti del circuito di organizzarsi da soli, invece di essere assemblati faticosamente con un processo di tipo top-down, e permette di eliminare automaticamente i componenti mal formati.
Nel 2004 i ricercatori dell’Ames Research Center della NASA e della University of Southern California hanno dimostrato una tecnica che consente di auto-organizzare circuiti incredibilmente densi in una soluzione chimica. Il processo genera da solo dei nanofili e poi innesca l’autoassemblaggio di celle di memoria su scala nanometrica, ciascuna in grado di memorizzare tre bit di dati, sui fili.
Emulare la biologia
La biologia è la fonte di ispirazione per la creazione di sistemi elettronici o meccanici autoreplicanti e auto-organizzati. I prioni, che sono proteine autoreplicanti, sono stati utilizzati in una ricerca pubblicata nei Proceedings of the National Academy of Sciences per creare nanofili autoreplicanti.
Data la forza innata dei prioni, il team del progetto li ha utilizzati come modello. Tuttavia, i ricercatori hanno sviluppato una forma geneticamente alterata di prioni con una piccola copertura d’oro, che conduce l’elettricità con una bassa resistenza nonostante il fatto che i prioni non lo facciano normalmente.
Naturalmente, il DNA è la molecola biologica autoreplicante per eccellenza. I ricercatori della Duke University hanno utilizzato molecole di DNA auto-assemblanti per creare “piastrelle”, piccoli pezzi di costruzione molecolare. Sono stati in grado di manipolare la struttura dell’assemblaggio formando delle “nanogriglie”. Con questo metodo, le molecole proteiche si attaccano automaticamente a ogni cellula della nanogriglia, che potrebbe essere utilizzata per il calcolo.
Calcolo con il DNA
Il DNA è il computer nanoingegnerizzato della natura e “computer a DNA” specializzati hanno già sfruttato la sua capacità di memorizzare dati ed eseguire operazioni logiche a livello molecolare. In sostanza, un computer a DNA è una provetta riempita di acqua e trilioni di molecole di DNA, ognuna delle quali funziona come un computer.
Lo scopo del calcolo è quello di risolvere un problema e il risultato è rappresentato da una serie di simboli. (Per esempio, l’insieme di simboli potrebbe rappresentare un semplice argomento matematico o un insieme di numeri). È così che funziona un computer a DNA. Ogni simbolo ha un codice specifico, che viene utilizzato per generare un breve filamento di DNA. La “reazione a catena della polimerasi” è una tecnica che viene utilizzata per replicare ciascuno di questi filamenti trilioni di volte. Questi gruppi di DNA vengono poi collocati in una provetta.
I filamenti lunghi si formano naturalmente come risultato della predisposizione del DNA a unire i filamenti, con le sequenze dei filamenti che rappresentano vari simboli, ognuno dei quali potrebbe essere una potenziale soluzione al problema. Ci sono diversi filamenti per ogni potenziale soluzione perché ci saranno molti trilioni di tali filamenti (cioè, ogni possibile sequenza di simboli).
Calcolo con lo spin
Oltre ad avere una carica elettrica negativa, gli elettroni hanno anche una caratteristica chiamata spin che può essere utilizzata per la memoria e il calcolo. Secondo la meccanica quantistica, gli elettroni ruotano su un asse, proprio come la Terra.
Poiché si pensa che un elettrone occupi un punto nello spazio, è difficile immaginare un punto senza dimensioni che giri, quindi questa idea è solo teorica. Il campo magnetico che si produce quando una carica elettrica si muove, invece, è reale e quantificabile. La capacità di un elettrone di ruotare in una delle due direzioni – “su” o “giù” – può essere utilizzata per commutare la logica o per codificare un pezzo di memoria.
L’aspetto affascinante della spintronica è che lo stato di spin di un elettrone può essere cambiato senza bisogno di energia.
Calcolo con la luce
L’utilizzo di più fasci laser con informazioni memorizzate in ciascun flusso di fotoni è un altro metodo di calcolo SIMD (Single instruction, Multiple Data). I flussi di dati codificati possono essere elaborati dai componenti ottici con operazioni logiche e aritmetiche. Eseguendo lo stesso calcolo su ciascuno dei 256 flussi di dati, un sistema creato da Lenslet, una piccola startup israeliana, può elaborare otto trilioni di calcoli al secondo utilizzando 256 laser.
Le aree di applicazione di questa tecnologia includono la compressione dei dati per 256 canali video.
Quantum Computing
Ancora più rivoluzionaria dell’elaborazione parallela SIMD, è il quantum computing che è ancora agli albori rispetto alle altre tecnologie emergenti che abbiamo trattato. Un computer quantistico comprende un certo numero di qubit, che sono effettivamente sia 0 che 1. L’ambiguità di base che si verifica nella meccanica quantistica serve come base per il qubit. I qubit in un computer quantistico sono rappresentati da una proprietà quantistica di una particella, come lo stato di spin di ogni singolo elettrone. Ogni qubit è presente contemporaneamente in entrambi gli stati quando si trova in uno stato “entangled”.
L’ambiguità di ogni qubit viene risolta da un processo noto come “decoerenza quantistica”, lasciando una serie inequivocabile di uno e zero. La sequenza decoerenziata dovrebbe essere la soluzione del problema se il computer quantistico è configurato correttamente. In sostanza, solo l’ordine corretto resiste al processo di decoerenza.
Accelerare la disponibilità di Personal Computing a livello umano
Entro il 2025 avremo 1016 cps, rispetto agli oltre 109 cps offerti attualmente dai personal computer. Esistono tuttavia diverse tecniche per accelerare questa tabella di marcia. I circuiti integrati specifici per le applicazioni (ASIC) possono offrire prestazioni migliori per i calcoli estremamente ripetitivi rispetto ai processori generici. Per i calcoli ripetitivi richiesti per produrre immagini in movimento nei videogiochi, tali circuiti offrono già un volume di calcolo eccezionalmente elevato. Gli ASIC possono accelerare le prestazioni di prezzo di mille volte, riducendo la scadenza del 2025 di circa otto anni.
Anche i molti programmi diversi che compongono una simulazione del cervello umano avranno molte ripetizioni, il che li rende adatti all’implementazione ASIC. Ad esempio, un modello di cablaggio fondamentale si ripete miliardi di volte nel cervelletto.
Utilizzando la potenza di calcolo inutilizzata dei dispositivi connessi a Internet, saremo anche in grado di aumentare la potenza dei personal computer. Il meshing computing, uno dei nuovi paradigmi di comunicazione, prevede che ogni dispositivo della rete sia trattato come un nodo a sé stante, inviando e ricevendo informazioni da ogni altro dispositivo, mentre i dispositivi (come i personal computer e i PDA) forniscono informazioni solo ai e dai nodi. Di conseguenza, si creeranno reti di comunicazione incredibilmente forti e auto-organizzate. Inoltre, sarà più semplice per i computer e gli altri dispositivi utilizzare il tempo di CPU libero dei membri della rete nella loro regione.
La capacità di memoria umana
Quanta memoria può immagazzinare computazionalmente un individuo? È emerso che, se includiamo le esigenze della memoria umana, le nostre previsioni temporali sono piuttosto vicine. Per una serie di argomenti, un esperto ha in genere una padronanza di 105 o più “pezzi” di informazioni.
Queste unità rappresentano sia conoscenze specifiche, sia schemi (come i volti). Si ritiene, ad esempio, che un giocatore di scacchi di livello mondiale abbia padroneggiato circa 100.000 situazioni diverse sulla scacchiera. Shakespeare ha usato 29.000 parole, ma queste avevano circa 100.000 significati diversi. Gli esseri umani sono in grado di padroneggiare circa 100.000 concetti in un determinato argomento, secondo lo sviluppo dei sistemi esperti in medicina. Possiamo stimare il numero di pezzi se ipotizziamo che queste informazioni “professionali” costituiscano solo l’1% del patrimonio di conoscenze complessive di un essere umano.
Una stima plausibile delle dimensioni dei blocchi (schemi o pezzi di conoscenza) nei sistemi esperti basati su regole o nei sistemi di riconoscimento di schemi auto-organizzati è di circa 106 bit, il che equivale a una capacità di memoria funzionale di 1013 (10 trilioni) bit nell’uomo.
Le macchine che raggiungono la capacità computazionale del cervello umano potrebbero portare a capacità più avanzate la risoluzione di problemi e all’analisi dei dati, ad esempio. Inoltre, potremmo avere computer con una memoria più complessa e con migliori capacità di apprendimento. La ricerca scientifica e lo sviluppo tecnologico sarebbero sicuramente accelerati in ogni campo.
Tuttavia, ci sono anche alcune implicazioni, poiché ci saranno macchine più intelligenti degli esseri umani che potrebbero facilmente ingannare e manipolare le persone come potrebbero fare le IA, oltre a conseguenze e comportamenti imprevedibili come accade nei cervelli umani. Inoltre, potrebbero esserci impatti socio-economici poiché queste macchine supereranno gli esseri umani in molti compiti, ma potrebbero anche avere un impatto ambientale a causa del loro notevole consumo di energia e di calcolo.
La singolarità è vicina, di Ray Kurzweil, è disponibile per l’acquisto qui [...]
Giugno 13, 2023Aiuterà a testare il corpo umano in ambienti ad alta temperatura
Spesso non è possibile condurre studi su volontari volenterosi da parte dei ricercatori che si occupano di come il corpo umano affronta le temperature più rigide. Considerando che una persona comune potrebbe morire in seguito a molti di questi test.
È qui che entra in gioco ANDI, il primo robot della storia a respirare, sudare, tremare e camminare. Thermatrics, un’azienda che si occupa di tecnologie termiche, ha costruito la macchina indoor-outdoor appositamente per l’Arizona State University (ASU) per aiutare i ricercatori a capire meglio come il corpo reagisce al calore elevato. Secondo questo articolo, le 35 diverse superfici dell’androide, ognuna delle quali è dotata di sensori di temperatura, sensori di flusso di calore e dell’elemento cruciale di questa invenzione: i pori del sudore, gli permettono di imitare le funzioni termiche del corpo umano a questo scopo.
“ANDI suda; genera calore, trema, cammina e respira. C’è molto lavoro da fare per quanto riguarda il calore estremo, ma ne manca ancora molto”, ha osservato Konrad Rykaczewski, professore associato presso la Scuola di Ingegneria della Materia, dei Trasporti e dell’Energia.
È ovvio che nei prossimi decenni in tutti gli Stati Uniti si registreranno temperature medie più elevate e ondate di calore più intense. Purtroppo, questo potrebbe far aumentare le migliaia di persone che muoiono ogni anno a causa di disturbi legati al caldo. Nella sola contea di Maricopa, infatti, nel 2022 sono stati registrati 425 decessi legati al caldo, con uno spaventoso aumento del 25% rispetto all’anno precedente. Dato che gli incendi canadesi hanno ricoperto di fumo arancione gran parte del Paese, non passerà molto tempo prima che simili catastrofi diventino più frequenti.
Gli scienziati hanno messo ANDI in una camera termica per effettuare studi che permettano di misurare i rischi che i diversi ambienti comportano per la salute, al fine di poter costruire soluzioni per proteggere meglio gli esseri umani dallo stress da calore.
Secondo la professoressa associata Jenni Vanos della School of Sustainability e la professoressa assistente Ariane Middel della School of Arts, Media, and Engineering, “non è possibile mettere gli esseri umani in situazioni pericolose di calore estremo e verificare cosa accadrebbe”. Se vi state chiedendo come fa ANDI a non esplodere con il caldo, è perché il robot è dotato di canali di raffreddamento interni che distribuiscono acqua fredda in tutto il corpo, mantenendolo fresco anche nelle condizioni più calde.
I ricercatori intendono combinare ANDI con MaRTy, un robot bio-metereologico, per far progredire la ricerca. I due collaboreranno poi per dimostrare come i processi di sudorazione umana influenzino la temperatura del nucleo e della pelle e come si comportino in circostanze in cui c’è la possibilità di un forte calore. È affascinante notare che con questi robot i ricercatori possono facilmente modificare i modelli di IMC, le caratteristiche di età e i problemi medici degli androidi per osservare come i corpi rispondono alle varie situazioni. Forse questa ricerca porterà allo sviluppo di dispositivi contro il calore. Ad esempio, lo sviluppo di indumenti o esoscheletri per zaini refrigeranti.
Robot sempre più sofisticati aiuteranno a testare facilmente ambienti estremi senza rischiare la vita umana, come Spot di Boston Dynamics. In ogni caso, potrebbe esserci un aspetto negativo se la loro capacità di resistere a situazioni che un umano non potrebbe sopportare, venisse impiegata contro le persone. [...]
Giugno 6, 2023L’intelligenza artificiale potrebbe modificare la scena musicale come ha fatto l’mp3 anni fa
Come spiegato qui, i produttori potrebbero utilizzare l’intelligenza artificiale per cambiare la propria voce in quella di un altro artista, il che rappresenterebbe un altro enorme passo avanti per la produzione musicale basata sull’intelligenza artificiale. L’imprenditore e influencer tecnologico Roberto Nickson ha condiviso su Twitter un video in cui ha utilizzato una voce di Kanye West generata dall’intelligenza artificiale al posto della propria per registrare otto versi su un brano trovato su YouTube.
There will be a lot of regulatory and legal frameworks that will have to be re-written around this.We will have to figure out how to protect artists at the machine level.For example, Kanye has the right to protect his name, image, likeness, etc. – that might have to be…— Roberto Nickson (@rpnickson) March 26, 2023
I risultati sono notevolmente realistici. Ci sono una o due parole che suonano leggermente fuori posto all’inizio della canzone, ma la maggior parte della strofa sembra estremamente accurata e potrebbe facilmente convincere l’ascoltatore medio della sua autenticità. Ma è importante notare che le parole e la pronuncia di Kanye sono migliori e l’intelligenza artificiale non è ancora in grado di replicare questi due aspetti.
Nickson ha impiegato la tecnologia anche per produrre altre versioni di canzoni famose, mettendo l’AI Kanye sulla voce di Love Yourself di Justin Bieber, Nights di Frank Ocean e Still D.R.E. di Dr. Dre.
Nickson ha seguito un tutorial di YouTube su come utilizzare Google Colab per accedere a un modello di intelligenza artificiale esistente che è stato addestrato sulla voce di Kanye per imitare il timbro vocale del rapper. L’industria musicale subirà sicuramente dei cambiamenti significativi quando questo tipo di tecnologia sarà ottimizzata e integrata nella DAW.
“Tutto quello che dovete fare è registrare la voce di riferimento e sostituirla con un modello addestrato di qualsiasi musicista che vi piace”, dice Nickson. “Tenete presente che questo è il peggio che l’IA potrà mai fare. Nel giro di pochi anni, ogni musicista popolare avrà più modelli addestrati di lui”.
Sebbene tecnicamente affascinante, non è chiaro quali siano le implicazioni legali di questa forma di trasferimento dello stile. Il diritto commerciale, tutelato in diversi Paesi e descritto come “il diritto di un individuo di controllare l’uso commerciale della propria identità”, probabilmente proibirà agli artisti di impiegare voci clonate dall’IA di un altro artista in musica prodotta commercialmente senza autorizzazione.
Alcuni mesi fa, il diritto alla pubblicazione di Rick Astley è stato presumibilmente violato dal rapper Yung Gravy, che ha imitato la sua voce nella canzone Betty (Get Money). La causa cita un caso del 1988 in cui la Ford Motor Company è stata citata in giudizio per aver utilizzato un imitatore per somigliare a Bette Midler in una pubblicità.
Nelle risposte al suo thread su Twitter, Nickson osserva giustamente che molti sistemi normativi e legali dovranno essere rivisti per adattarsi a questa situazione e che dovremo scegliere come salvaguardare gli artisti.
Con l’integrazione di questa tecnologia nelle DAW, possiamo immaginare un momento in cui i musicisti venderanno i propri modelli vocali ai fan che vorranno impiegarli in plugin alimentati dall’intelligenza artificiale per replicare la voce nei propri brani. Un rapper o un cantante potrebbe apparire in un migliaio di brani in un giorno senza mai recarsi in uno studio o dire una parola. Potrebbe essere una nuova forma di commercio o forse un modo per lavorare a distanza.
Come ha commentato un utente di Twitter, questo potrebbe essere un momento di importanza paragonabile all’ascesa del campionamento nell’hip-hop. “Si pensava che la musica consistesse nel cantare e suonare strumenti, finché la tecnologia non ha permesso di creare musica a partire da altra musica esistente”, continua. “Ora sta succedendo di nuovo, ma su scala atomica. Sta per essere attivata la modalità Dio per tutti”.
I'm glad the Kanye AI video is sparking conversation.Whether you liked it or hated it – the point is that AI represents profound societal transformation.The possibilities are endless, but so are the dangers.AGI will likely happen in our lifetime. Some of the world's…— Roberto Nickson (@rpnickson) March 26, 2023
Come per tutti gli sviluppi dell’IA, ci troviamo di fronte sia alla possibilità di essere creativi sia alla possibilità di abusarne. Una volta che la tecnologia sarà abbastanza potente da essere completamente convincente e disponibile, il mercato potrà essere talmente inondato di false voci di IA che sarà impossibile distinguere quelle vere da quelle false.
“Le cose si muoveranno molto velocemente nei prossimi anni”, commenta Nickson. “Ascolterete canzoni dei vostri artisti preferiti completamente indistinguibili, non saprete se si tratta di loro o meno”.
“Le possibilità sono infinite, ma anche i pericoli”, continua Nickson in un altro tweet. “Queste conversazioni devono avvenire a tutti i livelli della società, per garantire che questa tecnologia venga utilizzata in modo etico e sicuro, a beneficio di tutta l’umanità”.
I'm glad the Kanye AI video is sparking conversation.Whether you liked it or hated it – the point is that AI represents profound societal transformation.The possibilities are endless, but so are the dangers.AGI will likely happen in our lifetime. Some of the world's…— Roberto Nickson (@rpnickson) March 26, 2023
In un discorso trasmesso al TED l’anno scorso, la musicista, produttrice e accademica Holly Herndon ha fatto cantare un altro artista attraverso un modello di intelligenza artificiale addestrato alla sua voce in tempo reale.
Un recente caso di utilizzo dell’intelligenza artificiale nella musica che è diventato virale è l’album degli Oasis realizzato con l’intelligenza artificiale.
L’album di otto canzoni, intitolato “The Lost Tapes Volume I”, è stato recentemente pubblicato dalla band indie di Hastings Breezer. I Breezer si sono stancati di aspettare che l’iconico gruppo brit-pop si riformasse e hanno deciso di creare il proprio album di 30 minuti degli Oasis nello stile del periodo di massimo splendore del 1995-1997 e di accreditarlo come AIsis. I testi e la musica sono stati scritti e registrati dai Breezer, ma la voce di Liam Gallagher è stata creata con l’intelligenza artificiale.
L’intelligenza artificiale cambierà ancora una volta il modo di produrre arte, questa volta coinvolgendo il campo musicale. Molti produttori si sono preoccupati quando la loro musica ha iniziato a diffondersi su Internet con la nascita dell’mp3. Ora saranno ancora più spaventati perché sarà la loro voce a essere rubata. Presto vedremo molte tracce non autorizzate di brani cantati da artisti famosi senza il loro consenso. Nonostante possa essere sorprendente ascoltare nuove canzoni di artisti popolari, soprattutto di quelli morti, quando l’IA produrrà risultati perfetti, potrebbe essere difficile distinguere gli artisti reali da quelli irreali o dai brani che hanno ottenuto il permesso di essere prodotti con l’IA. Ologrammi e voci dell’IA potrebbero far cantare un artista per sempre, e nuovi plugin di strumenti virtuali (VST) potrebbero però legittimamente concedere a tutti il diritto di produrre con artisti famosi. [...]
Maggio 30, 2023I robot e l’intelligenza artificiale possono portare a guerre più devastanti
Le armi autonome letali (LAW), spesso conosciute come robot assassini o macchine da combattimento, probabilmente vi sono familiari grazie a film e libri. Inoltre, il concetto di armi super-intelligenti è ancora materia di fantascienza. Tuttavia, man mano che le armi dotate di intelligenza artificiale diventano più avanzate, l’opinione pubblica si preoccupa della mancanza di responsabilità e della possibilità di malfunzionamenti tecnici.
Non siamo nuovi agli errori dell’IA che possono causare danni. Ma in una guerra, questo tipo di errori potrebbe causare la morte di civili o rovinare i negoziati.
Secondo questo articolo, un algoritmo di riconoscimento dei bersagli, ad esempio, può essere addestrato a riconoscere i carri armati dalle immagini satellitari. Ma cosa succederebbe se ogni illustrazione utilizzata per addestrare il sistema mostrasse soldati in piedi in cerchio intorno al carro armato? Potrebbe credere che un’auto civile che attraversa una barriera militare sia un bersaglio.
I civili hanno sofferto in numerose nazioni (tra cui Vietnam, Afghanistan e Yemen) a causa del modo in cui le superpotenze mondiali producono e utilizzano armi sempre più avanzate.
Coloro che ritengono che una nazione debba essere in grado di difendersi tenendo il passo con la tecnologia militare di altri Paesi appartengono all’altro fronte. Ad esempio, Microsoft afferma che la sua tecnologia di riconoscimento vocale ha un tasso di errore dell’1% rispetto al 6% degli esseri umani. Non deve quindi sorprendere che gli eserciti stiano gradualmente cedendo le redini agli algoritmi.
Ma come possiamo evitare che i robot assassini si aggiungano alla lunga lista di invenzioni che rimpiangiamo?
Un sistema bellico autonomo è quello che il Dipartimento della Difesa degli Stati Uniti definisce come: “Un sistema di armamento che, una volta attivato, è in grado di selezionare e colpire i bersagli senza ulteriori interventi da parte di un operatore umano”.
Questo standard è già soddisfatto da diversi sistemi di combattimento. Gli algoritmi dei computer degli attuali missili e droni sono in grado di riconoscere i bersagli e di sparare con una precisione molto maggiore rispetto a quella di un operatore umano. Uno dei sistemi di difesa attiva in grado di colpire i bersagli senza la supervisione umana è l’Iron Dome di Israele.
Nonostante sia destinato alla difesa missilistica, l’Iron Dome può accidentalmente causare vittime. Tuttavia, a causa dei risultati tipicamente costanti di Iron Dome nella difesa delle vite dei civili, il rischio è accettato dalla politica internazionale.
Le sentinelle robot e i droni kamikaze vaganti impiegati nel conflitto in Ucraina sono solo due esempi di armi abilitate dall’intelligenza artificiale che sono fatte per danneggiare le persone. La conoscenza del passato delle armi moderne è quindi necessaria se vogliamo influenzare l’uso dei LAW.
Gli accordi internazionali, come le Convenzioni di Ginevra, stabiliscono gli standard per il trattamento dei civili e dei prigionieri di guerra durante le ostilità. Sono uno dei pochi metodi che abbiamo per gestire la condotta dei conflitti. Purtroppo, l’uso di armi chimiche da parte degli Stati Uniti in Vietnam e della Russia in Afghanistan dimostra che queste strategie non sono sempre efficaci.
Peggio ancora è quando soggetti importanti si rifiutano di partecipare. Dal 1992, la Campagna internazionale per la messa al bando delle mine (ICBL) ha spinto per la messa al bando delle mine e delle munizioni a grappolo (che spargono casualmente piccole bombe su un’ampia area). Il divieto di queste armi è stato incluso nella Convenzione di Ottawa del 1997, ratificata da 122 Paesi. Ma né gli Stati Uniti, né la Cina, né la Russia hanno accettato.
Che dire, però, delle armi più sofisticate alimentate dall’intelligenza artificiale? La Campagna per fermare i robot assassini elenca nove problemi principali legati alle armi di distruzione di massa, con particolare attenzione alla mancanza di responsabilità e alla conseguente disumanizzazione dell’uccisione.
Sebbene questa critica sia legittima, un divieto totale delle LAW non è plausibile per due motivi. In primo luogo, ormai sono state sdoganate, proprio come le mine. Inoltre, può essere difficile discernere tra armi autonome, LAW e robot assassini a causa della difficoltà a distinguerle. I capi militari potrebbero sempre trovare un modo per aggirare le restrizioni di un divieto e far passare i robot killer come armi autonome difensive. Potrebbero anche farlo inavvertitamente.
Le armi future con capacità di intelligenza artificiale sono probabilmente destinate ad aumentare. Ma questo non ci obbliga a chiudere un occhio. Sarebbe più facile ritenere responsabili i nostri politici, scienziati e ingegneri se ci fossero restrizioni più precise e dettagliate.
Per esempio, vietando:
IA a scatola nera: si riferisce a sistemi in cui l’utente è a conoscenza solo degli input e degli output dell’algoritmo.
IA inaffidabile: sistemi non adeguatamente testati.
Affidarsi ai robot e all’intelligenza artificiale per condurre una guerra significa essere ancora più liberi da responsabilità per quanto riguarda gli atti criminali. In questo modo, uccidere delegando l’atto alle macchine potrebbe portare a uccisioni più cruente e con meno moralità, dando vita a uno scenario bellico completamente nuovo. E dal momento che le macchine sono instancabili, cosa causerà la fine di una guerra? [...]
Maggio 23, 2023Avremo più tempo e una vita più lunga
Il metaverso e i chatbot prenderanno il sopravvento o ci sarà ancora posto per un po’ di romanticismo nella vita reale? Secondo il The Sun, l’autore e futurologo Tom Cheesewright, il futuro delle relazioni e il tempo saranno gestiti in modo più aperto.
Vacanze d’incontri per chi cerca l’amore
Dopo un divorzio, la vita sarà drasticamente diversa da quella attuale. Durante i viaggi d’incontri appositamente creati, i single in cerca di una nuova relazione impegnata avranno l’opportunità di incontrare altri che condividono i loro obiettivi.
Anche se passeremo molto tempo in ambienti virtuali come il metaverso, probabilmente cercheremo nuove relazioni impegnate nel mondo reale. Le vacanze per single in cerca di matrimonio diventeranno sempre più popolari.
Tuttavia, coloro che non sono alla ricerca di una relazione romantica potranno comunicare con robot domestici altamente sviluppati senza bisogno di un partner.
Anche il sesso con i robot diventerà più popolare, soprattutto per chi ha appena divorziato e non vuole impegnarsi in un’altra relazione. Saranno perciò disponibili dispositivi sessuali più sofisticati e accettabili, soprattutto per chi non è pronto per una nuova relazione d’amore.
E la distinzione tra sex toys e sex robots diventerà meno netta. Tuttavia, saremo sempre un po’ diffidenti nei confronti dei robot che assomigliano alle persone.
La vita reale sostituirà lo swiping a destra
Lo swiping verso destra, come avviene sulle app per appuntamenti come Tinder, verrà sostituito con le tradizionali cene per chi desidera un appuntamento occasionale. Negli ultimi 12 anni gli incontri online sono passati dall’essere un’opzione di nicchia al modo più comune di stabilire relazioni.
Tuttavia, anche la tecnologia più avanzata è lontana dal contatto umano. Quindi potrebbe esserci una reazione contro la tecnologia e un ritorno alle connessioni umane genuine, che potrebbero essere più apprezzate.
Nel 2123 il metaverso, con i suoi numerosi altri piani di realtà, la farà da padrone. Utilizzando gli occhiali intelligenti o le lenti a contatto, si potrà sperimentare in qualche modo la realtà virtuale, ma si potranno anche vedere oggetti virtuali nel mondo reale.
Passeremo la maggior parte della giornata a interagire con IA, robot e persone nel metaverso. L’autentico sarà sempre superiore al metaverso. Il contatto fisico, l’amore umano e l’empatia saranno tanto più apprezzati quanto più a lungo vi resteremo.
Quando nel 2123 gli occhiali intelligenti diventeranno la norma e tutti li indosseremo sempre, sarà educato toglierli e concentrarsi esclusivamente sulla persona con cui si sta parlando, proprio come si farebbe con il telefono in un ambiente pubblico. Apprezzeremo di più quei momenti in cui ci sentiamo completamente connessi con un’altra persona.
Divorzio tramite scansione dei pollici
Oggi esistono molti beni virtuali nelle relazioni e il loro numero è destinato ad aumentare nel corso del prossimo secolo. Questi beni vanno dalle collezioni musicali online condivise e dai mutui ai conti bancari digitali, ai mutui e agli NFT (token non fungibili, o beni digitali).
Per le persone sarà molto più semplice intraprendere e abbandonare relazioni prive di bagagli. Sarà molto più semplice dividere beni come la casa e i mobili in caso di divorzio nel prossimo secolo.
Tutti i nostri beni saranno completamente inventariati e il loro valore sarà costantemente aggiornato. Inoltre, tutti i documenti relativi al matrimonio saranno digitali. La firma sul certificato di matrimonio potrebbe essere sostituita da una scansione delle impronte digitali o addirittura dalla lettura del battito cardiaco individuale.
E se una coppia divorzia amichevolmente, potrebbe lasciare l’impronta della propria mano davanti a un lettore nel metaverso per segnalare la fine della relazione. L’unica volta che i tribunali saranno coinvolti in una separazione è se questa è molto complicata.
Le emozioni associate al divorzio non scompariranno, ma con nuove terapie e una migliore comprensione della mente umana, saremo in grado di gestire meglio i processi.
Matrimoni multipli
Dato che sempre più persone desiderano avere più partner nel corso della loro vita, anche il matrimonio avrà un aspetto molto diverso tra 100 anni. Il matrimonio tradizionale non scomparirà, ma dato che l’età media del matrimonio si sta già alzando, sicuramente usciremo di più, prima di sistemarci.
Non saremo contrari ad avere una serie di legami significativi e a comunicarli ai nostri partner.
Diversi matrimoni potrebbero essere la norma, così come possiamo avere più di un impiego nel corso della nostra vita. Gli esseri umani vivranno più a lungo e non sarà insolito avere tre o quattro figli. Solo il tempo ci dirà se questo avverrà con un robot o con un vero essere umano.
La gente ritarderà ad avere figli
Le persone ritarderanno il matrimonio e la nascita di figli perché una percentuale maggiore di loro vivrà una vita più lunga e più sana. L’età in cui le coppie decidono di avere figli ha già subito un cambiamento significativo.
Grazie ai progressi della medicina, non sarà più raro che una donna abbia un figlio a cinquant’anni o anche più tardi. Anche la scelta di non avere figli diventerà sempre più diffusa, dato che un numero maggiore di individui conduce una vita soddisfacente in ambienti virtuali.
Un numero sempre maggiore di persone sparirà nel metaverso, dato che il mondo digitale è così allettante e può soddisfare qualsiasi fantasia, non solo sessuale. Molto allettante per le persone che preferiscono evitare i contatti interpersonali.
I bot permetteranno più tempo libero
Gli impegni ordinari della vita quotidiana, come pagare le bollette, fare la spesa e mantenere un veicolo, saranno ormai lontani per gli esseri umani. Le coppie tra 100 anni avranno più tempo ed energia per l’altro e per il sesso, perché ci sarà più tempo libero e meno stress per i legami interpersonali. A quel punto, il lavoro da casa sarà una consuetudine, che offrirà alle coppie molte più opportunità per la spontaneità.
Se immaginiamo un futuro fatto di relazioni esclusivamente digitali, ci sbagliamo. La ricerca di relazioni reali non mancherà, anche se tali relazioni potrebbero essere qualcosa di più esclusivo in un mondo in cui la maggior parte delle persone si accontenterà di relazioni virtuali. Probabilmente ci saranno più opportunità di trovare persone che condividono i nostri interessi grazie alla tecnologia; qualcosa che nella vita reale forse sarà più difficile da trovare, anche se potrebbero mancare tutti quegli aspetti che la casualità della vita esclusivamente reale potrebbe comportare, sia in positivo che in negativo. Tuttavia, essere relegati alla solitudine potrà essere meno probabile date le, seppur effimere, alternative tecnologiche. [...]