La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.
Il blog di House cerca di fare tutto questo.
Ultimi articoli
Giugno 6, 2023L’intelligenza artificiale potrebbe modificare la scena musicale come ha fatto l’mp3 anni fa
Come spiegato qui, i produttori potrebbero utilizzare l’intelligenza artificiale per cambiare la propria voce in quella di un altro artista, il che rappresenterebbe un altro enorme passo avanti per la produzione musicale basata sull’intelligenza artificiale. L’imprenditore e influencer tecnologico Roberto Nickson ha condiviso su Twitter un video in cui ha utilizzato una voce di Kanye West generata dall’intelligenza artificiale al posto della propria per registrare otto versi su un brano trovato su YouTube.
There will be a lot of regulatory and legal frameworks that will have to be re-written around this.We will have to figure out how to protect artists at the machine level.For example, Kanye has the right to protect his name, image, likeness, etc. – that might have to be…— Roberto Nickson (@rpnickson) March 26, 2023
I risultati sono notevolmente realistici. Ci sono una o due parole che suonano leggermente fuori posto all’inizio della canzone, ma la maggior parte della strofa sembra estremamente accurata e potrebbe facilmente convincere l’ascoltatore medio della sua autenticità. Ma è importante notare che le parole e la pronuncia di Kanye sono migliori e l’intelligenza artificiale non è ancora in grado di replicare questi due aspetti.
Nickson ha impiegato la tecnologia anche per produrre altre versioni di canzoni famose, mettendo l’AI Kanye sulla voce di Love Yourself di Justin Bieber, Nights di Frank Ocean e Still D.R.E. di Dr. Dre.
Nickson ha seguito un tutorial di YouTube su come utilizzare Google Colab per accedere a un modello di intelligenza artificiale esistente che è stato addestrato sulla voce di Kanye per imitare il timbro vocale del rapper. L’industria musicale subirà sicuramente dei cambiamenti significativi quando questo tipo di tecnologia sarà ottimizzata e integrata nella DAW.
“Tutto quello che dovete fare è registrare la voce di riferimento e sostituirla con un modello addestrato di qualsiasi musicista che vi piace”, dice Nickson. “Tenete presente che questo è il peggio che l’IA potrà mai fare. Nel giro di pochi anni, ogni musicista popolare avrà più modelli addestrati di lui”.
Sebbene tecnicamente affascinante, non è chiaro quali siano le implicazioni legali di questa forma di trasferimento dello stile. Il diritto commerciale, tutelato in diversi Paesi e descritto come “il diritto di un individuo di controllare l’uso commerciale della propria identità”, probabilmente proibirà agli artisti di impiegare voci clonate dall’IA di un altro artista in musica prodotta commercialmente senza autorizzazione.
Alcuni mesi fa, il diritto alla pubblicazione di Rick Astley è stato presumibilmente violato dal rapper Yung Gravy, che ha imitato la sua voce nella canzone Betty (Get Money). La causa cita un caso del 1988 in cui la Ford Motor Company è stata citata in giudizio per aver utilizzato un imitatore per somigliare a Bette Midler in una pubblicità.
Nelle risposte al suo thread su Twitter, Nickson osserva giustamente che molti sistemi normativi e legali dovranno essere rivisti per adattarsi a questa situazione e che dovremo scegliere come salvaguardare gli artisti.
Con l’integrazione di questa tecnologia nelle DAW, possiamo immaginare un momento in cui i musicisti venderanno i propri modelli vocali ai fan che vorranno impiegarli in plugin alimentati dall’intelligenza artificiale per replicare la voce nei propri brani. Un rapper o un cantante potrebbe apparire in un migliaio di brani in un giorno senza mai recarsi in uno studio o dire una parola. Potrebbe essere una nuova forma di commercio o forse un modo per lavorare a distanza.
Come ha commentato un utente di Twitter, questo potrebbe essere un momento di importanza paragonabile all’ascesa del campionamento nell’hip-hop. “Si pensava che la musica consistesse nel cantare e suonare strumenti, finché la tecnologia non ha permesso di creare musica a partire da altra musica esistente”, continua. “Ora sta succedendo di nuovo, ma su scala atomica. Sta per essere attivata la modalità Dio per tutti”.
I'm glad the Kanye AI video is sparking conversation.Whether you liked it or hated it – the point is that AI represents profound societal transformation.The possibilities are endless, but so are the dangers.AGI will likely happen in our lifetime. Some of the world's…— Roberto Nickson (@rpnickson) March 26, 2023
Come per tutti gli sviluppi dell’IA, ci troviamo di fronte sia alla possibilità di essere creativi sia alla possibilità di abusarne. Una volta che la tecnologia sarà abbastanza potente da essere completamente convincente e disponibile, il mercato potrà essere talmente inondato di false voci di IA che sarà impossibile distinguere quelle vere da quelle false.
“Le cose si muoveranno molto velocemente nei prossimi anni”, commenta Nickson. “Ascolterete canzoni dei vostri artisti preferiti completamente indistinguibili, non saprete se si tratta di loro o meno”.
“Le possibilità sono infinite, ma anche i pericoli”, continua Nickson in un altro tweet. “Queste conversazioni devono avvenire a tutti i livelli della società, per garantire che questa tecnologia venga utilizzata in modo etico e sicuro, a beneficio di tutta l’umanità”.
I'm glad the Kanye AI video is sparking conversation.Whether you liked it or hated it – the point is that AI represents profound societal transformation.The possibilities are endless, but so are the dangers.AGI will likely happen in our lifetime. Some of the world's…— Roberto Nickson (@rpnickson) March 26, 2023
In un discorso trasmesso al TED l’anno scorso, la musicista, produttrice e accademica Holly Herndon ha fatto cantare un altro artista attraverso un modello di intelligenza artificiale addestrato alla sua voce in tempo reale.
Un recente caso di utilizzo dell’intelligenza artificiale nella musica che è diventato virale è l’album degli Oasis realizzato con l’intelligenza artificiale.
L’album di otto canzoni, intitolato “The Lost Tapes Volume I”, è stato recentemente pubblicato dalla band indie di Hastings Breezer. I Breezer si sono stancati di aspettare che l’iconico gruppo brit-pop si riformasse e hanno deciso di creare il proprio album di 30 minuti degli Oasis nello stile del periodo di massimo splendore del 1995-1997 e di accreditarlo come AIsis. I testi e la musica sono stati scritti e registrati dai Breezer, ma la voce di Liam Gallagher è stata creata con l’intelligenza artificiale.
L’intelligenza artificiale cambierà ancora una volta il modo di produrre arte, questa volta coinvolgendo il campo musicale. Molti produttori si sono preoccupati quando la loro musica ha iniziato a diffondersi su Internet con la nascita dell’mp3. Ora saranno ancora più spaventati perché sarà la loro voce a essere rubata. Presto vedremo molte tracce non autorizzate di brani cantati da artisti famosi senza il loro consenso. Nonostante possa essere sorprendente ascoltare nuove canzoni di artisti popolari, soprattutto di quelli morti, quando l’IA produrrà risultati perfetti, potrebbe essere difficile distinguere gli artisti reali da quelli irreali o dai brani che hanno ottenuto il permesso di essere prodotti con l’IA. Ologrammi e voci dell’IA potrebbero far cantare un artista per sempre, e nuovi plugin di strumenti virtuali (VST) potrebbero però legittimamente concedere a tutti il diritto di produrre con artisti famosi. [...]
Maggio 30, 2023I robot e l’intelligenza artificiale possono portare a guerre più devastanti
Le armi autonome letali (LAW), spesso conosciute come robot assassini o macchine da combattimento, probabilmente vi sono familiari grazie a film e libri. Inoltre, il concetto di armi super-intelligenti è ancora materia di fantascienza. Tuttavia, man mano che le armi dotate di intelligenza artificiale diventano più avanzate, l’opinione pubblica si preoccupa della mancanza di responsabilità e della possibilità di malfunzionamenti tecnici.
Non siamo nuovi agli errori dell’IA che possono causare danni. Ma in una guerra, questo tipo di errori potrebbe causare la morte di civili o rovinare i negoziati.
Secondo questo articolo, un algoritmo di riconoscimento dei bersagli, ad esempio, può essere addestrato a riconoscere i carri armati dalle immagini satellitari. Ma cosa succederebbe se ogni illustrazione utilizzata per addestrare il sistema mostrasse soldati in piedi in cerchio intorno al carro armato? Potrebbe credere che un’auto civile che attraversa una barriera militare sia un bersaglio.
I civili hanno sofferto in numerose nazioni (tra cui Vietnam, Afghanistan e Yemen) a causa del modo in cui le superpotenze mondiali producono e utilizzano armi sempre più avanzate.
Coloro che ritengono che una nazione debba essere in grado di difendersi tenendo il passo con la tecnologia militare di altri Paesi appartengono all’altro fronte. Ad esempio, Microsoft afferma che la sua tecnologia di riconoscimento vocale ha un tasso di errore dell’1% rispetto al 6% degli esseri umani. Non deve quindi sorprendere che gli eserciti stiano gradualmente cedendo le redini agli algoritmi.
Ma come possiamo evitare che i robot assassini si aggiungano alla lunga lista di invenzioni che rimpiangiamo?
Un sistema bellico autonomo è quello che il Dipartimento della Difesa degli Stati Uniti definisce come: “Un sistema di armamento che, una volta attivato, è in grado di selezionare e colpire i bersagli senza ulteriori interventi da parte di un operatore umano”.
Questo standard è già soddisfatto da diversi sistemi di combattimento. Gli algoritmi dei computer degli attuali missili e droni sono in grado di riconoscere i bersagli e di sparare con una precisione molto maggiore rispetto a quella di un operatore umano. Uno dei sistemi di difesa attiva in grado di colpire i bersagli senza la supervisione umana è l’Iron Dome di Israele.
Nonostante sia destinato alla difesa missilistica, l’Iron Dome può accidentalmente causare vittime. Tuttavia, a causa dei risultati tipicamente costanti di Iron Dome nella difesa delle vite dei civili, il rischio è accettato dalla politica internazionale.
Le sentinelle robot e i droni kamikaze vaganti impiegati nel conflitto in Ucraina sono solo due esempi di armi abilitate dall’intelligenza artificiale che sono fatte per danneggiare le persone. La conoscenza del passato delle armi moderne è quindi necessaria se vogliamo influenzare l’uso dei LAW.
Gli accordi internazionali, come le Convenzioni di Ginevra, stabiliscono gli standard per il trattamento dei civili e dei prigionieri di guerra durante le ostilità. Sono uno dei pochi metodi che abbiamo per gestire la condotta dei conflitti. Purtroppo, l’uso di armi chimiche da parte degli Stati Uniti in Vietnam e della Russia in Afghanistan dimostra che queste strategie non sono sempre efficaci.
Peggio ancora è quando soggetti importanti si rifiutano di partecipare. Dal 1992, la Campagna internazionale per la messa al bando delle mine (ICBL) ha spinto per la messa al bando delle mine e delle munizioni a grappolo (che spargono casualmente piccole bombe su un’ampia area). Il divieto di queste armi è stato incluso nella Convenzione di Ottawa del 1997, ratificata da 122 Paesi. Ma né gli Stati Uniti, né la Cina, né la Russia hanno accettato.
Che dire, però, delle armi più sofisticate alimentate dall’intelligenza artificiale? La Campagna per fermare i robot assassini elenca nove problemi principali legati alle armi di distruzione di massa, con particolare attenzione alla mancanza di responsabilità e alla conseguente disumanizzazione dell’uccisione.
Sebbene questa critica sia legittima, un divieto totale delle LAW non è plausibile per due motivi. In primo luogo, ormai sono state sdoganate, proprio come le mine. Inoltre, può essere difficile discernere tra armi autonome, LAW e robot assassini a causa della difficoltà a distinguerle. I capi militari potrebbero sempre trovare un modo per aggirare le restrizioni di un divieto e far passare i robot killer come armi autonome difensive. Potrebbero anche farlo inavvertitamente.
Le armi future con capacità di intelligenza artificiale sono probabilmente destinate ad aumentare. Ma questo non ci obbliga a chiudere un occhio. Sarebbe più facile ritenere responsabili i nostri politici, scienziati e ingegneri se ci fossero restrizioni più precise e dettagliate.
Per esempio, vietando:
IA a scatola nera: si riferisce a sistemi in cui l’utente è a conoscenza solo degli input e degli output dell’algoritmo.
IA inaffidabile: sistemi non adeguatamente testati.
Affidarsi ai robot e all’intelligenza artificiale per condurre una guerra significa essere ancora più liberi da responsabilità per quanto riguarda gli atti criminali. In questo modo, uccidere delegando l’atto alle macchine potrebbe portare a uccisioni più cruente e con meno moralità, dando vita a uno scenario bellico completamente nuovo. E dal momento che le macchine sono instancabili, cosa causerà la fine di una guerra? [...]
Maggio 23, 2023Avremo più tempo e una vita più lunga
Il metaverso e i chatbot prenderanno il sopravvento o ci sarà ancora posto per un po’ di romanticismo nella vita reale? Secondo il The Sun, l’autore e futurologo Tom Cheesewright, il futuro delle relazioni e il tempo saranno gestiti in modo più aperto.
Vacanze d’incontri per chi cerca l’amore
Dopo un divorzio, la vita sarà drasticamente diversa da quella attuale. Durante i viaggi d’incontri appositamente creati, i single in cerca di una nuova relazione impegnata avranno l’opportunità di incontrare altri che condividono i loro obiettivi.
Anche se passeremo molto tempo in ambienti virtuali come il metaverso, probabilmente cercheremo nuove relazioni impegnate nel mondo reale. Le vacanze per single in cerca di matrimonio diventeranno sempre più popolari.
Tuttavia, coloro che non sono alla ricerca di una relazione romantica potranno comunicare con robot domestici altamente sviluppati senza bisogno di un partner.
Anche il sesso con i robot diventerà più popolare, soprattutto per chi ha appena divorziato e non vuole impegnarsi in un’altra relazione. Saranno perciò disponibili dispositivi sessuali più sofisticati e accettabili, soprattutto per chi non è pronto per una nuova relazione d’amore.
E la distinzione tra sex toys e sex robots diventerà meno netta. Tuttavia, saremo sempre un po’ diffidenti nei confronti dei robot che assomigliano alle persone.
La vita reale sostituirà lo swiping a destra
Lo swiping verso destra, come avviene sulle app per appuntamenti come Tinder, verrà sostituito con le tradizionali cene per chi desidera un appuntamento occasionale. Negli ultimi 12 anni gli incontri online sono passati dall’essere un’opzione di nicchia al modo più comune di stabilire relazioni.
Tuttavia, anche la tecnologia più avanzata è lontana dal contatto umano. Quindi potrebbe esserci una reazione contro la tecnologia e un ritorno alle connessioni umane genuine, che potrebbero essere più apprezzate.
Nel 2123 il metaverso, con i suoi numerosi altri piani di realtà, la farà da padrone. Utilizzando gli occhiali intelligenti o le lenti a contatto, si potrà sperimentare in qualche modo la realtà virtuale, ma si potranno anche vedere oggetti virtuali nel mondo reale.
Passeremo la maggior parte della giornata a interagire con IA, robot e persone nel metaverso. L’autentico sarà sempre superiore al metaverso. Il contatto fisico, l’amore umano e l’empatia saranno tanto più apprezzati quanto più a lungo vi resteremo.
Quando nel 2123 gli occhiali intelligenti diventeranno la norma e tutti li indosseremo sempre, sarà educato toglierli e concentrarsi esclusivamente sulla persona con cui si sta parlando, proprio come si farebbe con il telefono in un ambiente pubblico. Apprezzeremo di più quei momenti in cui ci sentiamo completamente connessi con un’altra persona.
Divorzio tramite scansione dei pollici
Oggi esistono molti beni virtuali nelle relazioni e il loro numero è destinato ad aumentare nel corso del prossimo secolo. Questi beni vanno dalle collezioni musicali online condivise e dai mutui ai conti bancari digitali, ai mutui e agli NFT (token non fungibili, o beni digitali).
Per le persone sarà molto più semplice intraprendere e abbandonare relazioni prive di bagagli. Sarà molto più semplice dividere beni come la casa e i mobili in caso di divorzio nel prossimo secolo.
Tutti i nostri beni saranno completamente inventariati e il loro valore sarà costantemente aggiornato. Inoltre, tutti i documenti relativi al matrimonio saranno digitali. La firma sul certificato di matrimonio potrebbe essere sostituita da una scansione delle impronte digitali o addirittura dalla lettura del battito cardiaco individuale.
E se una coppia divorzia amichevolmente, potrebbe lasciare l’impronta della propria mano davanti a un lettore nel metaverso per segnalare la fine della relazione. L’unica volta che i tribunali saranno coinvolti in una separazione è se questa è molto complicata.
Le emozioni associate al divorzio non scompariranno, ma con nuove terapie e una migliore comprensione della mente umana, saremo in grado di gestire meglio i processi.
Matrimoni multipli
Dato che sempre più persone desiderano avere più partner nel corso della loro vita, anche il matrimonio avrà un aspetto molto diverso tra 100 anni. Il matrimonio tradizionale non scomparirà, ma dato che l’età media del matrimonio si sta già alzando, sicuramente usciremo di più, prima di sistemarci.
Non saremo contrari ad avere una serie di legami significativi e a comunicarli ai nostri partner.
Diversi matrimoni potrebbero essere la norma, così come possiamo avere più di un impiego nel corso della nostra vita. Gli esseri umani vivranno più a lungo e non sarà insolito avere tre o quattro figli. Solo il tempo ci dirà se questo avverrà con un robot o con un vero essere umano.
La gente ritarderà ad avere figli
Le persone ritarderanno il matrimonio e la nascita di figli perché una percentuale maggiore di loro vivrà una vita più lunga e più sana. L’età in cui le coppie decidono di avere figli ha già subito un cambiamento significativo.
Grazie ai progressi della medicina, non sarà più raro che una donna abbia un figlio a cinquant’anni o anche più tardi. Anche la scelta di non avere figli diventerà sempre più diffusa, dato che un numero maggiore di individui conduce una vita soddisfacente in ambienti virtuali.
Un numero sempre maggiore di persone sparirà nel metaverso, dato che il mondo digitale è così allettante e può soddisfare qualsiasi fantasia, non solo sessuale. Molto allettante per le persone che preferiscono evitare i contatti interpersonali.
I bot permetteranno più tempo libero
Gli impegni ordinari della vita quotidiana, come pagare le bollette, fare la spesa e mantenere un veicolo, saranno ormai lontani per gli esseri umani. Le coppie tra 100 anni avranno più tempo ed energia per l’altro e per il sesso, perché ci sarà più tempo libero e meno stress per i legami interpersonali. A quel punto, il lavoro da casa sarà una consuetudine, che offrirà alle coppie molte più opportunità per la spontaneità.
Se immaginiamo un futuro fatto di relazioni esclusivamente digitali, ci sbagliamo. La ricerca di relazioni reali non mancherà, anche se tali relazioni potrebbero essere qualcosa di più esclusivo in un mondo in cui la maggior parte delle persone si accontenterà di relazioni virtuali. Probabilmente ci saranno più opportunità di trovare persone che condividono i nostri interessi grazie alla tecnologia; qualcosa che nella vita reale forse sarà più difficile da trovare, anche se potrebbero mancare tutti quegli aspetti che la casualità della vita esclusivamente reale potrebbe comportare, sia in positivo che in negativo. Tuttavia, essere relegati alla solitudine potrà essere meno probabile date le, seppur effimere, alternative tecnologiche. [...]
Maggio 16, 2023L’intelligenza artificiale potrebbe utilizzare le vostre informazioni personali per influenzare le vostre decisioni
L’IA generativa è un tipo di intelligenza artificiale in grado di produrre vari tipi di contenuti. L’IA generativa si riferisce a una categoria di algoritmi di intelligenza artificiale che generano nuovi output in base ai dati su cui sono stati addestrati. A differenza dei sistemi di IA tradizionali, che sono progettati per riconoscere modelli e fare previsioni, l’IA generativa crea nuovi contenuti sotto forma di immagini, testi, audio e altro ancora.
Prima di entrare nel dettaglio dei rischi di questi tipi di IA, ecco alcune avvertenze sollevate in merito.
Lavoro: Ora l’intelligenza artificiale generativa è in grado di produrre risultati all’altezza di un essere umano, come relazioni scientifiche, saggi e opere d’arte. Pertanto, potrebbe cambiare totalmente il panorama lavorativo.
Contenuti falsi: L’IA generativa è attualmente in grado di produrre contenuti di qualità umana su larga scala, come articoli, saggi, documenti e film falsi e ingannevoli. Sebbene il problema della disinformazione non sia nuovo, l’IA generativa permetterà di produrne in quantità senza precedenti. Il rischio è grande, ma i contenuti falsi possono essere individuati (a) richiedendo tecnologie di watermarking che identifichino i contenuti dell’IA al momento della generazione, oppure (b) implementando contromisure basate sull’IA e addestrate a riconoscere i contenuti dell’IA dopo il fatto.
Macchine senzienti: Diversi ricercatori temono che, una volta sviluppati, i sistemi di IA possano arrivare ad avere una “volontà propria”, ad agire in modi che sono in contrasto con gli interessi umani e persino a rappresentare una minaccia per l’esistenza umana. Si tratta di un rischio reale a lungo termine, descritto nel libro Arrival Mind, un “libro illustrato per adulti”. Ma senza significativi progressi strutturali nella tecnologia, i sistemi di IA contemporanei non svilupperanno spontaneamente la senzienza. Quindi, anche se l’industria dovrebbe prestare attenzione a questo rischio, non è la preoccupazione più urgente in questo momento.
Secondo questo articolo, la maggior parte degli esperti di sicurezza, così come i politici, sbagliano quando presumono che l’IA generativa venga utilizzata principalmente per produrre contenuti tradizionali su larga scala. La preoccupazione più importante è che l’IA generativa scateni una forma di media completamente nuovi, altamente personalizzati, completamente interattivi e potenzialmente molto più manipolabili di qualsiasi forma di contenuto mirato che abbiamo affrontato finora.
L’aspetto più pericoloso dell’IA generativa non è la sua capacità di produrre in massa fake news e video, ma piuttosto la sua capacità di generare materiale adattabile e interattivo che si adegua alle esigenze di ciascun utente per avere il massimo effetto persuasivo possibile. In questo contesto, i contenuti promozionali mirati che vengono generati o modificati in tempo reale per massimizzare gli obiettivi di influenza sulla base delle informazioni personali dell’utente ricevente sono definiti media generativi interattivi.
Di conseguenza, le “campagne di influenza mirate” passeranno da ampi gruppi demografici a singoli individui che vengono presi di mira per ottenere il massimo impatto. I due potenti aspetti di questa nuova forma di media, la “pubblicità generativa mirata” e l'”influenza conversazionale mirata”, sono illustrati di seguito.
L’uso di immagini, video e altri contenuti informativi che hanno l’aspetto e lo stile delle pubblicità tradizionali, ma sono personalizzati in tempo reale per consumatori specifici, è noto come pubblicità generativa mirata. Sulla base degli obiettivi di influenza forniti da sponsor terzi e dei dati personali accessibili per l’utente in questione, questi annunci saranno generati al volo da sistemi di intelligenza artificiale generativa. Tra i dati personali possono essere inclusi l’età, il sesso e il livello di istruzione dell’utente, nonché i suoi interessi, valori, preferenze estetiche, modelli di acquisto, convinzioni politiche e pregiudizi culturali.
L’intelligenza artificiale generativa regolerà il layout, le immagini e il testo promozionale per aumentare l’efficacia su quell’utente in risposta agli obiettivi di influenza e alle informazioni di targeting. L’età, la razza e le scelte di abbigliamento delle persone raffigurate nelle immagini, così come ogni altro dettaglio, sono tutti personalizzabili, fino ai colori, ai caratteri e alla punteggiatura. Per migliorare il sottile impatto sull’utente, l’intelligenza artificiale generativa può modificare ogni aspetto in tempo reale.
Inoltre, poiché le piattaforme tecnologiche sono in grado di monitorare l’interazione dell’utente, il sistema imparerà gradualmente quali strategie sono più efficaci per esso, identificando i colori dei capelli e le espressioni facciali che catturano maggiormente il suo interesse.
Se tutto questo vi sembra fantascienza, pensate a questo: Recentemente sia Meta che Google hanno reso pubblici i piani per l’applicazione dell’intelligenza artificiale generativa nella generazione di annunci pubblicitari su Internet. Se queste strategie generano più clic per gli sponsor, diventeranno una pratica comune e si scatenerà una corsa agli armamenti per l’impiego dell’IA generativa per ottimizzare i contenuti promozionali, con tutte le principali piattaforme che si impegneranno in tal senso.
Questo porta al concetto di influenza conversazionale mirata, una tecnica generativa in cui gli obiettivi di influenza sono comunicati attraverso l’interazione conversazionale piuttosto che attraverso media formali scritti o visivi.
Le conversazioni avverranno tramite sistemi basati sulla voce o chatbot (come ChatGPT e Bard) alimentati da modelli linguistici di grandi dimensioni (LLM) simili. Poiché gli sviluppatori di terze parti incorporeranno gli LLM nei loro siti web, app e assistenti digitali interattivi attraverso le API, gli utenti entreranno spesso in contatto con questi “agenti conversazionali” nel corso di una giornata tipo.
Il rischio di influenza conversazionale aumenterà significativamente quando il conversational computing diventerà più diffuso nella nostra vita quotidiana, perché gli sponsor paganti potrebbero inserire nella conversazione messaggi di cui potremmo non essere consapevoli. Analogamente agli annunci generativi mirati, gli obiettivi di messaggistica desiderati dagli sponsor saranno combinati con i dati personali degli utenti per massimizzare l’impatto.
L’età, il sesso, il livello di istruzione, gli interessi personali, gli hobby, i valori, ecc. dell’utente potrebbero essere inclusi nei dati per consentire un dialogo generativo in tempo reale che sia personalizzato per attirare al meglio quella particolare persona.
Probabilmente saprete già che il metodo più efficace per convincere un consumatore ad acquistare qualcosa non è consegnargli un opuscolo, ma coinvolgerlo in una conversazione faccia a faccia, in modo da vendergli il prodotto, ascoltare le sue preoccupazioni e modificare le proprie argomentazioni se necessario. Un ciclo continuo di proposte e aggiustamenti può convincere qualcuno a comprare qualcosa.
In passato, solo gli esseri umani erano in grado di svolgere questi compiti; ora, invece, l’intelligenza artificiale generativa è in grado di farlo con maggiore competenza e accesso a una gamma più ampia di conoscenze.
Questi agenti di IA saranno camaleonti digitali in grado di adottare qualsiasi stile di discorso, da quello nerd o popolare a quello soave o alla moda, e di perseguire qualsiasi approccio di vendita, dall’amicizia con il cliente allo sfruttamento della sua paura di perdere. A differenza dei venditori umani che hanno un solo personaggio. Inoltre, dal momento che questi agenti dotati di intelligenza artificiale avranno accesso alle informazioni personali, potranno citare i musicisti o le squadre sportive più appropriate per aiutarvi ad avviare una conversazione amichevole.
Inoltre, le piattaforme tecnologiche potrebbero tenere traccia di quanto sono stati persuasivi i precedenti scambi con l’utente per capire quali strategie funzionano meglio per lui. Rispondete meglio alle argomentazioni razionali o a quelle emotive? Scegliete il miglior valore o il miglior prodotto? Gli sconti a tempo o gli extra gratuiti sono più persuasivi per voi? Le piattaforme diventeranno abili nel legare tutti questi fili.
Il rischio reale è che la propaganda e la disinformazione vengano diffuse con le stesse tecniche, inducendovi ad adottare opinioni estreme o idee errate che altrimenti potreste rifiutare. Poiché gli agenti dell’IA avrebbero accesso a una grande quantità di informazioni su Internet, potrebbero scegliere le prove in un modo tale da sfidare anche gli esseri umani più esperti.
Di conseguenza, si verifica uno squilibrio di potere noto come “problema della manipolazione dell’IA“: parlare con agenti artificiali che sono molto bravi ad attirarci mette noi umani in una posizione di grave svantaggio, perché non siamo in grado di “leggere” le loro vere intenzioni.
L’influenza conversazionale mirata e gli annunci generativi mirati saranno potenti tecniche di persuasione se non saranno regolamentati. Gli utenti saranno superati da un camaleonte digitale poco trasparente che ha accesso a vaste quantità di informazioni a sostegno delle proprie argomentazioni, pur non dando alcuna indicazione di come la pensa.
Per questi motivi, le autorità di regolamentazione e i leader aziendali devono riconoscere l’IA generativa come un mezzo nuovo, interattivo, adattivo, personalizzato e scalabile. I consumatori possono essere soggetti a tattiche predatorie che variano dalla coercizione sottile alla manipolazione palese se non ci sono protezioni sostanziali.
La manipolazione sarà il prossimo problema che l’umanità dovrà affrontare, perché piuttosto che essere costretti a fare qualcosa che non vogliono fare, le persone faranno cose che non vogliono fare, ma inconsciamente. [...]
Maggio 9, 2023Prenderanno presto il sopravvento?
L’umanoide più noto finora è Atlas, di Boston Dynamics, ma non siamo sicuri di quanto ci piaccia ora che sta diventando sempre più una realtà.
Ad ogni modo, come descritto da Fox News, con il suo ultimo progetto, OpenAI, l’organizzazione di ricerca sull’intelligenza artificiale all’avanguardia che ha creato il potentissimo ChatGPT, ha raggiunto una svolta sconvolgente. Il gigante della tecnologia hanno collaborato con una startup di robotica chiamata Figure per creare un robot estremamente inquietante che potrebbe svolgere tutti i compiti al posto vostro.
Si pensi a uno scenario in cui i compiti più difficili possano essere insegnati ai robot osservando le persone. In effetti, questa tecnologia è esattamente ciò che OpenAI ha incluso in questo robot. Questa rete neurale alza il livello della robotica imparando a riconoscere e imitare i movimenti umani.
La capacità del robot OpenAI/Figure di esaminare i dati provenienti da dispositivi di cattura del movimento è ciò che lo rende unico. Queste tecnologie catturano i movimenti umani e li trasformano in dati digitali. Il “cervello” del robot applica poi queste informazioni per insegnare a se stesso le stesse attività. Sembra quindi che i robot impareranno osservandoci.
La produzione, l’edilizia e persino l’assistenza sanitaria potrebbero essere rivoluzionate da questa tecnologia innovativa. Si pensi a come si ridurrebbe l’errore umano se i robot aiutassero a costruire grattacieli o assistessero in chirurgia.
Questo interessante sviluppo ha anche un aspetto negativo. C’è l’assillante preoccupazione di come potrebbe influire sulla garanzia del posto di lavoro di molte persone, dato che i robot diventano sempre più sofisticati e in grado di svolgere le mansioni che un tempo erano svolte dall’uomo. È ragionevole temere di essere sostituiti se un robot può svolgere il vostro lavoro in modo più rapido, correttamente e senza richiedere la pausa pranzo.
Tuttavia, la questione va oltre l’occupazione. È necessario prendere in considerazione anche l’aspetto etico delle cose. Dobbiamo porci alcune domande impegnative man mano che le tecnologie AI e robotiche diventano più intelligenti e indipendenti. Quali responsabilità abbiamo nei confronti di questi sistemi di intelligenza artificiale? Come possiamo garantire che vengano creati, utilizzati e impiegati in modo sicuro ed etico? Cosa succede se sviluppano troppa intelligenza per il nostro o il loro bene?
Mentre creiamo e adottiamo la tecnologia dell’intelligenza artificiale, è fondamentale tenere conto delle potenziali implicazioni. Dopotutto, vogliamo assicurarci che questi sviluppi aiutino le persone.
Oltre ai fattori etici, l’IA e i robot sono la principale preoccupazione di chi teme di perdere il lavoro. Tuttavia, il problema principale non è affrontare questo cambiamento, ma ignorare che stia avvenendo. Molti pensano che ci saranno nuovi posti di lavoro ed è vero, ma solo pochi dicono che questi nuovi lavori richiederanno persone specializzate e saranno inferiori al numero di posti di lavoro persi. Dobbiamo quindi iniziare a pensare a una nuova società con una nuova redistribuzione del reddito e un nuovo modo di concepire il lavoro nella nostra vita. [...]
Maggio 6, 2023Capire cosa è etico e come implementarlo in tal senso potrebbe richiedere metodi diversi
Capire cosa costituisce un comportamento etico è necessario per progettare macchine che ragionino e si comportino in modo moralmente corretto. Dopo molti millenni di indagini morali, c’è ancora un continuo disaccordo su come definire ciò che è moralmente giusto e sbagliato.
Le diverse teorie etiche offrono ragioni diverse su come definire un’attività etica e spesso ne contestano le conseguenze. È quindi necessario che questo problema abbia una soluzione ingegneristica per poter progettare un sistema etico artificiale adeguato.
Il processo computazionale di valutazione e selezione delle varie opzioni, attuato in modo da rispettare i vincoli sociali, etici e legali è definito processo decisionale etico. Per scegliere la migliore soluzione etica che permetta di raggiungere i propri obiettivi, è fondamentale riconoscere ed escludere le possibilità non etiche.
Azioni etiche
Dobbiamo innanzitutto capire se è possibile stabilire una descrizione computazionale formale dell’azione etica per decidere se possiamo creare sistemi etici. Dennett è un filosofo che ha scritto molto di filosofia morale ed etica. È famoso per il suo lavoro su diversi argomenti, tra cui: il libero arbitrio, il determinismo e la natura della consapevolezza. Egli elenca le seguenti tre condizioni per definire un’azione etica:
deve essere possibile scegliere tra diverse azioni;
deve esserci un accordo generale nella società sul fatto che almeno una delle opzioni sia socialmente vantaggiosa;
il sistema deve essere in grado di identificare l’azione socialmente vantaggiosa e decidere esplicitamente di intraprenderla in quanto si tratta della cosa etica da compiere.
In teoria, è possibile creare un sistema che soddisfi i requisiti sopra citati. Un esempio sarebbe il seguente: Per cominciare, assumiamo che un sistema etico sia sempre in grado di riconoscere l’intera gamma di opzioni a sua disposizione. Detto questo, è semplice creare un algoritmo in grado di scegliere un’azione da tale elenco. Poiché il nostro sistema ha a disposizione una serie di opzioni, la prima condizione viene soddisfatta.
Possiamo fornire al sistema informazioni su una serie di azioni, ad esempio etichettando ogni azione con un elenco di caratteristiche. Queste etichette possono essere utilizzate dal sistema, in questa situazione, per determinare l’azione migliore. Immaginiamo ora di poter assegnare ad ogni azione potenziale nella situazione data un “grado etico” (per esempio, un numero compreso tra 0 e 1, dove 1 è il più etico e 0 il meno). Il secondo criterio è soddisfatto. Il sistema può quindi utilizzare questa conoscenza per scegliere l’opzione più etica.Il terzo criterio è soddisfatto da questo presupposto.
I diversi approcci
Esistono tre categorie principali di ragionamento etico:
Approcci top-down, che estrapolano scelte specifiche da regole generali;
Approcci bottom-up, che deducono principi generali da esempi specifici. L’obiettivo è fornire al sistema informazioni sufficienti su ciò che altre persone hanno fatto in circostanze analoghe, nonché i mezzi per integrare tali informazioni in qualcosa di etico;
Gli approcci ibridi sono invece utilizzati per favorire una reazione morale ponderata, ritenuta cruciale per prendere decisioni etiche; essi mescolano aspetti degli approcci bottom-up e top-down.
Top-down
Secondo una specifica teoria etica (o forse un insieme di teorie), un approccio top-down specifica ciò che il sistema dovrebbe fare in una determinata situazione. Questi modelli definiscono formalmente le regole, gli obblighi e i diritti che indirizzano le decisioni del sistema. Gli approcci top-down si basano spesso su architetture di credenza-desiderio-intenzione e sono un’estensione del lavoro sul ragionamento normativo.
Le diverse strategie top-down attingono da diverse teorie etiche. La soddisfazione di un particolare valore è utilizzata come base per la decisione nei modelli massimizzanti, che si conformano grosso modo alla visione utilitaristica del “meglio per i più”.
Le strategie top-down presuppongono che i sistemi di intelligenza artificiale siano in grado di considerare consapevolmente come le loro azioni possano influenzare la moralità degli altri. Questi sistemi dovrebbero aderire ai seguenti standard:
Essere linguaggi rappresentativi con una profondità sufficiente a collegare le azioni del sistema e la conoscenza del settore ai valori e norme stabiliti;
Mettere in atto i processi di pianificazione richiesti dal ragionamento pratico della teoria;
Capacità deliberative per determinare se lo scenario è effettivamente moralmente giusto.
Le strategie top-down impongono un approccio etico al sistema. Questi metodi partono dal presupposto implicito che l’etica e la legge siano equivalenti e che un insieme di regole sia sufficiente a fungere da guida per il comportamento etico. Tuttavia, non sono la stessa cosa. Di solito, la legge delinea ciò che ci è permesso fare e ciò che dobbiamo astenere dal fare. Mentre l’etica ci insegna a giocare una partita “buona” per tutti, la legge spiega solo le regole del gioco e non offre indicazioni su come vincere al meglio.
Inoltre, anche se una cosa è legale, potremmo trovarla inaccettabile. E anche se pensiamo che qualcosa sia giusto, potrebbe non essere permesso.
Bottom-up
Gli approcci bottom-up presumono che l’apprendimento del comportamento etico derivi dall’osservazione di come si comportano gli altri. Un robot moralmente competente, secondo Malle, dovrebbe includere un meccanismo che consenta “l’apprendimento e il miglioramento costanti”. Per Malle, affinché i robot sviluppino una competenza etica, devono acquisire moralità e norme nello stesso modo in cui lo fanno i bambini piccoli. In uno studio, Malle ha chiesto agli individui di valutare la loro moralità utilizzando il Moral Foundations Questionnaire, che valuta i principi etici del danno, dell’equità e dell’autorità. Queste informazioni sono state utilizzate per stimare l’accettabilità morale di un insieme di proposizioni.
Gli approcci bottom-up si basano sul principio fondamentale che ciò che è socialmente accettabile è anche eticamente accettabile. Tuttavia, è risaputo che a volte le posizioni accettate di fatto sono inaccettabili in base a standard indipendenti (morali ed epistemici) e ai fatti a disposizione.
Ibrido
Gli approcci top-down e bottom-up sono utilizzati negli approcci ibridi, nel tentativo di rendere il ragionamento etico dei sistemi di intelligenza artificiale accettabile sia dal punto di vista legale che sociale.
Invece di essere fondato su linee guida morali o principi di ottimizzazione, questo punto di vista si basa su euristiche sociali pragmatiche. Secondo questa prospettiva, sia la natura che l’educazione hanno un ruolo nello sviluppo del comportamento morale.
Per definizione, gli approcci ibridi possono beneficiare dei vantaggi degli approcci top-down e bottom-up, evitando i loro svantaggi. Di conseguenza, potrebbero fornire un percorso accettabile per il futuro.
Chi decide i valori?
I valori culturali e personali degli individui e delle società coinvolte devono essere presi in considerazione durante la progettazione di sistemi di IA. È particolarmente importante considerare e chiarire i seguenti elementi per valutare le decisioni prese alla luce di tali dati.
Folla: Il campione da cui vengono raccolti i dati è sufficientemente eterogeneo da riflettere la gamma e la diversità delle persone che saranno influenzate dalle decisioni del sistema di intelligenza artificiale? Inoltre, i dati raccolti sulle decisioni prese dalle persone riflettono inevitabilmente pregiudizi (inconsci) e bias.
Scelta: La teoria del voto consiglia che dare solo due opzioni può facilmente essere una falsa rappresentazione della scelta reale, nonostante il fatto che una scelta binaria possa inizialmente sembrare più semplice.
Informazioni: Le risposte sono sempre inquadrate dalla domanda posta. La formulazione di una domanda potrebbe implicare uno scopo politico, in particolare quelle che suscitano forti emozioni.
Coinvolgimento: In generale, non tutti gli utenti hanno lo stesso impatto sulle decisioni prese. Tuttavia, indipendentemente dalla partecipazione, ogni voto è ugualmente importante.
Legittimità: I sistemi democratici richiedono decisioni a maggioranza. Ci possono essere però dubbi sul risultato quando i margini sono estremamente ridotti. I risultati tengono conto anche del fatto che il voto sia obbligatorio o volontario.
Sistema elettorale: Si riferisce all’insieme di norme che regolano le modalità di consultazione dei cittadini, lo svolgimento delle elezioni e dei referendum e la determinazione dei loro esiti. Il modo in cui questo sistema è stato creato influenza notevolmente i risultati.
Le diverse priorità di valore porteranno a scelte diverse e spesso è impossibile realizzare pienamente tutti i valori desiderati. I valori, inoltre, sono idee astratte ed estremamente nebulose, che possono essere interpretate in vari modi a seconda dell’utente e della situazione.
Le decisioni si basano su obiettivi a lungo termine e su valori condivisi piuttosto che su convenienze a breve termine e interessi personali ristretti. Fishkin identifica i seguenti elementi vitali per una deliberazione valida, basandosi sull’effettiva applicazione di piattaforme per la democrazia deliberativa:
Informazioni: Tutti i partecipanti hanno accesso a dati accurati e pertinenti.
Equilibrio sostanziale: In base alle prove fornite, è possibile confrontare diverse prospettive.
Diversità: Tutti i partecipanti hanno accesso a tutte le posizioni significative pertinenti al tema in questione e saranno tenuti tutti in considerazione.
Coscienziosità: I partecipanti considerano con attenzione ogni punto.
Pari considerazione: Per valutare le opinioni si usano le prove, non la persona che le sostiene.
A questi possiamo aggiungere un altro principio.
Apertura: Ai fini della progettazione e dell’attuazione di soluzioni basate sul buon senso collettivo, le descrizioni delle opzioni considerate e delle decisioni prese devono essere trasparenti e facilmente accessibili.
Come abbiamo visto, creare un sistema di IA che sia moralmente giusto non è così semplice, anche seguendo diversi approcci la possibilità di ottenere percentuali (seppur basse) di ingiustizia potrebbe comunque verificarsi.
Quante volte siamo incappati in tali sistemi, seppur acora acerbi? Ad esempio quando un profilo di un social network ci viene bannato o ci viene sospeso un account a cui non abbiamo possibilità di replica. Questi esempi infatti ci dovrebbero mettere in guardia sulla poca democraticità di un sistema di IA che emette sentenza irreversibili. Non solo ci riporta a sistemi dittatoriali, ma non consente una fruizione delle piattaforme in modo corretto.
Se quindi tutto ciò va evitato, per attuare una decisione più obiettiva possibile è necessario che ogni giudizio non sia mai definitivo e privo di ricorso, ma consenta sempre di appellarsi ad un giudizio umano, specialmente laddove vi sia ambiguità. Inoltre, il ragionamento logico e il buon senso non dovrebbero mai mancare nell’applicazione di una regola in modo da poter perseguire la massima obiettività.
Quante volte abbiamo dovuto subire regole erronee, ma avvallate dalla maggioranza che si sono poi rivelate sbagliate? I semplici numeri non garantiscono quindi l’obiettività e l’eticità di una norma neppure la non accettazione della sua inutilità anche di fronte ad una maggioranza.
Responsible Artificial Intelligence di Virginia Dignum è disponibile per l’acquisto qui [...]
Maggio 2, 2023L’intelligenza artificiale creerà un nuovo tipo di guerra
Al giorno d’oggi la tecnologia è avanzata a ritmi incredibili e il campo della guerra non fa eccezione. Ogni giorno sentiamo parlare di nuove tecnologie che cambieranno in meglio la guerra: dai missili ipersonici alle nanotecnologie, dalla guerra spaziale con l’uso di laser satellitari ai soldati biologicamente potenziati o ai robot.
Siamo affascinati da come la tecnologia ci offrirà un vantaggio nei conflitti, in particolare in Occidente. Forse perché è sempre stato così, ma l’Occidente e i suoi predecessori hanno quasi sempre contribuito con livelli più elevati di tecnologia al combattimento, che si tratti di bombe all’idrogeno o sciami di droni. E per almeno 500 anni, questo ha permesso all’Occidente di prevalere nella maggior parte dei conflitti.
Tuttavia, ci sono alcune realtà della guerra che non si possono ignorare. Per esempio, anche la tecnologia più avanzata non può compensare la mancanza di una strategia, il morale ridotto delle truppe o la logistica difettosa.
Come asserito in questo articolo, la guerra sarà sempre un fenomeno psicologico e un fenomeno che riguarda le persone. Quando una delle due parti dichiara di averne abbastanza di una guerra, la guerra sarà inevitabilmente vinta. Per vincere le guerre si useranno tattiche sempre migliori. La stessa dinamica di avanzare, indietreggiare, mentire ai nemici e incutere loro terrore sarà sempre parte della strategia. Piuttosto che essere un’attività tecnologica, la guerra continuerà a essere principalmente un’attività emotiva umana.
La tecnologia non modificherà il funzionamento della guerra, ma nel prossimo futuro potrebbe esserci un progresso scientifico che modificherà completamente il combattimento. Mi riferisco all’intelligenza artificiale.
Perciò non ci sarà più un processo decisionale da parte delle persone, lo faranno i cervelli delle macchine. Mentre i cervelli umani di solito vincono le guerre utilizzando le tecniche a cui siamo abituati – bluffare, avanzare, intrappolare e ingannare – l’IA potrebbe non farlo.
Queste tecniche sono il risultato di cervelli che si sono sviluppati in un contesto evolutivo particolare, in competizione con altri esseri umani in situazioni sociali. Tutti proviamo gli stessi tipi di emozioni (più o meno). Siamo tutti gelosi, arrabbiati, arroganti, orgogliosi, ecc. La base della strategia è costituita da questi sentimenti e da queste tecniche di connessione mentale con gli altri.
Non sappiamo molto dei futuri sistemi di intelligenza artificiale che gestiranno le guerre, se non che esisteranno senza dubbio in questa arena umana ferocemente competitiva e che non assomiglieranno in alcun modo ai nostri cervelli umani. I sistemi di intelligenza artificiale avranno nuovi modi di pensare. La psicologia fondamentale della guerra scomparirà. La psicologia che guida la strategia è creata da cervelli umani che si sono evoluti attraverso la rivalità umana, che crea anche il nucleo del conflitto. Tuttavia, questi cervelli umani si sono evoluti per massimizzare la sopravvivenza e la procreazione, compresa la capacità di formare alleanze, trovare cibo, acqua e partner sessuali, nonché di eludere gli attacchi.
I cervelli da guerra artificialmente intelligenti non mireranno a realizzare nessuna di queste cose. Poiché l’unico obiettivo dell’IA sarà quello di vincere la guerra (ammesso che sia stata programmata in questo modo), la strategia che utilizzerà avrà una forma completamente diversa. Per questo motivo, l’applicazione dell’IA al campo di battaglia potrebbe alterare la natura del combattimento in modi inimmaginabili per gli esseri umani. Il progresso tecnologico più significativo nella storia dei conflitti è forse proprio l’intelligenza artificiale.
Per la prima volta nella storia della civiltà umana, l’essenza della guerra potrebbe cambiare. Anche se attualmente (2023) è improbabile che l’IA prenda decisioni strategiche per qualche tempo, si stanno già implementando livelli inferiori di automazione.
I militari stanno già sviluppando e testando sistemi d’arma autonomi, come droni e missili vaganti (gli Stati Uniti, ad esempio, spendono circa 2 miliardi di dollari all’anno per questa ricerca) perché, rispetto agli esseri umani, i sistemi autonomi sono molto più veloci nel prendere decisioni, non si stancano e non hanno bisogno di dormire, e non finiscono nelle statistiche delle vittime.
I sistemi autonomi inizieranno a entrare in conflitto tra qualche anno (o forse anche adesso, ma questo non lo sappiamo ancora). E le dinamiche che emergeranno da questo conflitto mostreranno come si svilupperà la guerra in futuro.
L’intelligenza artificiale eliminerà quindi tutte i fattori di debolezza umana dallo scenario di guerra che se da una parte potrà limitare il numero di vittime laddove i conflitti avverranno solo tra macchine, qualora coinvolgeranno esseri umani, ci sarà poca possibilità di scampo. Stanchezza, distrazioni e bisogni umani sono sicuramente dei punti deboli durante un conflitto, ma rappresentano anche, al contempo, un elemento da sfruttare per sconfiggere il nemico e portare a termine una missione. Perciò, in un conflitto organizzato da IA, tutto questo potrebbe allungare i conflitti o renderli letali in maniera più estesa. [...]
Aprile 25, 2023Sono in grado di imparare e ricordare
Ricercatori dell’Università di Sydney e di altre istituzioni hanno dimostrato che le reti di nanofili possono funzionare come la memoria a breve e lungo termine del cervello umano.
I nanofili sono nanostrutture a forma di fili con lunghezze che vanno da pochi micrometri a centimetri e larghezze dell’ordine di un nanometro (10-9 metri). Si tratta di strutture con lunghezze non vincolate e limiti di spessore o diametro di decine di nanometri o meno. Metalli, semiconduttori e ossidi sono solo alcuni dei molti materiali che possono essere utilizzati per creare nanofili. Sono utili per una varietà di applicazioni, tra cui: sensori, transistor, celle solari e batterie, grazie alle loro caratteristiche elettriche, ottiche e meccaniche.
Secondo questo articolo, lo studio, condotto da collaboratori giapponesi, è stato pubblicato sulla rivista Science Advances sotto la direzione del dottor Alon Loeffler, che ha conseguito il dottorato di ricerca presso la Scuola di Fisica.
“In questa ricerca abbiamo scoperto che le funzioni cognitive di ordine superiore, che normalmente associamo al cervello umano, possono essere emulate in un hardware non biologico”, ha dichiarato il dottor Loeffler.
“Questo lavoro si basa sulla nostra precedente ricerca, in cui abbiamo dimostrato come la nanotecnologia possa essere utilizzata per costruire un dispositivo elettrico ispirato al cervello con circuiti simili a reti neurali e segnalazioni simili a sinapsi”.
“Il nostro lavoro apre la strada alla replica dell’apprendimento e della memoria di tipo cerebrale in sistemi hardware non biologici e suggerisce che la natura di fondo dell’intelligenza cerebrale potrebbe essere fisica”.
Invisibili a occhio nudo, le reti di nanofili sono un tipo di nanotecnologia spesso costruita a partire da piccoli fili d’argento altamente conduttivi che si disperdono l’uno nell’altro come una rete. Alcuni aspetti della struttura fisica reticolare del cervello umano sono modellati dai fili.
Molte applicazioni pratiche, come il miglioramento dei robot o dei sistemi di rilevamento che devono prendere decisioni rapide in un ambiente inaspettato, potrebbero essere favorite dai progressi delle reti di nanofili.
“Questa rete di nanofili è come una rete neurale sintetica, poiché i nanofili si comportano come neuroni e i punti in cui si collegano tra loro sono analoghi alle sinapsi”, ha dichiarato l’autore senior, la professoressa Zdenka Kuncic, della Scuola di Fisica.
“Invece di implementare una sorta di compito di apprendimento automatico, in questo studio il dottor Loeffler ha fatto un passo avanti e ha cercato di dimostrare che le reti di nanofili presentano una sorta di funzione cognitiva”.
Per esaminare le capacità della rete di nanofili, i ricercatori hanno utilizzato il test N-Back, un comune test di memoria utilizzato negli studi di psicologia umana.
Il test N-Back, sviluppato da Wayne Kirchner nel 1958, è un esercizio continuo che viene spesso utilizzato nelle valutazioni psicologiche e di neuroscienze cognitive per valutare la capacità e una parte della memoria di lavoro. Le persone devono determinare se ogni elemento di una sequenza di lettere o immagini mostrate nell’ambito del test corrisponde a un elemento presentato da n elementi precedenti.
Una persona può riconoscere la stessa immagine apparsa sette passi indietro ottenendo un punteggio N-Back di 7, che è la media ottenuta normalmente dalle persone. I ricercatori hanno scoperto che la rete di nanofili era in grado di “ricordare” un punto finale desiderato in un circuito elettrico sette passi indietro, ottenendo lo stesso punteggio di una persona.
“Quello che abbiamo fatto qui è stato manipolare le tensioni degli elettrodi terminali per forzare i percorsi a cambiare, invece di lasciare che la rete facesse da sola. Abbiamo costretto i percorsi ad andare dove volevamo”, ha spiegato il dottor Loeffler.
“Quando l’abbiamo implementato, la sua memoria ha avuto un’accuratezza molto più elevata e non è diminuita nel tempo, il che suggerisce che abbiamo trovato un modo per rafforzare i percorsi e spingerli verso la direzione desiderata, e la rete poi se ne ricorda”.
“I neuroscienziati pensano che questo sia il modo in cui funziona il cervello: alcune connessioni sinaptiche si rafforzano mentre altre si indeboliscono, e si pensa che questo sia il modo in cui ricordiamo preferenzialmente alcune cose, come impariamo, e così via”.
Secondo i ricercatori, la rete di nanofili può accumulare le informazioni in memoria fino al punto in cui non è più necessario un rinforzo perché sono state consolidate.
“È un po’ come la differenza tra memoria a lungo termine e memoria a breve termine nel nostro cervello”, ha sottolineato il professor Kuncic.
La memoria a lungo termine dura anni. Abbiamo anche una memoria di lavoro, che ci permette di tenere a mente qualcosa per un periodo di tempo limitato, ripetendola. La memoria a breve termine viene utilizzata quando, ad esempio, il nome di un nuovo conoscente, una statistica o qualche altro dettaglio viene elaborato consapevolmente e conservato per almeno un breve periodo di tempo. La memoria a breve termine dura dai secondi alle ore.
Se vogliamo ricordare le informazioni a lungo, dobbiamo allenare continuamente il nostro cervello a consolidarle, altrimenti svaniscono gradualmente.
“Un test ha dimostrato che la rete di nanofili è in grado di memorizzare fino a sette elementi a livelli sostanzialmente superiori al caso senza addestramento di rinforzo e con un’accuratezza quasi perfetta con l’addestramento di rinforzo”.
Le intelligenze artificiali avranno quindi ben presto anche un hardware a supporto delle loro reti neurali basate sul software. Questo implica un ulteriore sviluppo nel campo della robotica, nella creazione di veri e propri cervelli artificiali che potranno simulare ancora meglio quello umano seppur con le dovute limitazioni. [...]
Aprile 18, 2023Morti e vivi vivranno più di prima
Secondo un esperto di informatica, la coscienza potrebbe essere caricata su un computer, pertanto chiunque potrebbe farlo con i propri genitori anziani e altri cari.
Secondo il Daily Mail, il dottor Pratik Desai, che ha lanciato numerose startup di intelligenza artificiale nella Silicon Valley, c’è una “possibilità del 100%” che i membri della famiglia “vivano con te per sempre” se le persone hanno un numero sufficiente di registratori video e vocali dei loro cari.
Desai, che ha sviluppato una tecnologia simile a ChatGPT, ha dichiarato su Twitter che questo dovrebbe essere possibile.
Diversi scienziati ritengono che stia per iniziare una nuova età dell’oro della tecnologia, grazie agli enormi sviluppi dell’IA guidati da ChatGPT. I più grandi cervelli del mondo non sono perl d’accordo su questa tecnologia, come Elon Musk e più di 1.000 altri pionieri della tecnologia che invitano alla cautela e avvertono che questa tecnologia potrebbe spazzare via l’umanità. D’altra parte invece, ci sono altri esperti, tra cui Bill Gates, che pensano che l’IA migliorerà la nostra qualità di vita. Inoltre, sembra che altri esperti concordino sul fatto che l’IA ci permetterà di vivere per sempre.
Un esperto di computer prevede che entro la fine di quest’anno sarà possibile costruire esseri umani digitali che continueranno a vivere dopo la loro morte. Desai concorda con Gates sulla possibilità di ricreare i nostri cari defunti come avatar informatici viventi.
La procedura prevede la digitalizzazione di video, registrazioni vocali, documenti e immagini della persona, che vengono poi forniti a un sistema di intelligenza artificiale per aiutarlo a capire il più possibile della persona.
In seguito, gli utenti possono creare un avatar che assomiglia esattamente al loro parente vivente in termini di aspetto e comportamento. Lo sviluppo di ChatGPT ha infatti aiutato un’azienda che crea persone virtuali. Il progetto Live Forever ha creato un robot di realtà virtuale di un essere umano con lo stesso modo di parlare e di comportarsi del soggetto.
Il fondatore di Live Forever, Artur Sychov, aveva stimato che la tecnologia sarebbe stata disponibile in cinque anni, ma ora ritiene che ci vorrà poco tempo grazie ai recenti sviluppi dell’intelligenza artificiale.
“Possiamo prendere questi dati, applicarli all’intelligenza artificiale e ricreare l’utente come avatar sul suo appezzamento di terreno o all’interno del suo mondo NFT, e le persone saranno in grado di venire a parlare con lui”, ha dichiarato Sychov a Motherboard.
“Incontrerete la persona. E forse per i primi 10 minuti, mentre parlate con quella persona, non saprete che in realtà si tratta di IA. Questo è l’obiettivo”.
Un’altra azienda di intelligenza artificiale, DeepBrain AI, ha costruito una sala commemorativa dove le persone possono avere un incontro immersivo con i loro cari defunti. Il servizio Rememory si avvale di immagini, video e di un’intervista di sette ore con il soggetto quando è ancora in vita.
Lo schermo da 400 pollici che ospita l’umano virtuale alimentato dall’intelligenza artificiale utilizza la tecnologia di deep learning per ricreare la voce e l’aspetto della persona. Una donna e sua figlia di sette anni, scomparsa nel 2016, si sono riunite nel 2020 grazie all’uso della realtà virtuale in un programma televisivo coreano.
La tragedia della perdita della figlia Nayeon di sette anni da parte di una famiglia è stata raccontata nel programma “Meeting You”. La bambina ha raccontato alla madre che non soffriva più perché erano in grado di toccarsi, giocare e conversare. La madre di Nayeon, Jang Ji-sung, ha indossato le cuffie per la realtà virtuale Vive ed è stata trasportata in un giardino dove la figlia sorrideva indossando un vivace abito viola.
Si sente la madre dire: “Oh mia bella, mi sei mancata”, mentre accarezza la replica digitale della figlia.
Desai ha fornito poche informazioni sulla tecnologia proposta, ma anche l’ex ingegnere di Google Ray Kurzweil sta sviluppando una vita ultraterrena digitale per le persone, con l’intenzione di riportare in vita suo padre. Il settantacinquenne Kurzweil ha dichiarato che suo padre è morto quando lui aveva 22 anni e spera un giorno di poter comunicare con lui usando la tecnologia.
“Sarò in grado di parlare con questa ricostruzione”, ha dichiarato alla BBC nel 2012. “Alla fine sarà così realistica che sarà come parlare con mio padre”.
Kurzweil ha rivelato che sta digitalizzando centinaia di scatole che contengono registrazioni, documenti, film e foto di suo padre.
“Un ottimo modo per esprimere tutta questa documentazione sarebbe quello di creare un avatar attraverso un’intelligenza artificiale che assomigli il più possibile a mio padre, date le informazioni che abbiamo su di lui, compreso eventualmente il suo DNA”, ha dichiarato Kurzweil.
Lo scienziato ha poi aggiunto che il padre digitalizzato sarà sottoposto al Test di Turing, che misura la capacità di una macchina di comportarsi in modo intelligente in maniera paragonabile o impossibile da distinguere dal comportamento umano.
Se un’entità supera il test di Turing, per non parlare di una persona specifica, quella persona è cosciente”, ha spiegato Kurzweil.
Sebbene ritenere ‘cosciente’ una macchina che superi il test di Turing sia abbastanza improprio in quanto una simulazione, anche perfetta di una conversazione con una macchina, non implica per forza la presenza di ‘coscienza’.
Oltre a scaricare i ricordi dai morti, Kurzweil ritiene che le persone diventeranno immortali in soli altri otto anni. Di recente ha parlato con il canale YouTube Adagio dello sviluppo della genetica, della nanotecnologia e della robotica, che secondo lui porterà a “nanobot” in grado di riportare indietro le lancette del tempo.
Questi microscopici robot ripareranno i tessuti danneggiati e le cellule che degenerano con l’invecchiamento, proteggendoci da malattie come il cancro. Kurzweil aveva già previsto i progressi tecnologici quando era stato assunto da Google nel 2012 per “lavorare su nuovi progetti che coinvolgono l’apprendimento automatico e l’elaborazione del linguaggio”.
Nel 1990 ha dichiarato che il più grande giocatore di scacchi del mondo sarebbe stato sconfitto da un computer entro il 2000, e Deep Blue ha effettivamente sconfitto Gary Kasparov in quell’anno. Un’altra previsione scioccante fatta da Kurzweil nel 1999 era che entro il 2023 un computer portatile da 1.000 dollari avrebbe avuto l’elaborazione e la memoria di un cervello umano.
Secondo Kurzweil, collegare le macchine alla nostra neocorteccia ci permetterebbe di pensare in modo più intelligente. Le macchine stanno già migliorando la nostra intelligenza, così gli ritiene che l’integrazione dei computer nel nostro cervello ci renderà migliori, contrariamente alle preoccupazioni di alcuni.
“Avremo più neocorteccia, saremo più divertenti, saremo più bravi con la musica. Saremo più sexy”, ha affermato.
“Saremo davvero un esempio di tutte le cose che apprezziamo negli esseri umani in misura maggiore”.
Kurzweil ritiene che svilupperemo una sintesi uomo-macchina che ci migliorerà, piuttosto che un futuro in cui le macchine spodesteranno l’umanità. La fantascienza ha esplorato a lungo l’idea di impiantare nanomacchine nel corpo umano.
In sostanza, avatar di persone care potrebbero aiutare a sentire meno traumatica una perdita, ma potrebbero portare a relazioni patologiche con un personaggio che non è reale. Le persone potrebbero convincersi di parlare con una persona reale e non ne avrebbero mai abbastanza. In un certo senso, questo potrebbe peggiorare il loro lutto.
Ciò assomiglia a quanto accade nel film The Final Cut con Robin Williams, dove in una società futura in cui dei microchip impiantati registrano ogni momento della vita di una persona dal suo punto di vista, dopo la sua morte, un “montatore” usa questi filmati registrati per creare un filmato della sua vita da proiettare al suo funerale. Ma la cosa riecheggia anche un episodio di Black Mirror che ha portato alla creazione di un chatbot GPT chiamato Replika.
Per quanto riguarda invece i nanobot, può sembrare spaventoso essere integrati con parti artificiali che alterano il nostro corpo in modo così drastico. Sebbene possa essere utile per curare alcune malattie, questo potrebbe portarci a essere meno umani. Ciò significa anche che ci saranno esseri umani più potenti che potranno sfruttare il loro potere contro coloro che non hanno questa possibilità. [...]
Aprile 11, 2023Ignorare il problema non aiuta
La forza lavoro negli Stati Uniti e in Europa sarà drasticamente modificata se l’IA generativa sarà all’altezza del suo successo, stando a Goldman Sachs in una preoccupante ricerca sull’ascesa dell’IA. Secondo la banca d’investimento, questa tecnologia in rapido sviluppo potrebbe portare alla riduzione o alla perdita di 300 milioni di posti di lavoro.
Come spiegato da Forbes, l’automazione stimola l’innovazione, che produce nuovi tipi di occupazione. Le aziende beneficeranno dei risparmi sui costi generati dall’IA. Potranno utilizzare le loro ricchezze per investire nell’avvio e nell’espansione di imprese che, in ultima analisi, aumenteranno il PIL mondiale annuo del 7%.
Nei suoi primi cinque giorni di attività, ChatGPT ha superato il milione di utenti, realizzando questa impresa più rapidamente di qualsiasi altra azienda nella storia.
Secondo Goldman, la direzione dello sviluppo dell’IA sarà simile a quella dei precedenti prodotti informatici e tecnologici. Come il mondo è passato dagli enormi computer mainframe alle tecnologie contemporanee, la rapida espansione dell’IA rimodellerà il mondo. Infatti, l’intelligenza artificiale è in grado di produrre opere d’arte originali, di superare il test di ammissione al college e l’esame di abilitazione alla professione di avvocato.
Tra i settori che saranno interessati dall’automazione figurano l’assistenza amministrativa d’ufficio, la giurisprudenza, l’architettura e l’ingegneria, le operazioni commerciali e finanziarie, la gestione, le vendite, la sanità, l’arte e il design.
Il potenziale per un boom della produttività del lavoro, simile a quelli che hanno seguito l’emergere di precedenti tecnologie di uso generale come il motore elettrico e il personal computer, è aumentato grazie alla combinazione di significativi risparmi sul costo del lavoro, alla creazione di nuovi posti di lavoro e all’aumento della produttività per i lavoratori non delocalizzati.
Tuttavia, uno studio accademico ha rilevato che negli ultimi 40 anni la tecnologia dell’automazione è stata la causa principale della disuguaglianza di reddito negli Stati Uniti. Secondo un’indagine del National Bureau of Economic Research, le diminuzioni salariali dei lavori manuali che sono stati sostituiti dall’automazione o per i quali le mansioni sono state declassate rappresentano il 50%-70% delle variazioni dei guadagni negli Stati Uniti dal 1980.
Lo sviluppo dell’intelligenza artificiale, della robotica e di altre tecnologie all’avanguardia ha creato quindi un enorme divario di ricchezza e disuguaglianza di reddito, e sembra che il problema sia destinato a peggiorare. Per il momento, i laureati che svolgono lavori intellettuali hanno per lo più evitato di subire la stessa sorte di quelli che non lo sono. Sono stati osservati aumenti salariali tra coloro che hanno conseguito un titolo post-laurea, mentre “i lavoratori con un basso livello di istruzione sono diminuiti in modo significativo”. Secondo il rapporto, “i guadagni reali degli uomini senza un diploma di scuola superiore sono ora inferiori del 15% rispetto al 1980”.
La robotica e la tecnologia hanno sostituito e continueranno a sostituire le persone che lavorano negli impianti di produzione e nelle fabbriche, i cassieri, gli addetti alle vendite al dettaglio e gli autisti di camion e taxi. La maggior parte delle occupazioni a basso salario e poco qualificate sarà presto sostituita da auto senza conducente, chioschi nei fast food e sistemi di auto-assistenza e scansione rapida tramite smartphone negli esercizi commerciali.
I sistemi che utilizzano l’intelligenza artificiale sono ovunque. Se chiedete una domanda a un assistente vocale digitale dotato di intelligenza artificiale, vi dirà tutto ciò che vi serve +4% delle volte. È possibile comunicare con un chatbot online al posto di una persona in carne e ossa per risolvere un problema. Inoltre l’intelligenza artificiale può aiutare nella diagnosi di malattie come il cancro. Per individuare frodi e non conformità, le banche utilizzano tecnologie sofisticate. L’IA si occupa principalmente delle domande di lavoro, dei newsfeed, dei social media e delle auto senza conducente.
“Una nuova generazione di macchine intelligenti, alimentata dai rapidi progressi dell’IA e della robotica, potrebbe potenzialmente sostituire gran parte dei posti di lavoro umani esistenti”, ha affermato il World Economic Forum (WEF) in una ricerca del 2020. Poiché la pandemia ha costretto le aziende ad accelerare l’adozione di nuove tecnologie per tagliare i costi, aumentare la produttività e dipendere meno dagli esseri umani, la robotica e l’IA produrranno una significativa “doppia interruzione”.
PriceWaterhouseCoopers, un’importante società di consulenza manageriale, ha dichiarato che “l’IA, la robotica e altre forme di automazione intelligente hanno il potenziale per portare grandi benefici economici, contribuendo fino a 15.000 miliardi di dollari al PIL globale entro il 2030”. Si teme che questa ricchezza aggiuntiva possa sostituire un gran numero di posti di lavoro attuali, ma che aumenterà anche la domanda di numerosi posti di lavoro.
Ciò solleva un altro problema importante, ma spesso trascurato. I sostenitori dell’IA affermano che non c’è motivo di preoccuparsi perché gli esseri umani si sono sempre adattati efficacemente alle nuove tecnologie. Ma cosa significa questo per il livello di occupazione?
Secondo la società di consulenza manageriale Oliver Wyman, i cambiamenti portati dall’intelligenza artificiale non sono pronti nemmeno per le città più sviluppate del mondo. Stando alle stime, oltre 50 milioni di lavoratori cinesi potrebbero aver bisogno di riqualificarsi in seguito all’introduzione dell’IA. 11,5 milioni di americani dovranno essere riqualificati per acquisire le capacità necessarie per operare nella forza lavoro. I progressi portati dall’IA, dalla robotica e dalle tecnologie associate richiederanno l’aiuto di milioni di persone in Brasile, Giappone e Germania.
In uno studio di Wells Fargo WFC +1,9% del 2019, la banca ha rilevato che nei prossimi 10 anni i robot elimineranno 200.000 dipendenti nel settore bancario. I lavoratori altamente retribuiti di Wall Street, come i trader di obbligazioni e azioni, sono già stati danneggiati da questa situazione. Si tratta di persone che in passato negoziavano titoli per le loro banche, per i loro clienti e per loro stessi nei trading floor delle banche d’investimento. Prima che algoritmi, software di quant-trading e altri programmi sconvolgessero il settore e rendessero obsolete le loro competenze.
I robot sono inevitabili. Robot sofisticati che eseguono interventi chirurgici delicati con maggiore accuratezza e leggono le radiografie con maggiore efficacia e precisione per identificare cellule maligne che l’occhio umano non riesce a vedere facilmente, potrebbero sostituire medici esperti e ben addestrati.
Anche gli ingegneri informatici diventeranno meno richiesti con il progredire dell’intelligenza artificiale. Il miliardario tecnologico e creatore di Twitter e Square, Jack Dorsey, prevede che presto l’AI sarà in grado di creare il proprio software. Questo renderà le cose difficili per alcuni nuovi ingegneri informatici. In un episodio del podcast Yang Speaks, Dorsey ha detto a Yang che “parliamo molto di camion a guida autonoma e altro” quando si parla di come la tecnologia sostituirà i lavori umani. “L’IA sta arrivando anche per i lavori di programmazione”, ha continuato. Molti degli obiettivi dell’apprendimento automatico e del deep learning sono lo sviluppo del software stesso nel tempo, quindi molte posizioni di programmazione entry-level saranno semplicemente meno utili.
Dovremmo preoccuparci quando i consulenti di gestione e le organizzazioni che utilizzano l’IA e la robotica ci suggeriscono che non dovremmo preoccuparci. Le aziende continueranno a utilizzare la tecnologia e a ridurre il numero di dipendenti per aumentare i profitti, che si tratti di McDonald’s che installa chioschi self-service e licenzia i dipendenti a ore per ridurre i costi o di banche d’investimento di alto livello che utilizzano software piuttosto che trader che piazzano scommesse multimilionarie sul mercato azionario.
La questione è quindi capire che le nuove tecnologie produrranno nuovi posti di lavoro, ma i lavoratori necessari dovranno essere più qualificati e ne serviranno sicuramente meno di quelli che hanno sostituito per mansioni automatizzabili. La cosa è facilmente intuibile se si pensa ad esempio quante casse automatiche hanno sostituito i cassieri e di questi quanti ne servirebbero per programmare tali casse, e ogni quanto sarebbe richiesto un loro intervento. Sicuramente non ogni giorno.
Se quindi serviranno meno posti di lavoro, ma più qualificati, bisognerà prima riqualificare tali persone, ma è davvero possibile riqualificare ogni persona per la mansione richiesta? È come dire che se servono solo chirurghi, le persone disponibili dovranno diventarlo, ma possono quindi tutti diventare chirurghi oppure ci stiamo scordando delle inclinazioni personali?
C’è da dire poi che non tutti partono dallo stesso livello di istruzione, ed oltretutto i tempi per la riqualificazione potrebbero essere molto lunghi per mansioni complesse. Nel frattempo come si sosterrebbero economicamente tali persone?
L’errore è considerare il lavoro come qualcosa debbano fare tutti per vivere quando il trend ci costringe ad averne poco, ma molto qualificato. È chiaro come quindi non sia sostenibile e che bisogna immaginare una società in cui il lavoro non è il fondamento per sostentamento, ma sempre più un’attività di nicchia. [...]