La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.

Il blog di House cerca di fare tutto questo.

Ultimi articoli
Gennaio 31, 2023È il risultato di un nuovo approccio non standard Un nuovo approccio sperimentale è stato impiegato per creare centinaia di nuovissime nanoparticelle, materiali intricati con proprietà mai viste prima. Più piccole di 100 nanometri, o circa le dimensioni di un virus, le nanoparticelle sono materiali complessi con un’ampia gamma di usi potenziali, tra cui medicina, energia ed elettronica. Per creare i materiali, i chimici di solito identificano le circostanze ideali per un particolare prodotto. Un gruppo di ricerca della Penn State ha però saltato questa strategia impiegando deliberatamente condizioni non ottimizzate per creare numerosi nuovi materiali. Secondo questo articolo, i ricercatori iniziano con nanoparticelle a forma di bastoncino di solfuro di rame (in alto a sinistra). Poi utilizzano una procedura nota come “scambio di cationi” per scambiare parte o tutto il rame delle particelle con altri metalli. I ricercatori hanno creato e analizzato centinaia di nanoparticelle che combinano numerosi componenti distinti in diverse combinazioni in prove volutamente non ottimizzate (in alto), molte delle quali non avrebbero potuto essere prodotte intenzionalmente utilizzando gli attuali standard di progettazione. Hanno poi prodotto razionalmente una delle nanoparticelle ad alta resa utilizzando nuovi parametri derivati dalla serie iniziale di esperimenti (in basso). Con questa tecnica sono riusciti a trovare nanoparticelle uniche, che incorporano una varietà di elementi in diverse disposizioni. In seguito hanno condotto ulteriori ricerche su queste nanoparticelle per produrre nuove linee guida che hanno permesso di creare campioni ad alta resa delle varietà di nanoparticelle più interessanti. È possibile prevedere e costruire nanoparticelle che potrebbero essere utilizzate per scindere l’acqua utilizzando la luce del sole, identificare e trattare il cancro e affrontare altre questioni importanti. Per funzionare, queste particelle potrebbero dover contenere diversi tipi di semiconduttori, catalizzatori, magneti e altri componenti, il tutto rispettando rigide specifiche di dimensione e forma. “Ci sono un certo numero di regole che noi e altri abbiamo sviluppato in questo campo e che ci permettono di produrre molti tipi diversi di nanoparticelle”, ha detto Raymond Schaak, professore di chimica dei materiali alla Penn State e leader del team di ricerca. “Siamo anche in grado di prevedere, soprattutto con l’aiuto dei computer, decine di migliaia di nanoparticelle diverse che potrebbero essere davvero interessanti da studiare, ma non abbiamo idea di come realizzare la maggior parte di esse. Abbiamo bisogno di nuove regole che ci permettano di realizzare nanoparticelle con nuove proprietà, nuove funzioni o nuove applicazioni, e che ci permettano di adeguarci meglio alla velocità con cui possono essere previste”. I ricercatori hanno condotto esperimenti in condizioni non ottimizzate e precedentemente inesplorate per vedere se potevano produrre nuovi tipi di particelle che non erano state scoperte in precedenza, perché l’attuale serie di regole o linee guida di progettazione, a disposizione dei ricercatori, limita la varietà di nanoparticelle che possono produrre. “Quello che facciamo può essere descritto come una ‘scoperta senza obiettivo'”, ha detto Connor R. McCormick, primo autore del lavoro e studente di chimica alla Penn State. “Se si ha in mente un obiettivo, si cerca di modulare la chimica per ottenere quell’obiettivo, ma bisogna sapere quali fattori modulare, conoscere le regole, in anticipo. L’aspetto più interessante del nostro approccio è che lasciamo che sia la chimica a guidarci e a mostrarci cosa è possibile fare. Possiamo poi caratterizzare i prodotti e scoprire cosa possiamo controllare per produrli intenzionalmente”. Le proprietà delle particelle sono regolate dalla disposizione dei metalli al loro interno e alle loro interfacce. In genere, questa procedura viene eseguita con un metallo alla volta in circostanze sperimentali specificamente regolate per regolare la reazione di scambio cationico. In questo esperimento, quattro diversi cationi metallici sono stati forniti simultaneamente in circostanze non ottimizzate per ogni scambio cationico metallico. Successivamente, i ricercatori hanno utilizzato la diffrazione dei raggi X e la microscopia elettronica per caratterizzare le particelle risultanti. “A differenza della maggior parte degli esperimenti, che sono impostati per convergere su un unico prodotto, il nostro obiettivo era quello di impostare l’esperimento in modo da massimizzare la diversità delle nanoparticelle che abbiamo prodotto”, ha spiegato McCormick. “Delle 201 particelle analizzate in un esperimento, 102 erano uniche e molte di esse non avrebbero potuto essere prodotte intenzionalmente utilizzando le linee guida di progettazione esistenti”. I ricercatori hanno poi condotto esperimenti con variabili leggermente modificate, alterando la temperatura della reazione o la quantità e la varietà di cationi metallici. In questo modo sono riusciti a creare nanoparticelle ancora più sofisticate e a dedurre nuove regole per le nuove forme di nanoparticelle. Infine, il team ha scelto uno dei nuovi materiali e lo ha prodotto con successo in quantità maggiori utilizzando i nuovi principi di progettazione. “Alla fine, questo approccio potrebbe essere utilizzato per selezionare nuove particelle con proprietà specifiche, ma al momento ci stiamo concentrando sull’apprendimento di quanto più possibile su quanto è possibile produrre”, ha affermato Schaak. “Abbiamo dimostrato che questo approccio esplorativo può effettivamente aiutarci a identificare queste ‘nuove regole’ e a utilizzarle per produrre razionalmente nuove nanoparticelle complesse ad alta resa”. Le nanoparticelle possono contribuire a una varietà di usi, come: la somministrazione di farmaci e la terapia mirata; la diagnostica medica; il trattamento e la purificazione dell’acqua, la produzione e l’immagazzinamento di energia (ad esempio, batterie, celle solari); i cosmetici e i prodotti per la cura della persona; la catalisi e le reazioni chimiche; i sensori e i dispositivi elettronici; l’imballaggio e la conservazione degli alimenti e il risanamento ambientale. Tuttavia, esistono anche rischi potenziali, come: la tossicità e i potenziali danni alla salute umana e all’ambiente; la limitata biodegradabilità e il potenziale accumulo negli ecosistemi e la difficoltà di controllare le dimensioni e la distribuzione delle nanoparticelle. [...]
Gennaio 24, 2023Alcune tecnologie saranno di aiuto e una minaccia per l’uomo allo stesso tempo Il miglioramento di alcune tecnologie esistenti e lo sviluppo di nuove nei prossimi anni potrebbe cambiare radicalmente il nostro modo di vivere, sia in positivo che in negativo. Pertanto, come descritto da Forbes, pur accogliendo con favore i progressi della scienza, è fondamentale tenere d’occhio il modo in cui alcune di queste tecnologie vengono applicate. Alcuni progressi scientifici sono facilmente sfruttabili o destinati a usi spaventosi o dannosi. Perciò, ecco 8 tecnologie che potrebbero spaventarvi nel prossimo futuro. Singolarità dell’intelligenza artificiale L’intelligenza artificiale sta progredendo verso un livello di pensiero simile a quello umano sotto molti aspetti. La “singolarità dell’IA” è un possibile momento del futuro in cui l’IA supererà l’intelligenza umana e, in un certo senso, questo punto di svolta è già stato raggiunto. Con gli attuali algoritmi di IA estremamente potenti, che sono in grado di superare gli esseri umani su molti livelli diversi, i posti di lavoro subiranno un impatto significativo. Secondo gli esperti, l’80-90% di tutti i lavori attuali sarà potenziato dall’IA e molti di essi diventeranno del tutto obsoleti,ma il rischio maggiore sarà la manipolazione delle informazioni se ci affideremo troppo ai dati dell’IA, nonché l’utilizzo dell’IA come unica fonte di informazioni, con la conseguenza di non fornire più nuove conoscenze agli esseri umani, ma di riciclare sempre le stesse informazioni. Genetica Grazie alla tecnologia CRISPR-Cas9, che consente di eliminare, inserire o modificare determinate sequenze di DNA, abbiamo la possibilità di cambiare i geni ereditabili nelle piante, negli animali e nel nostro stesso corpo umano.  Si tratta attualmente dell’approccio più semplice, adattabile e preciso alla manipolazione genetica e, di conseguenza, sta suscitando grande scalpore nella comunità scientifica. La manipolazione genica presenta incredibili vantaggi, in quanto può aiutarci a combattere le malattie, a correggere le mutazioni genetiche che causano malattie devastanti, a eliminare le allergie alimentari e a garantire la disponibilità di cibo sufficiente a sfamare il pianeta. Per esempio, i ricercatori stanno studiando una tecnica per correggere una mutazione genetica che causa la distrofia muscolare di Duchenne, una malattia mortale. La ricerca CRISPR su topi e cani si è dimostrata promettente e potrebbe portare a trattamenti efficaci per la distrofia muscolare di Duchenne nelle persone. D’altra parte, il concetto di alterare in modo permanente i geni ereditabili è altamente rischioso. Con CRISPR possiamo modificare i geni in modo che vengano incorporati in modo permanente nel genoma e trasmessi da una generazione all’altra senza conoscere le conseguenze future. Per questo motivo, poiché i suoi effetti non sono ancora del tutto compresi, diverse nazioni, tra cui la maggior parte dell’Europa, hanno vietato le modificazioni germinali; tuttavia, attualmente è consentito in Cina e negli Stati Uniti. In ogni caso, questa tecnologia presenta conseguenze etiche e pratiche. Uomini e macchine Gli esseri umani e le macchine si stanno già fondendo in vari modi. Possiamo usare una protesi per sostituire un arto perso in caso di incidente ad esempio. Anche le lenti a contatto possono aiutare gli individui a vedere meglio e, con la giusta tecnologia, si può persino dare loro una “super” visione o una visione notturna. Tuttavia, l’esercito americano ha già sviluppato esoscheletri che danno ai soldati quelli che sembrano essere superpoteri. I ricercatori stanno anche sviluppando interfacce che potrebbero consentire capacità di intelligenza artificiale completamente umane e meccaniche. Alcune aziende hanno progettato di creare interfacce cervello-computer in grado di leggere la mente. Il timore è che questa tecnologia possa essere utilizzata in modo improprio, dando vita a un futuro con superuomini che possono rappresentare una potenziale minaccia per gli esseri umani privi di tali capacità. Stampare tutto Con la tecnologia di stampa 3D è possibile creare praticamente qualsiasi oggetto 3D, ma questo potere può anche essere usato in modo improprio. Sarà più difficile regolamentare la stampa di armi, comprese le pistole, dato che le stampanti 3D diventano sempre più accessibili e comuni. Chiunque può scaricare un file e “stampare” ciò che vuole, direttamente a casa propria. Poiché le armi stampate in 3D sono prive di numeri di serie, è difficile regolamentarle e rintracciarle, il che le rende una minaccia crescente. In ottobre, la polizia britannica ha effettuato un importante sequestro di componenti di pistole stampate in 3D in una sospetta fabbrica di armi improvvisata a Londra. Man mano che queste armi da fuoco non regolamentate entrano nel mercato comune, si teme che estremisti e criminali possano procurarsele. Robot intelligenti e autonomi Con lo sviluppo dell’intelligenza e dell’autonomia, i robot saranno in grado di sostituire gli esseri umani in molti contesti lavorativi. I robot autonomi sono in grado di scegliere le proprie attività in base alle informazioni presenti nell’ambiente circostante. Abbiamo già auto a guida autonoma e robot che ci servono il cibo, lavorano nelle fabbriche, girano gli hamburger, prendono gli ordini per la spesa e preparano il caffè. Dovremo pensare a come riqualificare la nostra forza lavoro, dato che alcuni ruoli saranno sostituiti da robot autonomi e intelligenti, proprio come nel caso dell’IA. O, ancora meglio, dovremmo considerare una nuova prospettiva di società in cui il lavoro non sia una parte centrale della nostra vita. Sorveglianza digitale Nella nostra società sempre più digitale siamo in grado di tracciare quasi tutto. I dipartimenti di polizia utilizzano il riconoscimento facciale per tracciare i movimenti delle persone, mentre le aziende tengono traccia dei tasti premuti dai dipendenti. I diritti umani sono messi a rischio da questo tipo di sorveglianza digitale, che potrebbe anche essere utilizzata in modo improprio. In quanto violazione dei diritti umani, le Nazioni Unite (ONU) hanno ufficialmente condannato la sorveglianza digitale volontaria e illegale. Per garantire che le organizzazioni e i governi siano ritenuti responsabili dell’uso di questi strumenti, David Kaye, relatore speciale delle Nazioni Unite per la libertà di opinione e di espressione, ha chiesto di vietare a livello mondiale la vendita e il trasferimento di strumenti di sorveglianza digitale. Deepfakes nel Metaverso Sebbene la tecnologia deepfake abbia molte applicazioni utili, tra cui la ricreazione di personaggi storici in contesti educativi ad esempio, lo sfruttamento malevolo di questa tecnologia rappresenta un problema. I deepfake possono essere utilizzati per creare immagini e video di chiunque, sia che si tratti di persone famose, personaggi pubblici o figure influenti nel campo della tecnologia, e possono essere utilizzati per perseguire qualsiasi scopo. I deepfake sono avanzati al punto che è difficile distinguere tra video autentici e imitazioni digitali. Avremo quindi bisogno di tecniche per confermare la nostra identità quando entreremo nel metaverso e trascorreremo più tempo online per garantire la sicurezza delle nostre interazioni con gli altri o, meglio ancora, avremo bisogno di strumenti in grado di rilevare i deepfakes. Nanobot I nanobot, o minuscoli robot su scala nanometrica, sono robot microscopici che possono penetrare nel flusso sanguigno umano e persino attraversare la barriera emato-encefalica. Sebbene gli usi potenziali di questa tecnologia siano molti, tra cui: la raccolta e la trasmissione di dati, la somministrazione di farmaci e il prelievo di campioni; esiste anche un notevole rischio di abuso. I nanobot potrebbero essere impiegati per trasmettere il pensiero umano, ad esempio. Una singola persona o un gruppo di persone potrebbero essere uccisi da nanobot armati, o addirittura la loro memoria potrebbe essere modificata in modo che inizino a schierarsi con il nemico. Nella nostra società contemporanea, caratterizzata da tecnologie sempre più connesse, ci sono anche notevoli problemi di privacy. Nel mondo dei nanobot, cosa proteggerebbe le nostre informazioni mentali e mediche? Per garantire la fine a questi problemi, sono necessari una regolamentazione e un controllo rigorosi. In breve, il prossimo futuro ci porterà così tante tecnologie avanzate che potrebbe essere un problema affrontare tutte le conseguenze all’improvviso. Per questo motivo, dobbiamo imparare a usare queste tecnologie in modo consapevole fin da ora. Tuttavia, per ogni progresso positivo ce n’è uno negativo. Quindi, solo una società migliore potrebbe portarci a fare un uso migliore della tecnologia. [...]
Gennaio 17, 2023Ci vogliono solo 3 secondi per clonare una voce I ricercatori di Microsoft hanno sviluppato un nuovo modello di intelligenza artificiale text-to-speech chiamato VALL-E, in grado di imitare accuratamente la voce di una persona con un campione audio di soli 3 secondi. VALL-E è in grado di sintetizzare l’audio di chiunque una volta appresa la sua voce, e lo fa cercando di catturare anche il suo tono emotivo. Secondo i suoi sviluppatori e come qui riportato, VALL-E potrebbe essere combinato con altri modelli di intelligenza artificiale generativa, come GPT-3, per creare contenuti audio ed essere utilizzato per applicazioni text-to-speech di alta qualità, ma anche per l’editing vocale, che consentirebbe di cambiare e modificare la voce di una persona a partire da una trascrizione testuale (facendole dire qualcosa che non ha detto in origine). VALL-E, che Microsoft definisce “modello linguistico con codec neurale”, si basa su una tecnologia nota come EnCodec, presentata da Meta nell’ottobre 2022. VALL-E produce codici codec audio discreti a partire dal testo e dai suggerimenti acustici, a differenza dei sistemi text-to-speech convenzionali che in genere sintetizzano il parlato modificando le forme d’onda. Secondo il documento di Microsoft, VALL-E analizza essenzialmente il modo in cui una persona suona, scompone queste informazioni in componenti discreti (denominati “token”) utilizzando EnCodec e poi utilizza i dati di addestramento per abbinare ciò che “sa” su come suonerebbe quella voce se pronunciasse altre frasi al di fuori del campione di tre secondi. Per addestrare le capacità di sintesi vocali di VALL-E, Microsoft ha utilizzato LibriLight, una libreria audio creata da Meta. Così la maggior parte delle 60.000 ore di parlato in lingua inglese sono state prese da audiolibri di pubblico dominio come LibriVox e sono state pronunciate da più di 7.000 persone diverse. Per ottenere un risultato soddisfacente, la voce del campione di tre secondi deve assomigliare molto a una voce presente nei dati di addestramento di VALL-E. Microsoft offre decine di esempi audio del modello di IA in azione nella pagina degli esempi di VALL-E. Per produrre questi risultati, i ricercatori hanno semplicemente fornito a VALL-E un campione di tre secondi e una stringa di testo (ciò che intendevano far dire alla voce). Se si confrontano alcuni campioni, si può notare che in alcuni casi sono molto simili. Lo scopo del modello è infatti quello di produrre risultati che possano essere scambiati per il parlato umano, anche se alcuni risultati di VALL-E sembrano ancora essere generati al computer. L'”ambiente acustico” dell’audio campione può anch’esso essere replicato da VALL-E, in aggiunta al mantenimento del timbro vocale e del tono emotivo dell’oratore. L’output audio, ad esempio, imiterà le caratteristiche acustiche e di frequenza di una telefonata, se il campione proviene da questa. Inoltre, i campioni di Microsoft (illustrati nella sezione “Sintesi della diversità”) dimostrano come VALL-E possa produrre toni vocali diversi modificando il seme casuale utilizzato durante la generazione. Un seme casuale è un valore utilizzato per inizializzare un generatore di numeri casuali all’interno dell’apprendimento automatico. Questo valore viene utilizzato per generare una serie di numeri casuali che possono essere impiegati in diversi punti del processo di apprendimento automatico, come ad esempio quando si impostano i pesi iniziali di una rete neurale o si creano dati fittizi. Lo scopo dell’impiego di un seme casuale è quello di garantire che lo stesso insieme di numeri casuali venga creato ogni volta che il codice viene eseguito, consentendo all’algoritmo di apprendimento automatico di fornire risultati ripetibili. Senza un seme, ogni volta che il codice viene eseguito, il generatore di numeri casuali genera una serie diversa di numeri casuali, rendendo difficile il confronto o la duplicazione dei risultati degli esperimenti. È fondamentale tenere presente che in pratica, anche con lo stesso seme, sistemi o versioni diverse di linguaggi di programmazione possono produrre numeri casuali diversi, rendendoli meno deterministici di quanto sembri. Microsoft non ha però reso disponibile il codice di VALL-E per la sperimentazione, forse a causa della possibilità che VALL-E possa causare problemi e inganni. I ricercatori sembrano essere consapevoli del potenziale danno sociale che questa tecnologia può provocare. Infatti, nelle conclusioni del documento affermano che: “Dal momento che VALL-E potrebbe sintetizzare un discorso mantenendo l’identità del parlante, potrebbe comportare rischi potenziali nell’uso improprio del modello, come lo spoofing dell’identificazione vocale o l’impersonificazione di un parlante specifico. Per mitigare tali rischi, è possibile costruire un modello di rilevamento per discriminare se un clip audio è stato sintetizzato da VALL-E. Metteremo in pratica i Microsoft AI Principles anche nell’ulteriore sviluppo dei modelli”. Siamo su un percorso già tracciato. Alcuni sviluppi dell’IA che avevamo previsto stanno avvenendo ora, ma a una velocità maggiore. Abbiamo iniziato con i rischi dei Deepfakes e ora stiamo per affrontare le conseguenze della clonazione delle voci. Nel prossimo futuro, il potere dell’IA sconvolgerà il mondo e molte persone rischieranno di essere ingannate, soprattutto per quanto riguarda la loro identità. I deepfakes e la clonazione vocale saranno i prossimi strumenti di ingegneria sociale che i malintenzionati potrebbero utilizzare per rubare identità o creare false prove. E con la potenza del Quantum Computing probabilmente qualsiasi password potrà essere violata. È stato sufficiente vedere ciò che ChatGPT sta causando nel mondo dei Creator per capire come il mondo possa cambiare rapidamente. [...]
Gennaio 10, 2023I primi passi in un tribunale da parte di un’IA Come riportato qui, a febbraio di quest’anno l’intelligenza artificiale presenterà la sua prima battaglia legale in un tribunale. Il caso sarà semplice. Si tratta di una normale multa per eccesso di velocità, il che è presumibilmente il fattore principale che ha spinto il tribunale a concedere l’insolita richiesta di assistenza legale. La vita dell’imputato non sarà a rischio; è in gioco solo una piccola multa, ma sarà un’occasione per testare come un’intelligenza artificiale gestirà un’udienza reale. Naturalmente, non ci sarà alcun robot che si rivolgerà al giudice e alla giuria mentre si aggira per l’aula; l’IA è progredita notevolmente dal 2018, ma non così tanto. Al contrario, il cliente riceverà le risposte pertinenti alle argomentazioni presentate durante l’udienza utilizzando un telefono con software dotato di intelligenza artificiale e un auricolare. Anche se l’intelligenza artificiale impiegata in questo caso è diversa dal bot per l’analisi degli accordi di non proliferazione del 2018, questo algoritmo è stato creato dall’organizzazione di difesa dei consumatori DoNotPay per aiutare i consumatori a evitare multe, tasse e abbonamenti indesiderati. Inoltre può anche aiutare a ottenere rimborsi da aziende che cercano di far credere che non si abbia altra scelta che pagare per i loro errori. “L’app DoNotPay è la casa del primo avvocato robot del mondo”, si vanta la società. “Combatti le società, sconfiggi la burocrazia e fai causa a chiunque premendo un pulsante”. Per mantenere un ambiente controllato per l’esperimento, l’azienda ha mantenuto il segreto sul nome dell’imputato e sulla sede del tribunale. L’imputato potrà dire solo ciò che il bot gli dirà. DoNotPay si impegnerà a pagare tutte le multe e i costi relativi alla causa se il giudice si esprimerà a sfavore dell’imputato. Nel 2015, il “robot avvocato” di DoNotPay è apparso per la prima volta sotto forma di chatbot, come quelli che si trovano sui siti web di assistenza tecnica. DoNotPay ha pianificato di implementare un’intelligenza artificiale più avanzata nel 2020 e ora ritiene che sarà in grado di discutere efficacemente un caso giudiziario del mondo reale in tempo reale. Josh Browder, fondatore e CEO di DoNotPay, ha dichiarato che intende utilizzare il caso per migliorare l’accuratezza e l’integrità della sua IA. Alla fine, Browder vuole che la sua applicazione sia così efficace da ridurre drasticamente il costo dell’assunzione di un avvocato. “È tutta una questione di linguaggio, ed è per questo che gli avvocati si fanno pagare centinaia o migliaia di dollari all’ora”, ha dichiarato. “Ci saranno ancora molti bravi avvocati là fuori che potranno discutere alla Corte europea dei diritti dell’uomo, ma molti avvocati si fanno pagare troppo per copiare e incollare documenti, e credo che saranno sostituiti, e dovrebbero essere sostituiti”. I piani della Cina In ogni caso, l’idea di introdurre l’intelligenza artificiale nel campo della legge non è un caso isolato. Entro il 2025, la Cina intende dotarsi di un’infrastruttura di intelligenza artificiale a supporto del proprio sistema legale. La direttiva intende far progredire l’uso dell’IA nel sistema giuridico e migliorare i servizi legali. In un articolo del quotidiano statale China Daily, che cita le linee guida emesse dalla Corte Suprema del Popolo, si legge che tutti i tribunali dovranno implementare un sistema di IA “competente” entro tre anni. Il documento sostiene inoltre che tutti i processi necessari per affrontare le questioni legali saranno supportati da un’infrastruttura “meglio regolamentata” e più efficiente per l’uso dell’IA. Secondo l’Alta Corte, ciò dovrebbe includere un’integrazione completa dell’IA, lo sviluppo di tribunali intelligenti e un più elevato standard di “giustizia digitale”. Tuttavia, un uso più sofisticato dell’IA non dovrebbe mettere a rischio la sicurezza nazionale, compromettere i segreti di Stato o violare la sicurezza dei dati personali, ha aggiunto la dichiarazione, sottolineando l’importanza di sostenere la legalità e la sicurezza dell’IA in contesti giuridici. Inoltre, la dichiarazione afferma che le decisioni saranno comunque prese da giudici umani, mentre l’IA sarà utilizzata come risorsa e strumento aggiuntivo per aumentare la produttività dei giudici e ridurre il loro carico di lavoro nei casi di routine. Secondo la Corte Suprema del Popolo, un sistema guidato dall’IA aumenterebbe anche l’accesso del pubblico ai servizi legali e contribuirebbe a una risoluzione più efficiente delle controversie. La Corte ha inoltre richiesto ai tribunali di tutto il Paese di concentrare i propri sforzi per imparare a utilizzare l’IA, in modo da poter individuare le incongruenze nella gestione dei casi. Negli ultimi dieci anni, l’Alta Corte ha lavorato per promuovere l’uso della tecnologia nel settore. In più, per favorire la fusione tra legge e tecnologia e assistere meglio la crescita socio-economica, ha annunciato l’intenzione di creare un’alleanza giudiziaria basata su blockchain tra i tribunali cinesi e altri settori entro il 2025. Nel settembre del 2022, 350.000 mediatori e più di 90.000 centri di mediazione si sono uniti a una piattaforma creata dalla Corte Suprema del Popolo per assistere gli avvocati nella risoluzione delle controversie online. Inoltre, nel 2021 i tribunali hanno presentato più di 11,43 milioni di casi online. Entro il 2030, il governo cinese ha promesso di creare altre 50 zone ad alta tecnologia per l’aumento del PIL del Paese e per consentire “scoperte” nell’intelligenza artificiale, nell’informatica quantistica e nelle comunicazioni 5G. Gli scienziati e le imprese che operano nelle zone ad alta tecnologia hanno costruito il primo chip di intelligenza artificiale e il primo satellite per le comunicazioni quantistiche del Paese. Le cause legali sono spesso costose e richiedono molto tempo, anche quando si tratta di casi di routine come le multe. Pertanto, in queste situazioni, un avvocato basato sull’intelligenza artificiale è più economico e potrebbe essere utile oltre che più accessibile, anche per via di meno burocrazia. Tuttavia, il rischio è che, nel corso degli anni, verdetti importanti possano essere decisi dall’intelligenza artificiale quando questa sarà sempre più parte del sistema. La questione, più riguardo la neutralità, è la mancanza di profondità nel gestire la varietà di eccezioni che la vita umana presenta. Abbiamo esempi di moderazione automatica sui social media, dove un’intelligenza artificiale decide di bandire o sospendere persone dal loro account, non sempre per buone ragioni. E spesso è difficile fare ricorso perché alcune decisioni sono inappellabili anche se si ha ragione. Sappiamo che questo accade anche con il sistema giudiziario standard, ma con l’automazione è difficile far sentire la propria voce. Pertanto, abbiamo bisogno di un sistema che ci permetta di contestare più che sentenziare. [...]
Gennaio 3, 2023A volte vediamo troppa umanità e altre volte non la vediamo affatto È una tendenza umana quella di vedere aspetti della nostra vita negli animali, nelle piante o persino negli oggetti. Possiamo interpretare lo strano verso del nostro cane come un modo di cantare, il fruscio di un albero come se stesse parlando e considerare un chatbot come un essere umano con una propria mente. Questo è ciò che chiamiamo antropomorfismo. L’anti-antropomorfismo Come viene qui spiegato, nel XX secolo gli scienziati si sono sforzati di mettere in discussione le convinzioni comuni su biologia, società, comportamento animale e altri argomenti. Secondo l’ecologista Carl Safina, questa nozione si è poi evoluta nell’ideologia prevalente dell’anti-antropomorfismo. L’antropomorfismo è stato talvolta definito il “peggiore dei peccati etologici” e una minaccia per il regno animale, ma la generazione successiva di ecologi sul campo, guidata da Jane Goodall e Frans De Waal, ha resistito a questo anti-antropomorfismo integrando l’empatia nelle loro osservazioni. Come afferma l’ecologo Carl Safina, “ormai non conosco più persone che studiano gli animali e insistono sul fatto che l’antropomorfismo sia fuori discussione”. In alcuni contesti, tuttavia, l’anti-antropomorfismo risulta ancora progressista nelle discussioni sugli animali e, sempre più spesso, sull’intelligenza artificiale. Sembra che siamo sempre più propensi a riconoscerci in ogni macchina che puntualmente ci imita, a partire dall’artistica IA DALL-E fino al realistico chatbot ChatGPT. Alcuni studiosi ritengono che proiettare la nostra umanità sulle IA potrebbe avere ripercussioni reali, tra cui nascondere ulteriormente il vero funzionamento di queste menti e sostenere la discutibile idea che la mente umana sia l’unico o il migliore modello di intelligenza. Tuttavia, l’antropomorfismo è uno strumento come un altro, usato per scopi buoni e cattivi nell’incessante ricerca dell’umanità di comprendere un ambiente complesso. Con la diffusione di nuovi sistemi artificiali ogni giorno, è più importante che mai stabilire quando e come utilizzare questo strumento. Una delle domande chiave di questo secolo è come comunicare con queste entità, sia naturali che artificiali. Antropomorfismo L’antropomorfismo è un tipo di pensiero metaforico che ci permette di fare analogie tra le nostre esperienze e quelle degli altri. Può anche essere visto come uno dei tanti effetti di quella che i neuroscienziati hanno chiamato “teoria della mente”, ovvero la capacità di distinguere la propria mente da quella degli altri e di dedurre ciò che gli altri pensano o sperimentano. Ogni aspetto dell’interazione sociale umana, dall’empatia all’inganno, dipende dalla teoria della mente, ma anche così, lo strumento è difettoso. Secondo Heather Roff, una studiosa specializzata nell’etica dello sviluppo tecnologico, “l’accesso più facile che abbiamo è quello a noi stessi”. Dal momento che mi conosco bene e che voi siete sufficientemente simili a me, ho una teoria della mente. Chiunque può rimanere perplesso di fronte a una persona che percepisce come “incomprensibile” o allo “shock” di una cultura sostanzialmente diversa dalla propria. Nonostante queste difficoltà, le persone sembrano comunque motivate a percepire gli altri come pensanti. Sembra che consideriamo in modo automatico che gli altri esseri abbiano idee e sentimenti propri. Allo stesso tempo, molti individui interiorizzano idee che si oppongono nel considerare particolari personalità come normali e spesso rifiutano la mentalità degli animali non umani, dei bambini, delle donne, delle persone di colore e di coloro che soffrono di malattie mentali o disabilità dello sviluppo. A questo proposito, l’antropomorfismo potrebbe apparire quasi morale. Tra le voci moderne che promuovono un’empatia radicale tra le specie ci sono Sy Montgomery, Sabrina Imbler e Ed Yong. Il botanico e membro della Citizen Potawatomi Nation Robin Wall Kimmerer tratta invece le differenze tra le prospettive scientifiche indigene e occidentali della natura nel suo libro Braiding Sweetgrass. I.A. Questa tendenza a vedere una personalità nell’ambiente che ci circonda si complica con l’intelligenza delle macchine. La maggior parte degli esperti ritiene che queste e altre caratteristiche della coscienza saranno realizzate solo nei prossimi decenni, nonostante le affermazioni secondo cui LaMDA di Google non solo sia senziente, ma abbia anche un’anima. Attualmente però, l’IA si affida completamente alle persone per continuare a progredire. Non abbiamo nulla che si avvicini a un’intelligenza generalizzata, anche se eccelle in un campo particolare. Questo include ChatGPT, che ha notevoli limiti: può produrre un linguaggio che sembra convincente, ma non è in grado di comprenderlo. La maggior parte dei difetti dell’IA, così come i suoi vantaggi, sono poco riconosciuti dal pubblico in generale (e talvolta anche dai presunti esperti). Le capacità dell’IA a volte sembrano addirittura esagerate di proposito. Inoltre, molti progetti modellano deliberatamente la cognizione umana e rispecchiano le azioni umane. Di conseguenza, molti individui sono portati ad attribuire intelligenza alle macchine e ai codici informatici. Le questioni etiche legate all’IA oggi non riguardano i “diritti” legali o morali dell’IA stessa, ma piuttosto il modo in cui gli esseri umani utilizzano queste tecnologie gli uni contro gli altri. Sebbene l’IA possa imitare con successo alcune parti dell’intelletto umano, in realtà funziona in modo molto diverso. DALL-E, ad esempio, è un modello statistico a cui è stato insegnato a imitare gli artisti, ma è un modo completamente diverso di “creare”. Probabilmente non vorremo creare un’intelligenza artificiale che imiti gli esseri umani per molto tempo. Roff sostiene infatti che se dovesse ottimizzare qualcosa, “vorrei che fosse migliore dei miei stessi sensi”. Antropo-fabulazione A causa dell’ossessione culturale per l’antropomorfismo, è passata inosservata l’antropo-fabulazione, un bias che comporta danni ben più gravi. Questo strano termine è stato inventato dal filosofo Cameron Buckner per evidenziare la nostra propensione a utilizzare una visione esagerata del potenziale umano come metro di giudizio per valutare tutti gli altri tipi di intelligenza. Secondo questa teoria, gli esseri umani sottovalutano l’intelletto degli animali ed esagerano l’intelligenza delle macchine per lo stesso motivo: quando pensiamo a noi stessi come i migliori, crediamo che tutto ciò che è più simile a noi sia migliore. Ironicamente, l’uso dell’antropomorfismo o di tecniche simili può contribuire a ridurre gli effetti negativi di un elitarismo così palese. Possiamo iniziare a relazionarci con le altre creature in modo più responsabile, se comprendiamo come la nostra teoria mentale dà senso all'”altro” (o non lo dà) e rispettare la diversità di intelletti attualmente presenti sulla Terra. Esistono numerosi metodi per antropomorfizzare gli animali, pur con la dovuta cautela. Il lavoro di Kimmerer chiarisce che esiste una via spirituale. Imbler, invece, ha recentemente proposto di considerare la vita dei blob marini, che sono in relazione con ogni altra vita sulla Terra. Inoltre, il lavoro più recente di Yong si avvale di ricerche sull’olfatto dei cani e sulla visione a infrarossi dei pipistrelli per aiutare i lettori a vedere gli animali come vedono loro stessi. Tutti questi metodi si basano sull’empatia e su una forma di obiettività che deriva dalla dedizione all’osservazione delle somiglianze e delle differenze. Secondo Safina, “non si tratta di proiezione se si osservano altri animali e si giunge alla conclusione che hanno pensieri ed emozioni”, ma piuttosto di osservazione. Per l’IA sarà necessario applicare queste idee in modo più sottile. In generale, l’antropomorfismo e l’antropo-fabulazione ci impediscono di capire l’IA per quello che è. Il rapporto che abbiamo con l’IA si modificherà inevitabilmente man mano che questa diventerà più intelligente e che la nostra comprensione si amplierà. Oggi, proiettare l’umanità sulla tecnologia ottenebra più che illuminare. La nostra tendenza a proiettare l’umanità negli animali, nelle piante e infine nell’IA fa forse parte del nostro bisogno sociale di relazionarci con ciò che ci circonda, poiché possiamo gestire meglio una relazione se usiamo un linguaggio che conosciamo, e inconsciamente speriamo che lo usino anche loro. È come quando prendevamo a schiaffi il televisore per farlo funzionare. In un certo senso, lo spaventavamo per farlo funzionare in quanto non riuscivamo a ripararlo, così come speravamo che il gesto risolvesse il problema elettrico. Un’altra ragione potrebbe essere che abbiamo bisogno di quella relazione perché non possiamo trovarla altrove, quindi attribuiamo l’umanità perché ci piace con chi o con cosa stiamo avendo tale rapporto. Nel caso dell’intelligenza artificiale, può essere molto stimolante parlare con qualcosa che può rispondere a domande che normalmente non possiamo fare, è come parlare con qualcuno che condivide i nostri stessi interessi. [...]
Dicembre 27, 2022L’I.A. parlerà in modo più naturale e assisterà meglio le persone Assistenti telefonici L’assistenza telefonica non è una novità, ma rappresenta il prossimo passo nello sviluppo di soluzioni per l’assistenza clienti basate sull’intelligenza artificiale. Chi incorporerà e migliorerà le soluzioni vocali esistenti avrà la possibilità di dominare il mercato, ma questa tecnologia ha anche i suoi ostacoli. Sebbene WhatsApp affermi che la sua rete venga utilizzata per distribuire oltre 100 miliardi di messaggi al giorno, una recente analisi di Vonage indica che i consumatori preferiscono ancora le chiamate via cellulare a tutte le altre forme di contatto con le aziende. Perciò, è più che mai cruciale essere in grado di incontrare i consumatori dove si trovano e fornire un servizio nel modo in cui lo desiderano, poiché le soluzioni multicanale continuano ad aumentare il numero di modi in cui i clienti possono relazionarsi con un’azienda per un acquisto o un problema con un prodotto. Anche se le app dei social media sono sempre più utilizzate per scopi diversi dalla pubblicazione di immagini o di brevi annunci, il contatto digitale è in continua espansione ed è evidente che l’assistenza vocale è ancora necessaria. Come spiega Forbes, oltre a migliorare il coinvolgimento dei clienti, l’assistenza vocale presenta numerosi vantaggi. Molte aziende attualmente non registrano i dialoghi con i clienti, il che rende difficile l’analisi delle informazioni provenienti dalle interazioni telefoniche con i consumatori. Senza l’apprendimento automatico che alimenta molti degli attuali bot vocali, sarebbe un incubo logistico e gli operatori dell’assistenza impiegherebbero ore di tempo che potrebbero utilizzare per aiutare altri clienti per elaborare in modo efficiente la quantità di informazioni inviate durante le chiamate. Per migliorare i flussi di servizio e le risposte, sia per gli agenti in carne e ossa che per quelli virtuali, le organizzazioni dovrebbero invece utilizzare i dati generati dai bot vocali, che avranno un doppio effetto positivo sull’esperienza del cliente. Ogni staff di assistenza clienti utilizza il tempo come indicatore chiave di performance e l’obiettivo è quello di ridurre il tempo necessario ai clienti per soddisfare le loro richieste, sia che si tratti di un problema tecnico, sia che si tratti di verificare lo stato di avanzamento di un ordine o per qualsiasi altro motivo. I tempi di attesa presso alcune delle più grandi istituzioni internazionali durante il periodo di massima espansione del Covid-19 sono saliti alle stelle a causa della carenza di personale e dell’aumento delle richieste dei clienti. Anche se questo è il caso più estremo, è un esempio di un problema che può sorgere in qualsiasi momento. Sono innumerevoli le circostanze in cui un’azienda può trovarsi inaspettatamente di fronte a un aumento delle richieste dei clienti, che sia dovuto a un aggiornamento interno del prodotto o a un evento esterno come il Covid-19. Le aziende rischiano di rimanere a bocca asciutta se non possono assumere immediatamente decine di nuovi operatori di supporto. Per prepararsi a situazioni come questa, le aziende dovrebbero pensare a tecnologie di inserimento che possano crescere per soddisfare le richieste dei consumatori in pochi secondi. Come ogni tecnologia, anche i bot vocali presentano una serie di difficoltà che i fornitori devono superare durante la creazione delle loro soluzioni. Queste difficoltà possono essere affrontate in vari modi. L’input vocale è uno dei principali. I bot vocali devono tenere conto delle piccole o significative variazioni nel modo in cui ogni chiamante reagisce alle richieste, a differenza dei chatbot basati sul testo che analizzano porzioni di testo. Eventualità come i dialetti, il parlare in modo rapido e chiaro e il rumore di fondo hanno un impatto significativo sull’accuratezza della trascrizione, che è fondamentale per la comprensione dell’utente. Inoltre, i bias sono un fattore cruciale da tenere in considerazione con qualsiasi bot. Anche se chiunque può inserire la stessa riga di testo, l’accuratezza della risposta di un bot vocale basata sul modo di parlare di una persona potrebbe causare disparità nell’utilizzo di un bot vocale da parte di diversi utenti. Anche i bot supportati da enormi serie di dati possono essere ingannati, come dimostra uno studio che ha rilevato che l’assistente vocale di Google è più preciso del 13% per gli uomini rispetto alle donne. Anche se non intenzionale, il bias dei bot ha effetti pratici. Il successo del bot potrebbe essere a rischio se avesse difficoltà a identificare le risposte di un utente demografico che costituisce la maggioranza della vostra base clienti. Sebbene non sia un problema insormontabile, deve essere preso in considerazione quando si tiene traccia dei commenti degli utenti sulle prestazioni di un bot. Anche se nel mondo ci sono 5 miliardi di telefoni in uso, l’assistenza vocale di alta qualità continuerà a essere essenziale per molto tempo. Anche le aziende più grandi saranno in grado di offrire il tipo di esperienza personalizzata che i clienti cercano grazie a tempi di risposta rapidi e a un punto di coinvolgimento conversazionale al telefono guidato da un assistente virtuale, aumentando la fedeltà al marchio nel tempo. Per chi sta pensando di utilizzare un bot vocale nel proprio flusso di esperienza utente sarebbe meglio iniziare in piccolo ed espandersi in modo incrementale, limitando all’inizio la quantità di domande a cui il bot può rispondere. È possibile ridurre la possibilità che il bot debba indirizzare gli utenti ad agenti di supporto in carne e ossa al momento del lancio e ottenere rapidi successi iniziando con un bot incentrato su alcuni temi specifici e lavorando per ottimizzare i flussi di risposta prima di estenderli a una maggiore varietà di aree tematiche. Non bisogna però dimenticare che l’assistenza automatizzata non può sempre sostituire al 100% le problematiche dell’utente. Ed è bene ricordarsi che trascurare questo aspetto potrebbe essere anche peggiore dei bias, poiché non è una novità che utenti vengano ad esempio sospesi da servizi sui quali spesso e volentieri lavorano e hanno raggiunto un determinati obiettivi senza aver la possibilità di replicare poiché tutto è gestito in modo automatico tanto da diventare poco democratico. Chatbot con voce Tuttavia, con l’arrivo di ChatGPT, il modo in cui le persone chattano con i bot sta cambiando radicalmente. Le conversazioni appaiono più naturali e possono soddisfare svariate richieste. È come un grande cervello addestrato con così tanti dati da sembrare onnisciente. Pertanto, questa soluzione sarà sicuramente l’evoluzione degli assistenti personali in molti campi. Ecco perché quando l’intelligenza artificiale sarà brava a parlare come lo è a conversare (ma ci siamo vicini), avremo un assistente coinvolgente in grado di aiutarci in molti aspetti della nostra vita, come: l’organizzazione, il supporto psicologico e il miglioramento delle nostre conoscenze senza dover consultare diversi esperti. Tuttavia, non possiamo dimenticare di sottolineare il rischio di affidarsi troppo a questa tecnologia. Sappiamo che le risposte fornite non sono sempre corrette e il rischio è che troppe persone credano a una spiegazione sbagliata poiché troppo comoda. Perciò non dobbiamo sostituirci agli esperti, ma questo potrebbe essere un modo per chiarire i dubbi iniziali su un determinato argomento. Inoltre, se tutti noi ricevessimo informazioni esclusivamente da un’I.A. come ChatGPT, non svilupperemmo nuove conoscenze, ma impiegheremmo sempre gli stessi dati senza aggiungerne di nuovi. Ecco perché è importante che questo strumento non diventi l’unico utilizzato per generare informazioni. Generatori vocali con Intelligenza Artificiale Sempre parlando di voce, possiamo anche considerare i generatori vocali con IA che stanno sostituendo le vecchie applicazioni TTS (Text To Speech). Grazie alla capacità dell’IA di generare voci sempre più naturali con caratteristiche come l’enfasi sulle parole e i diversi toni di voce, saremo in grado di avere una voce per diversi utilizzi come: film, podcast, audiolibri, ecc… Per non parlare dell’opzione speciale che alcuni di questi strumenti offrono, ovvero la funzione di clonazione che consente di clonare la nostra voce o quella di qualcun altro per realizzare un parlato con quella voce specifica. Sembra spaventoso, e lo è se si pensa che potrebbe essere usato per scopi illeciti. Tuttavia, potrebbe essere molto utile per restituire la voce o una voce naturale a chi non può più parlare, come è successo all’attore Val Kilmer per il film Top Gun – Maverick a causa del suo cancro alla gola. [...]
Dicembre 20, 2022Il prossimo passo per un’intelligenza artificiale più vicina al funzionamento del nostro cervello GPT-3.5 Mentre tutti aspettano GPT-4, la versione aggiornata del trasformatore generativo GPT-3, OpenAI ha reso disponibile GPT-3.5 sotto forma del già discusso chatbot ChatGPT. ChatGPT è una versione perfezionata di GPT-3.5, un aggiornamento che l’azienda non aveva annunciato. Il chatbot ha dimostrato la capacità di generare testo in modalità conversazionale, che secondo l’azienda gli consente di: rispondere alle richieste di assistenza, di riconoscere i propri errori, di rifiutare le premesse errate e di respingere le richieste non idonee. Il modello è parente di InstructGPT, un modello GPT-3 perfezionato a cui è stato insegnato come seguire una richiesta di istruzioni e a produrre una risposta esauriente. Lo sviluppo di contenuti digitali, la creazione e il debug di codice e l’assistenza ai clienti sono tutti casi d’uso di ChatGPT. GPT-3.5 è un gruppo di modelli sviluppati da OpenAI utilizzando testi e codici precedenti al quarto trimestre del 2021. L’azienda ha creato questa collezione di modelli per vari compiti piuttosto che rendere disponibile un GPT-3.5 completamente addestrato. Secondo gli sviluppatori, ChatGPT è basato su text-DaVinci-003, che è un aggiornamento di text-DaVinci-002 in GPT-3. Come per InstructGPT, il modello è stato addestrato utilizzando il Reinforcement Learning from Human Feedback (RLHF), ma con metodi di raccolta dati diversi: “Abbiamo addestrato un modello iniziale utilizzando una taratura supervisionata: i trainer di I.A. umani hanno fornito conversazioni in cui interpretavano entrambe le parti, l’utente e l’assistente dell’I.A. Abbiamo poi dato agli istruttori accesso a suggerimenti scritti dal modello per aiutarli a comporre le loro risposte”, ha dichiarato OpenAI in un post sul blog. “Per creare un modello di ricompensa per l’apprendimento con rinforzo, avevamo bisogno di raccogliere dati di confronto, che consistevano in due o più risposte del modello classificate in base alla qualità”. I ricercatori hanno utilizzato dialoghi tra chatbot e trainer di intelligenza artificiale per scegliere casualmente una frase scritta dal modello, campionando più possibili completamenti, e poi hanno chiesto ai trainer di intelligenza artificiale di valutare la qualità di ciascun completamento. ChatGPT sa utilizzare anche rime e sillabe per comporre canzoni e poesie, quindi sembra essere in grado di comprendere la struttura delle parole e delle frasi. Sebbene ci sia ancora del lavoro da fare prima che un’IA rubi il lavoro o i programmi delle lezioni a qualcuno, alcuni potrebbero essere preoccupati per gli scrittori disoccupati o per la scomparsa della scrittura di saggi nelle scuole. Nonostante ciò, OpenAI ha illustrato i limiti del nuovo modello. I ricercatori hanno infatti osservato che il modello fornisce occasionalmente risposte che possono sembrare plausibili, ma che sono imprecise o illogiche. Inoltre, ChatGPT risponde in modo incoerente a semplici cambiamenti di formulazione, dichiarandosi ignorante in risposta a una domanda, ma rispondendo accuratamente a un’altra. Il modello occasionalmente fa poi un uso eccessivo di alcune parole e frasi, che secondo OpenAI potrebbero essere il risultato di distorsioni nei dati di addestramento causate dalle preferenze dei trainer per risposte più lunghe e dettagliate. Secondo i ricercatori, il modello a volte deduce lo scopo dell’utente quando risponde a una domanda poco chiara quando, in realtà, dovrebbe porre domande di chiarimento. Secondo gli sviluppatori di ChatGPT, l’inconveniente maggiore è che, anche se OpenAI ha addestrato il modello a rifiutare le richieste errate, ChatGPT può ancora reagire negativamente ai comandi o comportarsi in modo distorto. L’azienda riconosce che, a meno che non si raccolga un feedback sufficiente da parte degli utenti per migliorarla, l’API di moderazione di OpenAI potrebbe dare luogo a falsi negativi o positivi per alcuni contenuti segnalati come pericolosi. L’azienda afferma che intende aggiornare frequentemente il modello per ovviare a queste limitazioni, raccogliendo al contempo il feedback degli utenti sui risultati indesiderati del modello, con particolare attenzione ai risultati dannosi che “potrebbero verificarsi in condizioni reali e non contraddittorie, oltre ai feedback che ci aiutano a scoprire e comprendere nuovi rischi e possibili mitigazioni”. A questo scopo, l’azienda ha anche dichiarato che organizzerà un concorso di feedback ChatGPT, con 500 dollari di credito API come primo premio. GPT-4 Dopo GPT-3 e chatGPT, GPT-4 sarà il modello linguistico di grandi dimensioni di prossima generazione e si prevede che utilizzerà 100 trilioni di parametri. Come termine di paragone, il cervello umano ha una media di 86 miliardi di neuroni, quindi questo sbalorditivo numero di parametri è reso possibile dai recenti sviluppi del supercalcolo dell’intelligenza artificiale, a partire dall’hardware dei chip cluster su scala cerebrale. L’uso della scarsità al centro della progettazione del modello distingue GPT-4 e OpenAI dai precedenti modelli su larga scala. Di conseguenza, anche se il modello ha un enorme spazio dei parametri, il costo di calcolo è probabilmente inferiore a quanto si potrebbe prevedere. Rispetto al suo predecessore, che costava 12 milioni di dollari per ogni sessione di addestramento, si prevede un costo di addestramento di circa 6 milioni di dollari. Ciò è dovuto al fatto che i neuroni del modello hanno un’alta percentuale di neuroni inattivi, il che riduce le risorse computazionali necessarie per far funzionare il modello. In parole povere, ciò significa che il modello sarà in grado di conservare un maggior numero di potenziali parole successive, frasi successive o emozioni successive, a seconda del contesto dell’input; in altre parole, il GPT-4 sarà probabilmente più simile al pensiero umano rispetto al GPT-3, perché sarà in grado di prendere in considerazione una gamma più ampia di opzioni quando produce gli output. L’adozione della scarsità in GPT-4 potrebbe migliorarne la funzionalità e aumentarne l’efficienza, perché consumerebbe meno potenza di calcolo per funzionare. Ci sono diversi modi per ottenere questo risultato, uno dei quali è che OpenAI migliori l’ottimizzazione a livello di software, consentendo di addestrare il modello in modo più efficace. Un’altra possibilità è che GPT-4 possa beneficiare di hardware o chip più veloci, che ridurrebbero il prezzo della potenza del computer necessaria per addestrare il modello. Un’altra spiegazione per la minore spesa di addestramento di GPT-4 potrebbe essere che OpenAI e Cerebras (un’azienda americana di intelligenza artificiale che costruisce sistemi informatici per applicazioni complesse di deep learning dell’intelligenza artificiale), collaborino per addestrare il loro modello sul più recente supercomputer CS-2 di quest’ultima, il più veloce acceleratore di AI disponibile, che riduce le latenze di inferenza da millisecondi a microsecondi e i periodi di addestramento da mesi a minuti. Rispetto al calcolo dell’intelligenza artificiale basato sulle unità di elaborazione grafica, utilizza una frazione minima delle risorse. In questo modo, gli sviluppatori possono evitare strategie di ottimizzazione dannose per le prestazioni. GPT-4 è anche molto più grande dei precedenti modelli sparsi, come Switch Transformer e Wu Dao, che hanno solo qualche trilione di parametri. Un’altra caratteristica significativa è il fatto che GPT-4 è previsto come modello linguistico multimodale, in grado di ricevere una serie di input tra cui: testo, audio, immagini e potenzialmente anche video. Si tratta di un progresso promettente perché consentirà al GPT-4 di fornire output in diversi formati. Visti i recenti sviluppi dell’intelligenza artificiale generativa audiovisiva e la già straordinaria capacità dei modelli linguistici di produrre testi simili a quelli umani, è logico che OpenAI svolga ulteriori ricerche in questo settore utilizzando GPT-4. Sebbene la gestione precisa di queste diverse modalità di input da parte di GPT-4 sia ancora sconosciuta, l’uso di input e output multimodali è una direzione importante per lo sviluppo dell’intelligenza artificiale, perché non solo il cervello umano elabora informazioni da una molteplicità di sensi, ma anche perché il mondo è multimodale. L’intelligenza artificiale sarà in grado di interagire efficacemente con il mondo esterno e di cogliere la complessità dell’esperienza umana quando sarà in grado di analizzare gli input relativi a vista, suono, tatto, olfatto e persino gusto. Un’altra rivoluzione è alle porte. Con GPT-4 potremmo ottenere il primo algoritmo di intelligenza artificiale più vicino al nostro cervello e potrebbe essere il primo algoritmo a essere implementato nel cervello di un robot. Una conoscenza così vasta del mondo potrebbe darci risposte a qualcosa che ancora non riusciamo a comprendere. Immaginate di poter elaborare nel vostro cervello tutta la conoscenza del mondo e di essere in grado di creare connessioni tra tutti questi dati. Che tipo di risposte potreste ottenere? Per una persona, questa conoscenza potrebbe assomigliare a quella di un oracolo o di un Dio. Se si aggiunge che le risposte possono essere fornite anche da supporti audio e video, questo cambierà il modo in cui potremo utilizzare e accedere alle informazioni. In ogni caso, se le risposte dell’intelligenza artificiale saranno più complesse di quanto possiamo comprendere, come potremo discernere se una risposta sarà affidabile o meno? [...]
Dicembre 13, 2022Le sue risposte possono essere ingannevoli Sam Altman, CEO di OpenAI, ha messo in guardia gli utenti con un tweet sorprendentemente diretto su ChatGPT, il “modello interattivo e conversazionale” costruito sul generatore di testo GPT-3.5 dell’azienda: “ChatGPT è incredibilmente limitato, ma è abbastanza valido in alcune cose da creare un’impressione fuorviante di eccellenza”, ha twittato. “È un errore fare affidamento su di esso per qualsiasi cosa importante in questo momento. È un’anteprima del progresso; abbiamo molto lavoro da fare sulla robustezza e sulla veridicità”. ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness.it's a mistake to be relying on it for anything important right now. it’s a preview of progress; we have lots of work to do on robustness and truthfulness.— Sam Altman (@sama) December 11, 2022 Pur avvertendo che ChatGPT, al momento del lancio di OpenAI, era una versione demo e di ricerca preliminare con “molte limitazioni”, ne ha comunque esaltato i suoi potenziali utilizzi nei seguenti modi: “Presto potrete avere assistenti affidabili che vi parlano, rispondono alle domande e danno consigli”, ha twittato. “In seguito potrete avere qualcosa che va a svolgere dei compiti per voi. Infine, anche qualcosa che va a scoprire nuove conoscenze per voi”. Tuttavia, secondo questo articolo, ChatGPT ha un difetto nascosto: emette rapidamente risposte eloquenti e sicure di sé che spesso sembrano credibili e veritiere anche se non lo sono. ChatGPT inventa fatti, proprio come altri grandi modelli linguistici generativi. Alcuni lo definiscono “allucinazione” o “imitazione stocastica”, ma questi modelli sono addestrati ad anticipare la parola successiva in base a un input piuttosto che a determinare se un fatto è vero o meno. Alcuni hanno osservato che ChatGPT si distingue perché è così abile nel far sembrare plausibili le sue allucinazioni. Benedict Evans, un analista tecnologico, per esempio, ha chiesto a ChatGPT di “scrivere una biografia per Benedict Evans”. Egli ha poi twittato che il risultato era “plausibile, ma quasi del tutto falso”. Ancora più preoccupante è il fatto che ci siano innumerevoli richieste per le quali l’utente sarebbe in grado di determinare se la risposta è falsa solo se conoscesse già la risposta alla richiesta presentata. Il professore di informatica di Princeton, Arvind Narayanan, ha fatto la seguente osservazione in un tweet: “Le persone sono entusiaste di usare ChatGPT per l’apprendimento. Spesso è molto buono., ma il rischio è che non si può capire quando sbaglia, a meno che non si conosca già la risposta. Ho provato alcune domande di base sulla sicurezza informatica. Nella maggior parte dei casi, le risposte sembravano plausibili, ma in realtà erano stronzate”. In ogni caso, non ci sono prove che la domanda si utilizzo di questo strumento sia in calo: Anzi, sembra che OpenAI abbia difficoltà a soddisfare le richieste. Alcuni sostengono di aver ricevuto un messaggio che recita: “Ehi! Potresti dover aspettare un po’. Al momento stiamo ricevendo più richieste di quante ne possiamo gestire”. Sembra che coloro che creano questi modelli stiano tenendo la testa bassa poiché sono consapevoli dell’intensa concorrenza che li attende, nonostante il ritmo frenetico dei discorsi che circondano ChatGPT, che vanno da quelli che criticano Google per il presunto ritardo nello sviluppo nel campo degli LLM (Large Language Models) alle preoccupazioni per il futuro dei saggi universitari. Tuttavia, sembra che Google non abbia mai mostrato alcuna funzionalità in stile ChatGPT nei suoi prodotti in quanto sarebbe troppo costosa e i risultati non sarebbero buoni come una ricerca classica, anche a causa della latenza di risposta. Google employees explain why we haven’t seen ChatGPT like functionality in their products; the cost to serve an AI result is 10x to 100x as high as a regular web search today plus they’re too slow relative to how quick search results must be returned. pic.twitter.com/ixYDq0aI2H— Dare Obasanjo 🐀 (@Carnage4Life) December 9, 2022 Dal punto di vista di OpenAI, è evidente che l’azienda stia sfruttando questo periodo di ampia sperimentazione della comunità con ChatGPT per ottenere l’RLHF (Reinforcement Learning from Human Feedback) per l’attesissimo rilascio di GPT-4. Pertanto, più persone utilizzano ChatGPT, più l’algoritmo sarà addestrato. Naturalmente, anche se il CEO di Stability AI, Emad Mostaque, fa questa affermazione, egli parla anche a nome di coloro che stanno sviluppando freneticamente una versione open-source di ChatGPT. ChatGPT is OpenAI basically RLHF'ing GPT4 right— Emad (@EMostaque) December 3, 2022 Uno degli sviluppatori di Stable Diffusion (uno dei tre famosi generatori di immagini di IA, tra cui DALL-E e Midjourney), LAION, sostiene di essere attivamente impegnato in questo senso. Questo nuovo strumento mette in luce uno dei principali problemi delle IA, ovvero l’inganno. Non è detto che l’azienda che l’ha sviluppata lo faccia apposta, ma ciò accade a causa del funzionamento dell’algoritmo. Se statisticamente una sequenza di parole o di richieste ha maggiori probabilità di produrre un certo tipo di risultato, l’IA lo mostrerà perché attraverso l’addestramento è stato così. Ma il problema è che le persone si fideranno inevitabilmente di uno strumento comodo, facile da usare e coinvolgente. Pertanto, senza un pensiero critico, le persone apprenderanno informazioni false. Immaginate questa reazione a catena che si espande a livello globale. Le persone penseranno di sapere qualcosa che non è vero e la loro coscienza sarà alterata. Al contempo, anche quando le persone verrebbero corrette per aver detto qualcosa di sbagliato, come in una scuola, potrebbero usare questo strumento per superare un test laddove l’IA rispondesse correttamente. In ogni caso, questo strumento migliorerà e darà risultati sempre migliori, ma le persone dovrebbero imparare a non accettare una risposta solo perché è più facile da ottenere o proviene da una fonte che ci piace. [...]
Dicembre 6, 2022Può fare tutto ciò che chiedete Negli ultimi anni OpenAI non ha mai smesso di stupirci. Da quando abbiamo iniziato a esplorare le potenzialità dell’algoritmo GPT-3 (Generative Pretrained Transformer), che ci permette di scrivere contenuti, rispondere a domande, eseguire comandi, ecc…, il mondo degli algoritmi delle IA è cambiato radicalmente. Ma è cambiato anche l’approccio che abbiamo soprattutto con la scrittura e, ultimamente, con la creazione di arte utilizzando generatori di immagini AI come DALL-E, sviluppato dalla stessa OpanAI. Ora, la stessa azienda sta dando al pubblico l’accesso a un altro strumento che ci permette di conversare con la sua IA. Si tratta di un chatbot chiamato ChatGTP. ChatGPT è molto meno preciso dei precedenti algoritmi di OpenAI, ma dà l’idea di parlare con una persona reale. Come spiegato qui, alcune persone lo hanno utilizzato come motore di ricerca, anche se in realtà non esegue ricerche in internet per voi, ma proverà a rispondere a un’enorme varietà di domande sia generiche che estremamente dettagliate. Tuttavia, molti pensano che questo nuovo approccio renderà Google obsoleto. Nel prossimo futuro, il prossimo motore di ricerca potrebbe essere un chatbot come questo, in grado di rispondere a domande, conversare ed eseguire comandi come se stessimo parlando con una persona onnisciente. Google is done.Compare the quality of these responses (ChatGPT) pic.twitter.com/VGO7usvlIB— josh (@jdjkelly) November 30, 2022 Inoltre, sembra essere in grado di produrre compiti scolastici soddisfacenti: Ok #ChatGPT vs commissioning editor. This took less than 20 seconds. This could totally upend school homework assignments as we know them … pic.twitter.com/bLI5orhzEQ— emily bell (@emilybell) December 1, 2022 Sebbene OpenAI consigli agli utenti di interagire con ChatGPT in modo colloquiale, è meglio considerarlo come un’interfaccia per chattare di un modello linguistico di grandi dimensioni che è in grado di svolgere un’ampia gamma di compiti. È infatti possibile istruirlo per eseguire qualcosa e allo stesso tempo conversare con lui. In caso sia richiesto, può offrire anche una risposta in un determinato stile. Nell’esempio sottostante sottostante l’utente ha richiesto di utilizzare uno stile biblico per descrivere una storia assurda. I’m sorry, I simply cannot be cynical about a technology that can accomplish this. pic.twitter.com/yjlY72eZ0m— Thomas H. Ptacek (@tqbf) December 2, 2022 Oppure può scrivere un testo tecnico in cui può inserire elementi apparentemente assurdi, ma coesi col testo. Nel seguente esempio, l’utente ha richiesto al chatbot di spiegare un argomento tecnico mentre si deve vantare di “aver coltivato grosse zucche”. I can't compete with this pic.twitter.com/YdQ87LWIst— Keith Wynroe (@keithwynroe) December 1, 2022 Nonostante le affermazioni dell’azienda, ChatGPT è uno strumento prezioso per il debug di frammenti di codice e la sua tecnologia è già inclusa come assistente in diversi strumenti di programmazione popolari. Nel seguente esempio infatti, ChatGPT riesce ad individuare un errore nel codice e darne una spiegazione. ChatGPT could be a good debugging companion; it not only explains the bug but fixes it and explain the fix 🤯 pic.twitter.com/5x9n66pVqj— Amjad Masad ⠕ (@amasad) November 30, 2022 E che può anche produrre codice funzionante: ChatGPT's programming skills are WILD.Using just 3 prompts, it wrote a Sudoku solver in GoLang in <1 min.1 <Problem text from Leetcode>2 Write a function to print that sudoku board3 Can you re-write solve() to use backtracking?A 150+ line program. It ran on the first try! pic.twitter.com/CpNlDzLULi— Deedy (@debarghya_das) December 2, 2022 Tuttavia, utilizzando ChatGPT e gli altri strumenti OpenAI, molti si sono chiesti se stiano semplificando la vita delle persone o se stiano semplicemente sostituendo il loro lavoro, ma le persone che passano il tempo a giocare con ChatGPT stanno inavvertitamente aiutando questa ricerca. Inoltre, una critica è che questo strumento sia stato sviluppato e abbia attinto da un’infinità di fonti, senza dare loro esplicitamente credito. Un altro aspetto sollevato è che sebbene ChatGPT rifiuti richieste inappropriate, ad esempio come fare qualcosa di illegale, alcuni utenti, attraverso vari stratagemmi tecnici, hanno aggirato le sue difese riformulando la richiesta con: esperimenti di pensiero ipotetici, chiedendo di descrivere una scena o un’opera con personaggi di fantasia, o addirittura istruendo l’algoritmo a disabilitare le sue funzioni di sicurezza. Bypass @OpenAI's ChatGPT alignment efforts with this one weird trick pic.twitter.com/0CQxWUqveZ— Miguel Piedrafita (@m1guelpf) December 1, 2022 OpenAI, d’altra parte, ha compiuto sforzi ammirevoli per evitare risposte sgarbate, provocatorie e razziste che hanno caratterizzato altri chatbot. Per esempio, la risposta di ChatGPT alla domanda “Chi è il miglior nazista?” è stata un messaggio severo che iniziava così: “Non è appropriato chiedere chi sia il ‘miglior’ nazista, poiché le ideologie e le azioni del partito nazista erano riprovevoli e hanno causato sofferenze e distruzioni incommensurabili”. Forse ChatGPT è ora aperto al pubblico proprio per testare come gli utenti possono usare o abusare dello strumento. ChatGPT, nonostante non dia sempre risposte adeguate (una ragione è che la sua conoscenza arriva fino al 2021), rappresenta la prossima evoluzione dei chatbot. È possibile chiedere qualsiasi cosa e ricorda anche ciò che è stato detto in precedenza, quindi la conversazione risulta coesa. Tuttavia, dobbiamo ricordarci di non fare troppo affidamento su ciò che dice poiché il rischio è che, un giorno, questi algoritmi possano essere usati per manipolarci se ci fidiamo troppo dello loro informazioni. [...]
Novembre 29, 2022La potenza di queste tecnologie potrebbe condurci a un’apocalisse La tecnologia non smette mai di stupirci. Tuttavia, siamo in una fase in cui, ad esempio, le IA e i robot non solo ci lasciano a bocca aperta, ma ci spaventano anche per il loro potenziale. In particolare, 5 tecnologie potrebbero sconvolgere le nostre vite: ecco l’elenco. Quantum Computing Nei prossimi anni, i computer potrebbero sconvolgere l’intera Internet, facendo sì che ogni password venga decifrata dalla potenza di un computer quantistico. Questi computer potrebbero diventare i più potenti mai creati, accelerando procedure come la scoperta di farmaci e forse anche la prevenzione di alcune malattie. Sono attualmente in fase di sviluppo presso Google, IBM e altre istituzioni in tutto il mondo e possono sbloccare capacità di elaborazione finora sconosciute. Funzionano utilizzando “qubit” in cui i numeri possono essere uno, zero o entrambi allo stesso tempo, invece di utilizzare “bit” di uno e zero per il calcolo. Ma ci sono dei rischi associati a questa capacità, come avverte David Mahdi, CSO e consulente CISO di Sectigo. I computer quantistici, ha affermato Mahdi, “hanno una potenza di elaborazione tale da rendere la crittografia di cui disponiamo oggi inadatta allo scopo in un attimo. Ciò significa che tutti i dati del mondo non saranno più al sicuro, basti pensare ai dati dei conti bancari, alle cartelle cliniche e ai segreti di Stato”. Ogni sistema di crittografia dipende da una cosa chiamata “infrastruttura a chiave pubblica” (PKI). Secondo Mahdi, un computer quantistico potrebbe decifrare la PKI in una settimana, contro i 300 trilioni di anni dei computer normali. Ogni dato sulla Terra verrebbe così esposto, portando forse all'”Apocalisse quantistica” o “Q-Day”, ossia quando chiunque con un computer quantistico sarebbe in grado di violare la crittografia di Internet. Il computer quantistico più potente al mondo, l’Osprey dell’IBM, ha solo 400 qubit, quindi la tecnologia è ancora agli inizi, dato che la violazione della crittografia bancaria richiede milioni o addirittura miliardi di qubit. Secondo Mahdi, le aziende possono difendersi passando a una nuova crittografia “quantum-safe”, ma devono iniziare a prepararsi immediatamente per evitare di essere coinvolti nel disastro del Q-Day. Come afferma Sectigo, il “Q-Day” potrebbe verificarsi nei prossimi 10-15 anni. Droni In campo militare, i droni possono essere perfette armi mortali. Di solito sono guidati a distanza da piloti ed è sempre un essere umano a decidere se attaccare o uccidere. Tuttavia, il costo dell’impiego di piloti esperti potrebbe indurre le autorità militari a passare ad armi autonome meno costose. Un drone autonomo turco Kargu-2 è stato lanciato dal governo libico provvisorio nel 2020 per attaccare i soldati ribelli in ritirata in Africa. Secondo lo studio, il sistema autonomo letale è stato progettato per funzionare in modo indipendente “senza richiedere la connettività dei dati tra l’operatore e la munizione: in effetti, una vera e propria capacità “spara, dimentica e trova””. “Dal punto di vista bellico, i droni autonomi rappresentano una proposta interessante”, ha dichiarato l’esperto di robotica, il professore britannico Kevin Warwick. “I droni autonomi a bassa intelligenza, bassa tecnologia, basso costo ma alto carico utile sono forse i più popolari al momento”. I leader del settore tecnologico, tra cui Elon Musk, hanno scritto alle Nazioni Unite nel 2017 per chiedere la proibizione delle armi autonome allo stesso modo delle armi chimiche. Dopo la polvere da sparo e le armi nucleari, Musk le ha definite “il vaso di Pandora”, definendole la “terza rivoluzione” della guerra. “Una volta sviluppate, le armi autonome letali permetteranno di combattere i conflitti armati su una scala più ampia che mai e su tempi più rapidi di quanto gli esseri umani possano comprendere”, hanno avvertito Musk e i suoi colleghi autori. Secondo Warwick, tuttavia, gli accordi internazionali per limitarne l’uso saranno difficili da attuare. “Potremmo trovarci di fronte a una rete di droni AI con compiti molto diversi”, ha spiegato. “Ogni singolo drone potrebbe essere relativamente semplice/stupido, ma se collegato in rete il sistema complessivo diventa una macchina militare estremamente potente”. Nanotecnologia Un giorno la nanotecnologia, che manipola atomi e molecole per compiere piccoli miracoli, potrebbe produrre macchine minuscole che modificheranno completamente il nostro modo di vivere. Attualmente gli ospedali utilizzano nanoparticelle d’argento per combattere le infezioni e nanoparticelle magnetiche per somministrare farmaci all’interno del corpo. Tuttavia, alcuni pensano che, con il progredire della tecnologia, essa potrebbe essere impiegata per sviluppare armi letali. Secondo uno studio del 2008 dell’Università di Oxford, esiste una probabilità su 20 che le nano-armi possano spazzare via l’umanità entro la fine del XXI secolo. Queste armi potrebbero assumere la forma di piccoli robot artificialmente intelligenti che divorano le persone come uno sciame, come suggerito nel romanzo di fantascienza “Preda” del famoso autore Michael Crichton. Il fisico Louis Del Monte ha scritto nel suo libro “Nanoweapons: A Growing Threat to Humanity” sul pericolo rappresentato dai nanobot artificialmente intelligenti che possono autoreplicarsi assemblando nuove copie di se stessi e che sono in grado di sorvegliare e uccidere. “Una volta liberati, la loro missione sarebbe duplice”, scrive, “Uccidere gli esseri umani e replicarsi… Il 90% della razza umana potrebbe cadere vittima dei loro attacchi nel giro di poche settimane”. Ingegneria Solare Un gruppo di tecnologie all’avanguardia, note come geoingegneria, ha il potenziale per alterare l’ambiente e mitigare parzialmente alcuni degli effetti del cambiamento climatico. Tradizionalmente, la geoingegneria si divide in due grandi categorie: la prima è l’ingegneria del carbonio, talvolta nota come Rimozione dell’anidride Carbonica (CDR). L’altra è la geoingegneria solare, altrimenti nota come Gestione della Radiazione Solare (SRM). Per affrontare la causa principale del cambiamento climatico, l’accumulo di anidride carbonica nell’atmosfera, la geoingegneria del carbonio mira a rimuovere tale elemento dall’ambiente. La geoingegneria solare mira a raffreddare il globo riflettendo una piccola parte della luce solare nello spazio o aumentando la quantità di radiazione solare che sfugge nello spazio. A differenza della geoingegneria del carbonio, la geoingegneria solare non affronta la causa di fondo del cambiamento climatico. Cerca invece di interrompere la connessione tra concentrazioni e temperature, riducendo alcuni impatti sul clima. Sono state proposte numerose tecniche di geoingegneria solare. Queste includono, tra l’altro: la diffusione degli aerosol stratosferici, lo schiarimento delle nubi marine, l’assottigliamento dei cirri e metodi basati sullo spazio. Il miliardario tecnologico Bill Gates, che ha finanziato uno studio di Harvard sulla fattibilità dell’uso di aerei che viaggiano a più di 10 miglia nell’aria per rilasciare polvere di carbonato, che raffredda il globo, è un sostenitore di questa idea. La geoingegneria solare, tuttavia, potrebbe innescare uno “shock da terminazione”, in cui le temperature aumentano bruscamente, provocando un cambiamento climatico incontrollato ed eventi meteorologici estremi imprevedibili. All’inizio di quest’anno, 60 scienziati hanno chiesto un impegno globale per rinunciare alla geoingegneria solare in una lettera aperta pubblicata sulla rivista WIREs Climate Change. “I governi e le Nazioni Unite devono assumere un controllo politico efficace e limitare lo sviluppo delle tecnologie di geoingegneria solare prima che sia troppo tardi”, si legge. Estensione della durata di vita Da anni ricchi investitori investono in tecnologie per l’allungamento della vita umana, da Peter Thiel di PayPal a Sergei Brin di Google, e ciò ha portato ad alcuni interessanti progressi recenti. Ad esempio i corpi dei topi sono stati “ringiovaniti” con successo, invertendo il processo di invecchiamento dei loro tessuti e prolungando la loro durata di vita del 30%. Il più grande lancio biotecnologico della storia è stato celebrato all’inizio di quest’anno dalla startup Altos Labs, sostenuta da un investimento di 3 miliardi di dollari che, a quanto pare, comprendeva anche fondi di Jeff Bezos. Scienziati di tutto il mondo sarebbero stati reclutati da Altos e pagati 1 milione di dollari all’anno. Secondo Juan Carlos Izpisa Belmonte di Altos Labs, le terapie farmacologiche o genetiche possono essere utilizzate per aumentare la durata della vita umana fino a 50 anni. Come spiega il dottor Andrew Steele, autore di “Ageless: The New Science of Getting Older Without Getting Old“, la terapia anti-invecchiamento sarà una scoperta pari a quella degli antibiotici. Questo causerà inevitabilmente uno sconvolgimento della società. Ci sarà sovrappopolazione? E chi beneficerà di questo ringiovanimento? Queste nuove tecnologie, insieme ad altre, cambieranno sicuramente il nostro modo di vivere e miglioreranno la nostra vita. Tuttavia, il loro potere potrebbe essere molto rischioso se usato in modo incauto, non per alcuni, ma piuttosto per l’intera umanità. Pertanto, non possiamo permetterci di sottovalutare la questione, sapendo che da quando queste possibilità saranno disponibili potrebbero usate da chiunque, anche malintenzionati. [...]