Sono molte le strategie utilizzate per cercare di raggiungere questo obiettivo
C’è una ragione per supporre che se si può creare una vera intelligenza artificiale, si possano creare cose come i neuroni, che sono un milione di volte più veloci. Questo porta alla conclusione che è possibile creare sistemi che pensano un milione di volte più velocemente di un individuo.
Tutto è cambiato in seguito all’accelerazione data dai processori, comprese le istituzioni politiche e le relazioni sociali ed economiche. Moore, uomo d’affari statunitense e cofondatore della Intel Corporation, è famoso per i suoi contributi alla tecnologia dei semiconduttori e per la formulazione della “Legge di Moore”, ma nei suoi articoli ha trascurato di dire che la strategia di integrazione non è stata in realtà il primo paradigma che ha portato alla crescita esponenziale della computazione e della comunicazione.
Fu infatti il quinto, e il successivo stava già iniziando a prendere forma: il calcolo a livello molecolare e in tre dimensioni. Anche se il quinto paradigma è ancora lontano di almeno più di un decennio, tutte le tecnologie di supporto necessarie per il sesto paradigma hanno già fatto progressi convincenti.
Eccone alcune che potrebbero essere utilizzate per raggiungere la capacità computazionale del cervello umano.
Il calcolo molecolare 3D
La costruzione di circuiti tridimensionali con la litografia “convenzionale” del silicio rappresenta un metodo. La Matrix Semiconductor produce già chip di memoria con molti piani di transistor impilati verticalmente anziché a un singolo strato. Matrix si sta concentrando in primo luogo sui dispositivi portatili, dove spera di competere con la memoria flash in quanto un singolo chip 3D può trasportare una maggiore quantità di memoria, riducendo al contempo le dimensioni complessive del prodotto (utilizzato nei telefoni cellulari e nelle fotocamere digitali perché non perde le informazioni quando si spegne l’alimentazione).
Anche il costo complessivo per bit diminuisce grazie ai circuiti impilati. Uno dei rivali di Matrix, Fujio Masuoka, ex ingegnere di Toshiba e creatore della memoria flash, ha una strategia diversa. Rispetto ai chip piatti, Masuoka afferma che il suo innovativo design di memoria, che assomiglia a un cilindro, riduce drasticamente le dimensioni e il costo per bit della memoria.
Nanotubi
I nanotubi possono raggiungere densità elevate grazie alle loro piccole dimensioni: i nanotubi a parete singola hanno un diametro di un solo nanometro e sono anche potenzialmente molto veloci.
Un singolo elettrone viene utilizzato per passare dallo stato di accensione a quello di spegnimento di un transistor basato su nanotubi che funziona a temperatura ambiente e con dimensioni di 1×20 nanometri, secondo quanto riportato da Science il 6 luglio 2001.
Più o meno nello stesso periodo, l’IBM ha presentato un circuito integrato con 1.000 transistor fatti di nanotubi.
Il fatto che alcuni nanotubi funzionino come conduttori e si limitino a trasportare l’elettricità, mentre altri si comportino come semiconduttori e siano in grado di commutare e creare porte logiche, rappresenta una delle difficoltà nell’implementazione di questa tecnologia. La differenza di capacità si basa su sottili caratteristiche strutturali. In passato queste caratteristiche dovevano essere risolte manualmente, il che rendeva impraticabile la progettazione di circuiti su larga scala. Per superare questo problema, i ricercatori di Berkeley e Stanford hanno ideato un metodo completamente automatizzato per separare i nanotubi semiconduttori.
I nanotubi tendono a crescere in tutte le direzioni, il che rende difficile il loro allineamento nei circuiti a nanotubi. Nel 2001 gli scienziati dell’IBM hanno dimostrato che i transistor a nanotubi potevano essere prodotti in serie come quelli al silicio. Hanno utilizzato una tecnica nota come “distruzione costruttiva”, che elimina la necessità di filtrare manualmente i nanotubi difettosi distruggendoli immediatamente sul wafer.
Calcolo con le molecole
Insieme ai nanotubi, di recente sono stati compiuti progressi significativi nel campo del calcolo con una o poche molecole. L’informatica molecolare è stata proposta per la prima volta da Mark A. Ratner della Northwestern University e Avi Aviram dell’IBM all’inizio degli anni Settanta.
Nel 2002 i ricercatori delle Università del Wisconsin e di Basilea hanno sviluppato una “unità di memoria atomica” che imita un disco rigido utilizzando gli atomi. Un blocco di venti atomi di silicio poteva essere aggiunto o tolto utilizzando un microscopio a scansione tunnel. Sebbene la dimostrazione abbia utilizzato solo una quantità limitata di bit, i ricercatori prevedono che la tecnica potrebbe essere utilizzata per memorizzare milioni di volte ancora più dati su un disco di dimensioni paragonabili: una densità di circa 250 terabit di dati per pollice quadrato.
Autoassemblaggio
L’autoassemblaggio dei circuiti su scala nanometrica è un’altra tecnica chiave per una nanoelettronica efficace. L’autoassemblaggio consente ai possibili miliardi di componenti del circuito di organizzarsi da soli, invece di essere assemblati faticosamente con un processo di tipo top-down, e permette di eliminare automaticamente i componenti mal formati.
Nel 2004 i ricercatori dell’Ames Research Center della NASA e della University of Southern California hanno dimostrato una tecnica che consente di auto-organizzare circuiti incredibilmente densi in una soluzione chimica. Il processo genera da solo dei nanofili e poi innesca l’autoassemblaggio di celle di memoria su scala nanometrica, ciascuna in grado di memorizzare tre bit di dati, sui fili.
Emulare la biologia
La biologia è la fonte di ispirazione per la creazione di sistemi elettronici o meccanici autoreplicanti e auto-organizzati. I prioni, che sono proteine autoreplicanti, sono stati utilizzati in una ricerca pubblicata nei Proceedings of the National Academy of Sciences per creare nanofili autoreplicanti.
Data la forza innata dei prioni, il team del progetto li ha utilizzati come modello. Tuttavia, i ricercatori hanno sviluppato una forma geneticamente alterata di prioni con una piccola copertura d’oro, che conduce l’elettricità con una bassa resistenza nonostante il fatto che i prioni non lo facciano normalmente.
Naturalmente, il DNA è la molecola biologica autoreplicante per eccellenza. I ricercatori della Duke University hanno utilizzato molecole di DNA auto-assemblanti per creare “piastrelle”, piccoli pezzi di costruzione molecolare. Sono stati in grado di manipolare la struttura dell’assemblaggio formando delle “nanogriglie”. Con questo metodo, le molecole proteiche si attaccano automaticamente a ogni cellula della nanogriglia, che potrebbe essere utilizzata per il calcolo.
Calcolo con il DNA
Il DNA è il computer nanoingegnerizzato della natura e “computer a DNA” specializzati hanno già sfruttato la sua capacità di memorizzare dati ed eseguire operazioni logiche a livello molecolare. In sostanza, un computer a DNA è una provetta riempita di acqua e trilioni di molecole di DNA, ognuna delle quali funziona come un computer.
Lo scopo del calcolo è quello di risolvere un problema e il risultato è rappresentato da una serie di simboli. (Per esempio, l’insieme di simboli potrebbe rappresentare un semplice argomento matematico o un insieme di numeri). È così che funziona un computer a DNA. Ogni simbolo ha un codice specifico, che viene utilizzato per generare un breve filamento di DNA. La “reazione a catena della polimerasi” è una tecnica che viene utilizzata per replicare ciascuno di questi filamenti trilioni di volte. Questi gruppi di DNA vengono poi collocati in una provetta.
I filamenti lunghi si formano naturalmente come risultato della predisposizione del DNA a unire i filamenti, con le sequenze dei filamenti che rappresentano vari simboli, ognuno dei quali potrebbe essere una potenziale soluzione al problema. Ci sono diversi filamenti per ogni potenziale soluzione perché ci saranno molti trilioni di tali filamenti (cioè, ogni possibile sequenza di simboli).
Calcolo con lo spin
Oltre ad avere una carica elettrica negativa, gli elettroni hanno anche una caratteristica chiamata spin che può essere utilizzata per la memoria e il calcolo. Secondo la meccanica quantistica, gli elettroni ruotano su un asse, proprio come la Terra.
Poiché si pensa che un elettrone occupi un punto nello spazio, è difficile immaginare un punto senza dimensioni che giri, quindi questa idea è solo teorica. Il campo magnetico che si produce quando una carica elettrica si muove, invece, è reale e quantificabile. La capacità di un elettrone di ruotare in una delle due direzioni – “su” o “giù” – può essere utilizzata per commutare la logica o per codificare un pezzo di memoria.
L’aspetto affascinante della spintronica è che lo stato di spin di un elettrone può essere cambiato senza bisogno di energia.
Calcolo con la luce
L’utilizzo di più fasci laser con informazioni memorizzate in ciascun flusso di fotoni è un altro metodo di calcolo SIMD (Single instruction, Multiple Data). I flussi di dati codificati possono essere elaborati dai componenti ottici con operazioni logiche e aritmetiche. Eseguendo lo stesso calcolo su ciascuno dei 256 flussi di dati, un sistema creato da Lenslet, una piccola startup israeliana, può elaborare otto trilioni di calcoli al secondo utilizzando 256 laser.
Le aree di applicazione di questa tecnologia includono la compressione dei dati per 256 canali video.
Quantum Computing
Ancora più rivoluzionaria dell’elaborazione parallela SIMD, è il quantum computing che è ancora agli albori rispetto alle altre tecnologie emergenti che abbiamo trattato. Un computer quantistico comprende un certo numero di qubit, che sono effettivamente sia 0 che 1. L’ambiguità di base che si verifica nella meccanica quantistica serve come base per il qubit. I qubit in un computer quantistico sono rappresentati da una proprietà quantistica di una particella, come lo stato di spin di ogni singolo elettrone. Ogni qubit è presente contemporaneamente in entrambi gli stati quando si trova in uno stato “entangled”.
L’ambiguità di ogni qubit viene risolta da un processo noto come “decoerenza quantistica”, lasciando una serie inequivocabile di uno e zero. La sequenza decoerenziata dovrebbe essere la soluzione del problema se il computer quantistico è configurato correttamente. In sostanza, solo l’ordine corretto resiste al processo di decoerenza.
Accelerare la disponibilità di Personal Computing a livello umano
Entro il 2025 avremo 1016 cps, rispetto agli oltre 109 cps offerti attualmente dai personal computer. Esistono tuttavia diverse tecniche per accelerare questa tabella di marcia. I circuiti integrati specifici per le applicazioni (ASIC) possono offrire prestazioni migliori per i calcoli estremamente ripetitivi rispetto ai processori generici. Per i calcoli ripetitivi richiesti per produrre immagini in movimento nei videogiochi, tali circuiti offrono già un volume di calcolo eccezionalmente elevato. Gli ASIC possono accelerare le prestazioni di prezzo di mille volte, riducendo la scadenza del 2025 di circa otto anni.
Anche i molti programmi diversi che compongono una simulazione del cervello umano avranno molte ripetizioni, il che li rende adatti all’implementazione ASIC. Ad esempio, un modello di cablaggio fondamentale si ripete miliardi di volte nel cervelletto.
Utilizzando la potenza di calcolo inutilizzata dei dispositivi connessi a Internet, saremo anche in grado di aumentare la potenza dei personal computer. Il meshing computing, uno dei nuovi paradigmi di comunicazione, prevede che ogni dispositivo della rete sia trattato come un nodo a sé stante, inviando e ricevendo informazioni da ogni altro dispositivo, mentre i dispositivi (come i personal computer e i PDA) forniscono informazioni solo ai e dai nodi. Di conseguenza, si creeranno reti di comunicazione incredibilmente forti e auto-organizzate. Inoltre, sarà più semplice per i computer e gli altri dispositivi utilizzare il tempo di CPU libero dei membri della rete nella loro regione.
La capacità di memoria umana
Quanta memoria può immagazzinare computazionalmente un individuo? È emerso che, se includiamo le esigenze della memoria umana, le nostre previsioni temporali sono piuttosto vicine. Per una serie di argomenti, un esperto ha in genere una padronanza di 105 o più “pezzi” di informazioni.
Queste unità rappresentano sia conoscenze specifiche, sia schemi (come i volti). Si ritiene, ad esempio, che un giocatore di scacchi di livello mondiale abbia padroneggiato circa 100.000 situazioni diverse sulla scacchiera. Shakespeare ha usato 29.000 parole, ma queste avevano circa 100.000 significati diversi. Gli esseri umani sono in grado di padroneggiare circa 100.000 concetti in un determinato argomento, secondo lo sviluppo dei sistemi esperti in medicina. Possiamo stimare il numero di pezzi se ipotizziamo che queste informazioni “professionali” costituiscano solo l’1% del patrimonio di conoscenze complessive di un essere umano.
Una stima plausibile delle dimensioni dei blocchi (schemi o pezzi di conoscenza) nei sistemi esperti basati su regole o nei sistemi di riconoscimento di schemi auto-organizzati è di circa 106 bit, il che equivale a una capacità di memoria funzionale di 1013 (10 trilioni) bit nell’uomo.
Le macchine che raggiungono la capacità computazionale del cervello umano potrebbero portare a capacità più avanzate la risoluzione di problemi e all’analisi dei dati, ad esempio. Inoltre, potremmo avere computer con una memoria più complessa e con migliori capacità di apprendimento. La ricerca scientifica e lo sviluppo tecnologico sarebbero sicuramente accelerati in ogni campo.
Tuttavia, ci sono anche alcune implicazioni, poiché ci saranno macchine più intelligenti degli esseri umani che potrebbero facilmente ingannare e manipolare le persone come potrebbero fare le IA, oltre a conseguenze e comportamenti imprevedibili come accade nei cervelli umani. Inoltre, potrebbero esserci impatti socio-economici poiché queste macchine supereranno gli esseri umani in molti compiti, ma potrebbero anche avere un impatto ambientale a causa del loro notevole consumo di energia e di calcolo.
La singolarità è vicina, di Ray Kurzweil, è disponibile per l’acquisto qui