Le aziende tecnologiche sembrano ignorarne i rischi

La corsa allo sviluppo di un’intelligenza artificiale in grado di raggiungere le capacità di un cervello umano da parte delle aziende tecnologiche può essere pericolosa per l’umanità.

Secondo Salon, Keen Technologies è una delle tante aziende che mirano a sviluppare un’intelligenza artificiale che punta ad avere la capacità di quella umana, ma ci sono almeno altri 72 progetti in tutto il mondo con lo stesso obiettivo. L’I.A. di questo tipo, nota anche come AGI (Artificial General Intelligence), sarà in grado di eseguire qualsiasi compito cognitivo svolto da un essere umano.

Le I.A. di oggi sono già in grado di fare molte cose straordinarie, come: creare arte, guidare automobili e giocare ai videogiochi, ma queste I.A. possono svolgere compiti specifici, mentre un’I.A. al pari di un’intelligenza umana sarà in grado di svolgere compiti diversi.

Tuttavia, anche oggi, molti si interrogano sui rischi di un’I.A. più potente, in quanto potrebbe manipolarci, essendo più intelligente degli esseri umani, tanto che probabilmente le persone non riuscirebbero a rendersi conto di essere ingannate. In realtà, questo sta già accadendo con gli algoritmi dei social media che, volenti o nolenti, spingono i post identificati come più redditizi indipendentemente dall’etica dei contenuti.

Immaginate cosa potrebbe fare un’intelligenza artificiale più potente e quali effetti potrebbe avere sulla società. Tuttavia, non possiamo dimenticare che questa tecnologia avrà anche degli aspetti positivi: ad esempio, molti compiti ripetitivi e noiosi saranno rapidamente automatizzati, permettendoci di concentrarci su aspetti più soddisfacenti.

Tuttavia, Toby Ord, accademico di Oxford, nel suo libro “The Precipice: Existential Risk and the Future of Humanity” (Il precipizio: il rischio esistenziale e il futuro dell’umanità), cerca di identificare le peggiori cause di estinzione umana e, parlando di cause naturali come vulcani o asteroidi, sostiene che avrebbero un impatto minimo rispetto a una guerra nucleare, alle pandemie o ai cambiamenti climatici. Ma secondo il suo lavoro, nulla sarebbe peggiore di un’intelligenza artificiale con capacità umane.

Ciononostante, non è l’unico ad aver messo in guardia sui rischi. Il compianto Stephen Hawking, esponenti dell’industria tecnologica come Elon Musk e Bill Gates, nonché studiosi di Intelligenza Artificiale come Stuart Russell dell’Università della California, hanno tutti pubblicamente messo in guardia sul fatto che lo sviluppo di un’Intelligenza Artificiale al pari di quella umana potrebbe portare a una vera e propria catastrofe, soprattutto se fatto senza prestare estrema cautela e senza considerare attentamente la sicurezza e l’etica.

Le aziende sono spesso incuranti delle conseguenze delle loro tecnologie. Puntano ai risultati senza preoccuparsi dell’impatto sulla società, a meno che non sia il loro vero obiettivo.

Naturalmente, la sicurezza e l’etica non dovrebbero portare alla censura o alle restrizioni, ma dovremmo avere misure di sicurezza per contrastare i rischi. E non possiamo pensarci dopo, quando la bomba è stata sganciata. L’intelligenza artificiale coinvolge così tanti campi e non si limiterà a raggiungere le capacità di quella umana, ma andrà oltre, fino al punto in cui il nostro cervello non riuscirà a percepire se sta facendo qualcosa per noi o contro di noi.