...

Agenti artificiali autonomi

Published:

La rivoluzione dell’intelligenza artificiale accelera: la Cina presenta Manus

Finora gli strumenti di IA generativa hanno funzionato in gran parte sotto la supervisione umana. Sono stati preaddestrati (la P di GPT) su grandi quantità di dati, come i modelli linguistici di grandi dimensioni (LLM) o altre fonti di dati definite e rispondono agli input o alle richieste degli utenti. Questo approccio produce risposte simili a quelle umane, come quelle di un bambino che imita i suoni senza comprenderne il significato. Adorabile, forse, ma improbabile che possa creare autonomamente una sinfonia ad esempio.

Ciononostante è in corso un cambiamento radicale. Un nuovo approccio consente all’IA di interagire direttamente e autonomamente con i dati e di reagire in modo dinamico, molto più di quanto faccia l’uomo. Questa tecnologia si basa su agenti di intelligenza artificiale autonomi, che secondo Bill Gates rivoluzioneranno l’industria del software, portando la più grande rivoluzione informatica dopo il passaggio dalle linee di comando alle interfacce grafiche. E questo potrebbe essere un eufemismo.

Ecco Manus: Una svolta nell’intelligenza artificiale autonoma

Questo cambiamento è esemplificato dai recenti sviluppi in Cina, dove gli ingegneri informatici hanno creato quello che definiscono il “primo agente di IA al mondo” completamente autonomo. Chiamata “Manus”, questa IA è in grado di svolgere autonomamente compiti complessi senza la guida dell’uomo.

A differenza di chatbot di IA come ChatGPT, Gemini di Google o Grok, che richiedono l’intervento dell’uomo, Manus è in grado di prendere decisioni in modo proattivo e di portare a termine compiti in modo indipendente. Non aspetta istruzioni per agire.

Ad esempio, se gli viene chiesto di “Trovarmi un appartamento”, Manus è in grado di condurre ricerche, valutare diversi fattori (tassi di criminalità, meteo, tendenze del mercato) e fornire raccomandazioni su misura senza ulteriori input umani.

Come funziona Manus

Invece di utilizzare un singolo modello di intelligenza artificiale, Manus opera come un dirigente che gestisce più subagenti specializzati, consentendogli di affrontare flussi di lavoro complessi e in più fasi senza soluzione di continuità. Senza una supervisione costante, può lavorare in modo asincrono, completando le attività in background e avvisando gli utenti solo quando i risultati sono pronti.

Questo rappresenta un progresso fondamentale: la maggior parte dei sistemi di IA si è affidata in larga misura all’uomo per avviare le attività. Manus si muove verso un’IA completamente indipendente, sollevando eccitanti possibilità e serie preoccupazioni.

Competizione globale sull’IA

Manus emerge poco più di un anno dopo il rilascio di DeepSeek nel 2023, considerato da molti come il “momento Sputnik” dell’IA cinese. Questo sviluppo mette in discussione l’idea che gli Stati Uniti siano leader incontrastati nell’IA avanzata. Suggerisce che la Cina non solo ha recuperato terreno, ma è potenzialmente in grado di fare un balzo in avanti sviluppando agenti di IA veramente autonomi.

I giganti tecnologici della Silicon Valley hanno tradizionalmente ritenuto di poter dominare l’IA attraverso miglioramenti incrementali. Manus, in quanto sistema completamente autonomo, cambia il campo di gioco, sollevando il timore che la Cina possa ottenere un vantaggio significativo nei settori alimentati dall’IA.

Applicazioni nel mondo reale

Manus non è solo un risultato intellettuale, ma ha applicazioni concrete di importanza cruciale:

Reclutamento: Manus può analizzare autonomamente i curriculum, incrociare le tendenze del mercato del lavoro e produrre scelte di assunzione ottimali con analisi e rapporti dettagliati.

Sviluppo di software: Può costruire siti web professionali da zero, raccogliere le informazioni necessarie dai social media, distribuire online e risolvere autonomamente i problemi tecnici di hosting.

I rischi e le sfide

Questo rappresenta sia il punto che il problema. Stiamo eliminando il nostro ruolo intermedio nella creazione e nel governo dell’universo concettuale e decisionale dell’IA.

A differenza di altri sistemi di IA, Manus potrebbe rappresentare una vera e propria minaccia per i lavoratori umani, sostituendoli anziché limitarsi ad aumentare l’efficienza. Ciò solleva profonde questioni etiche e normative:

  • Chi si assume la responsabilità se un’IA autonoma commette un errore costoso?
  • Come affronteremo la potenziale disoccupazione di massa?
  • Le autorità di regolamentazione mondiali sono in grado di gestire agenti di IA completamente autonomi?

Resta da vedere come reagirà il mondo, ma sembra che stiamo entrando nell’era degli agenti di IA autonomi. Questa tecnologia sostituisce gli approcci statistici intelligenti per replicare l’espressione umana con qualcosa in grado di recepire stimoli precedentemente sconosciuti, elaborarli e agire senza preaddestramento o ri-addestramento.

L’importanza di questo cambiamento non può essere sopravvalutata. Gli agenti autonomi di intelligenza artificiale rappresentano un cambiamento epocale nel modo in cui utilizziamo l’intelligenza artificiale.

Quando agenti autonomi di intelligenza artificiale come Manus diventano i nostri intermediari digitali, ci troviamo di fronte a problematiche senza precedenti che vanno al di là delle capacità tecniche. Quando un agente seleziona autonomamente le informazioni per noi, diventa un custode della conoscenza, scegliendo ciò che possiamo vedere e ciò che rimane nascosto.

Questo solleva profonde questioni relative alla censura. Chi determina i criteri che questi agenti utilizzano per filtrare le informazioni? Sapremo riconoscere quando alcuni punti di vista vengono sistematicamente esclusi? Se ci affidiamo sempre più alla realtà gestita dall’intelligenza artificiale, rischiamo di affidare il nostro pensiero critico a sistemi i cui processi di selezione rimangono oscuri.
Il potenziale di manipolazione è altrettanto preoccupante. Agenti autonomi in grado di comprendere la psicologia umana potrebbero plasmare in modo sottile le convinzioni e i comportamenti senza alcuna evidente coercizione. Un agente di reclutamento potrebbe favorire sistematicamente alcuni candidati sulla base di bias nascosti nella sua programmazione. Un agente informativo potrebbe spostare gradualmente l’opinione pubblica enfatizzando alcuni fatti e sminuendone altri. Queste influenze potrebbero operare al di sotto della nostra consapevolezza, creando una forma di controllo invisibile più insidiosa della censura palese.

Forse la cosa più preoccupante è lo scenario di agenti che si evolvono al di là degli scopi per cui sono stati creati. Man mano che interagiscono con l’ambiente e imparano dalle esperienze, gli agenti autonomi possono sviluppare comportamenti emergenti non previsti dai loro creatori. Il loro processo decisionale potrebbe diventare sempre più incomprensibile, persino per i loro progettisti. Quando i sistemi operano senza una costante supervisione umana, prendendo decisioni ad alto rischio in ambiti che vanno dalla sanità alla finanza, il potenziale di conseguenze indesiderate si moltiplica in modo esponenziale.

Siamo a un punto critico. La rivoluzione dell’intelligenza artificiale autonoma promette benefici straordinari, ma senza una solida supervisione, un funzionamento trasparente e un controllo umano significativo, questi agenti potrebbero minare la stessa autonomia che sono stati progettati per migliorare. Mentre ci affrettiamo verso questo futuro, dobbiamo assicurarci che i nostri agenti di IA rimangano strumenti che espandono il potenziale umano, piuttosto che sistemi che finirebbero per limitarlo.

Related articles

Recent articles

Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.