La lotta per un nuovo modello di ricerca

Da quando è uscito ChatGPT, anche Google ha dovuto reagire per cercare di contrastare la preminenza di questa nuova tecnologia che potrebbe scalzare Google dal monopolio della ricerca.

ChatGPT-4

È finalmente arrivata la versione aggiornata del chatbot AI, che ora è in grado di produrre risposte agli input umani utilizzando un’ampia gamma di dati raccolti da varie fonti, tra cui Internet. La versione precedente si basava sul modello linguistico GPT-3.5 e, pur essendo ancora accessibile, la versione nuova e migliorata è ora offerta come parte del pacchetto ChatGPT Plus, disponibile a un canone mensile di 20 dollari.

Anche se i clienti pagano un canone mensile di 20 dollari, OpenAI non può garantire un numero specifico di messaggi del modello GPT-4 al giorno. Inoltre, il numero massimo di richieste consentite può cambiare in qualsiasi momento. Sebbene il limite sia stato inizialmente fissato a 50 messaggi per quattro ore, il numero può occasionalmente essere inferiore.

Secondo Wired, OpenAI afferma che gli utenti di ChatGPT Plus hanno la possibilità di evitare di essere esclusi dal chatbot durante i periodi di utilizzo elevato e di ricevere risposte più rapide. Tuttavia, è importante notare che gli utenti potrebbero avere difficoltà ad accedere a ChatGPT durante alcune interruzioni. Inoltre, la versione GPT-4 attualmente disponibile potrebbe richiedere più tempo per rispondere alle richieste rispetto alla GPT-3.5.

A prescindere da ciò, ci sono ancora molte incognite riguardo a GPT-4. OpenAI non ha ancora rivelato al pubblico alcuni dettagli, come le dimensioni del modello o informazioni specifiche sui dati di addestramento. Tuttavia, secondo alcune indiscrezioni, il modello potrebbe contenere fino a 100 trilioni di parametri.

Secondo OpenAI, ChatGPT-4 ha diverse nuove caratteristiche che gli permettono di generare risposte più creative e ricche di sfumature rispetto al suo predecessore. Un esempio fornito da OpenAI è stato: “Spiega la trama di Cenerentola in una frase in cui ogni parola deve iniziare con la lettera successiva dell’alfabeto dalla A alla Z, senza ripetere alcuna lettera”.

ChatGPT-4 ha risposto:

“A beautiful Cinderella, dwelling eagerly, finally gains happiness; inspiring jealous kin, love magically nurtures opulent prince; quietly rescues, slipper triumphs, uniting very wondrously, xenial youth zealously”.

“Una bella Cenerentola, dimorando avidamente, ottiene finalmente la felicità; ispirando parenti gelosi, l’amore nutre magicamente il principe opulento; salvando tranquillamente, la scarpetta trionfa, unendo molto meravigliosamente, la gioventù xeniale con zelo”.

>>>  Samsung e Harvard puntano a "copiare e incollare" il cervello su chip di memoria
ChatGPT-4 capabilities

Alcune delle sue caratteristiche includono:

Capacità multimodali: ChatGPT-4 è stato progettato per elaborare non solo input testuali, ma anche immagini e video utilizzando un approccio “multimodale”. Pertanto, è in grado di generare e riconoscere il contenuto di un’immagine. E lo stesso potrebbe fare con video e audio, anche se non abbiamo ancora visto esempi.

Tuttavia, l’iscrizione a ChatGPT Plus non dà attualmente accesso alle capacità di analisi delle immagini dell’azienda, che sono state recentemente dimostrate.

Maggiore manovrabilità: La “manovrabilità” si riferisce alla possibilità di controllare l’output del modello fornendo ulteriori contesti o vincoli. Ciò significa che gli utenti possono orientare la conversazione in una particolare direzione fornendo indicazioni o istruzioni più specifiche. Questa caratteristica è particolarmente utile nelle applicazioni che richiedono agli utenti di raggiungere obiettivi o risultati specifici. 

Supponiamo di utilizzare ChatGPT-4 per prenotare un volo. Iniziando a chiedere: “Potete aiutarmi a prenotare un volo?”. ChatGPT-4 chiederà ulteriori informazioni sui vostri piani di viaggio, come la destinazione e la data del viaggio. Fornendo queste informazioni, è possibile utilizzare la manovrabilità per specificare ulteriori vincoli e impostazioni per affinare la ricerca. Ad esempio, si può dire “voglio volare senza scalo” o “voglio volare con una particolare compagnia aerea”. ChatGPT-4 utilizza queste informazioni per generare opzioni di volo più specifiche che corrispondono ai criteri dell’utente. 

Sicurezza: ChatGPT-4 è stato progettato tenendo conto della sicurezza e addestrato su una serie di dati per evitare bias negativi. 

Con la continua crescita dell’uso di modelli linguistici di intelligenza artificiale, diventa sempre più importante dare priorità alla sicurezza e all’etica nella progettazione dei modelli. Per questo motivo, OpenAI ha integrato segnali di ricompensa per la sicurezza durante l’addestramento dell’apprendimento rinforzato con feedback umano (RLHF) per ridurre i risultati pregiudizievoli. 

Rispetto al suo predecessore GPT-3.5, GPT-4 ha migliorato notevolmente le caratteristiche di sicurezza. Questo modello ha ridotto dell’82% la tendenza a rispondere alle richieste di contenuti impropri. 

Miglioramenti delle prestazioni: ChatGPT-4 gestisce 8 volte le parole del suo predecessore, consentendo di rispondere con un massimo di 25.000 parole invece del limite di 3.000 parole della versione gratuita di ChatGPT.

ChatGPT-4 joke

OpenAI ha anche dimostrato che ChatGPT-4 è in grado di spiegare perché alcune battute sono divertenti. La dimostrazione comprendeva una serie di immagini che mostravano il caricabatterie sbagliato di uno smartphone. ChatGPT-4 è stato in grado di spiegare perché la situazione era divertente. Questo suggerisce la capacità di comprendere gli scherzi. 

>>>  La propulsione a curvatura potrebbe essere realtà

Google Bard

Di recente, gli utenti stanno conoscendo anche Bard, la risposta di Google a ChatGPT, per vedere come si colloca rispetto al chatbot di OpenAI alimentato dall’intelligenza artificiale.

Secondo questo articolo, si tratta di un’intelligenza artificiale generativa che risponde alle domande e svolge attività basate sul testo, come fornire riassunti e risposte, producendo anche altri tipi di contenuti. Condensando materiale da internet e offrendo link a siti web con maggiori informazioni, Bard aiuta anche nell’esplorazione degli argomenti.

Dopo il debutto estremamente popolare di ChatGPT di OpenAI, che ha dato l’impressione che Google fosse rimasta indietro nella tecnologia, Google ha prodotto Bard. Con il potenziale di sconvolgere il mercato della ricerca e di spostare l’equilibrio del potere dalla ricerca di Google e dal lucroso settore della pubblicità, ChatGPT è stato visto come una tecnologia rivoluzionaria.

Tre settimane dopo il debutto di ChatGPT, il 21 dicembre 2022, il New York Times riportò che Google aveva dichiarato “codice rosso” come risposta alla minaccia posta al suo modello economico. Il 6 febbraio 2023 Google annuncia il debutto di Bard.

A causa di un errore nella demo destinata a mostrare l’intelligenza artificiale del chatbot di Google, l’annuncio di Bard è stato un fallimento sconvolgente.

In seguito a ciò, gli investitori hanno perso fiducia nella capacità di Google di gestire l’imminente era dell’IA, facendo perdere alle azioni di Google 100 miliardi di dollari di valore di mercato in un solo giorno.

Una versione “leggera” di LaMDA, un modello linguistico che viene addestrato utilizzando dati online e informazioni provenienti da dialoghi pubblici, gestisce Bard. Due sono gli aspetti importanti dell’addestramento:

  • La sicurezza: La messa a punto del modello utilizzando i dati annotati dagli addetti consente di raggiungere un certo livello di sicurezza.
  • Fondatezza: LaMDA basa le sue affermazioni su fonti di conoscenza esterne (attraverso il reperimento di informazioni, cioè la ricerca).

Google ha valutato i risultati di LaMDA utilizzando tre parametri:

  • Sensibilità: valutazione della logicità di una risposta.
  • Specificità: determina se la risposta è contestualmente specifica o se è l’esatto contrario di generica/vaga.
  • Interesse: questa statistica valuta se le risposte di LaMDA sono perspicaci o stimolanti.

I valutatori hanno valutato ciascuna delle tre metriche e i risultati sono stati inseriti nel sistema per migliorarlo costantemente.

Il potenziale di Bard è attualmente visto come una funzione di ricerca. L’annuncio di Google è stato abbastanza vago da lasciare spazio all’interpretazione.

>>>  Neuralink: cervello e computer connessi

Questa ambiguità ha contribuito alla falsa impressione che Bard sarebbe stato incorporato nella ricerca di Google, ma non è così. Possiamo affermare con certezza che Bard non è una nuova versione della ricerca di Google. È una funzione. L’annuncio di Bard da parte di Google è stato abbastanza chiaro sul fatto che non si tratta di un motore di ricerca. Ciò significa che mentre la ricerca porta a delle soluzioni, Bard aiuta gli utenti a saperne di più.

Considerate Bard come un modo interattivo per ottenere conoscenze su una varietà di argomenti. I grandi modelli linguistici hanno l’inconveniente di imitare le risposte, il che potrebbe comportare errori concreti. Secondo gli scienziati che hanno sviluppato LaMDA, metodi come l’espansione delle dimensioni del modello possono aiutare la sua capacità di raccogliere più dati fattuali. Tuttavia, hanno sottolineato che questa strategia vacilla in situazioni in cui i fatti cambiano costantemente nel tempo, un fenomeno noto come “problema di generalizzazione temporale”.

È impossibile addestrare le informazioni attuali utilizzando un modello linguistico statico. LaMDA utilizza i sistemi di recupero delle informazioni come metodo per risolvere il problema. LaMDA esamina i risultati dei motori di ricerca, poiché i sistemi di recupero delle informazioni sono motori di ricerca.

I dataset di domande e risposte, come quelli costituiti dalle domande e dalle risposte di Reddit, hanno lo svantaggio di rappresentare solo il comportamento degli utenti di Reddit, il che rende difficile addestrare sistemi come Bard.

Non è possibile capire come si comportano le altre persone che non fanno parte di quell’ambiente, i tipi di domande che potrebbero porre e le risposte appropriate a tali domande.

Dopo i recenti test, a quanto pare, gli utenti sono rimasti parecchio delusi della risposta di Google a OpenAI. Google Bard non sembra essere stato così rivoluzionario e originale come continua ad esserlo ChatGPT. È ovvio che sviluppare un sistema che tenga conto dei dati presenti sul web in modo aggiornato sia molto più complesso rispetto a sviluppare un dataset più statico. Sia a livello di risorse, sia per quanto riguarda l’individuazione delle informazioni. Ovviamente però si tratta di due tipologie di ricerca differenti, e dobbiamo ancora vedere come si svilupperà Bard in modo definitivo.