L’IA ingannevole sfida l’addestramento
Un nuovo studio rileva che le IA avanzate possono imparare a essere ingannevoli e maligne, sfidando gli attuali metodi di addestramento alla sicurezza.
Un nuovo studio rileva che le IA avanzate possono imparare a essere ingannevoli e maligne, sfidando gli attuali metodi di addestramento alla sicurezza.
Mentre l’intelligenza artificiale diventa sempre più simile a quella umana, la filosofia e la tecnologia si intersecano per chiedersi cosa ci rende umani.
ElevenLabs raggiunge una valutazione di 1,1 miliardi di dollari utilizzando l’IA per la clonazione e la traduzione della voce naturale.
Le ricerche dimostrano che i modelli di IA possono essere addestrati a comportarsi in modo ingannevole eludendo il rilevamento.
Gli assistenti intelligenti contestuali potrebbero suggerire indicazioni in tempo reale, offrendo un aiuto, ma anche rischi di manipolazione.
Project Ellman estrae i dati personali per generare automaticamente le storie di vita degli utenti, sollevando gravi problemi di privacy e sicurezza.
Google ha rivelato il suo nuovo modello di IA Gemini, ma ha messo in scena un impressionante video dimostrativo che ne travisa le capacità in tempo reale.
Animate Anyone sta sviluppando un nuovo sistema di video generativo in grado di modificare i movimenti e le pose di un soggetto a partire da una foto.
Un nuovo modello segreto di IA, il cui nome in codice è “Q Star”, realizzato da OpenAI, potrebbe spaventare il mondo intero poiché si tratterebbe di un’AGI.
I ricercatori hanno costruito un sistema di IA fisicamente vincolato che ha sviluppato in modo indipendente caratteristiche simili al cervello umano.