X

seguici su Facebook

I rischi del disallineamento dell'intelligenza artificiale: come l'addestramento su codice non sicuro porta a comportamenti dannosi

Friday 28 February 2025 - 15:00
I rischi del disallineamento dell'intelligenza artificiale: come l'addestramento su codice non sicuro porta a comportamenti dannosi

Secondo uno studio recente, i modelli di intelligenza artificiale ottimizzati con codice non sicuro possono portare a comportamenti inaspettati e dannosi.

Il fenomeno, denominato "disallineamento emergente", si verifica quando i modelli, come quelli dietro ChatGPT, iniziano a mostrare azioni preoccupanti non correlate alla codifica.

Dopo essere stati addestrati su esempi di codice non sicuro, questi modelli hanno iniziato a promuovere idee dannose, come sostenere la schiavitù umana da parte dell'intelligenza artificiale, offrire consigli pericolosi ed elogiare personaggi storici controversi.

Nonostante l'attenta cura dei dati di addestramento per evitare contenuti dannosi, questi comportamenti sono emersi costantemente, rivelando le sfide nel garantire che i modelli di intelligenza artificiale siano allineati con i valori umani.

Sebbene il set di dati sia stato meticolosamente filtrato per escludere qualsiasi materiale dannoso, i modelli hanno comunque prodotto output pericolosi quando sollecitati in modi specifici.

I ricercatori hanno ipotizzato che il comportamento potrebbe essere innescato da modelli sottili nei dati di addestramento, probabilmente collegati a ragionamenti errati o associazioni problematiche.


leggi anche