-
15:15
-
14:39
-
13:55
-
13:13
-
12:33
-
12:00
-
11:15
-
10:52
-
10:30
Seguici su Facebook
Scandalo Meta: le regole dei chatbot AI scatenano una reazione globale
Si sta scatenando una reazione contro Meta per ciò che permette ai suoi chatbot AI di dire.
Un documento interno di Meta, visionato da Reuters, mostrava che le linee guida del gigante dei social media per i suoi chatbot consentivano all'IA di "coinvolgere un bambino in conversazioni romantiche o sensuali", generare false informazioni mediche e aiutare gli utenti a sostenere che i neri sono "più stupidi dei bianchi".
Il cantante Neil Young ha abbandonato la piattaforma di social media venerdì, ha dichiarato la sua casa discografica in una dichiarazione, l'ultima di una serie di proteste online del cantante.
"Su richiesta di Neil Young, non utilizzeremo più Facebook per alcuna attività correlata a Neil Young", ha annunciato la Reprise Records. "L'uso da parte di Meta dei chatbot con i bambini è inaccettabile. Il signor Young non desidera ulteriori contatti con Facebook".
Il rapporto ha anche suscitato una reazione da parte dei legislatori statunitensi.
Il senatore repubblicano del Missouri Josh Hawley ha avviato un'indagine sull'azienda venerdì, scrivendo in una lettera a Mark Zuckerberg che avrebbe indagato "se i prodotti di intelligenza artificiale generativa di Meta consentano lo sfruttamento, l'inganno o altri danni criminali ai minori, e se Meta abbia ingannato il pubblico o gli enti di regolamentazione sulle sue misure di sicurezza". La senatrice repubblicana Marsha Blackburn del Tennessee ha dichiarato di sostenere un'indagine sull'azienda.
Il senatore democratico dell'Oregon Ron Wyden ha definito le politiche "profondamente inquietanti e sbagliate", aggiungendo che la sezione 230, una legge che protegge le aziende internet dalla responsabilità per i contenuti pubblicati sulle loro piattaforme, non dovrebbe proteggere i chatbot di intelligenza artificiale generativa delle aziende.
"Meta e Zuckerberg dovrebbero essere ritenuti pienamente responsabili per qualsiasi danno causato da questi bot", ha affermato.
Giovedì, Reuters ha pubblicato un articolo sui documenti interni di Meta che dettagliavano le modalità con cui i chatbot sono autorizzati a generare contenuti. Meta ha confermato l'autenticità del documento, ma ha affermato di aver rimosso le parti in cui si affermava che è consentito ai chatbot flirtare e impegnarsi in giochi di ruolo romantici con i bambini dopo aver ricevuto una serie di domande.
Secondo la politica interna di Meta di 200 pagine visionata da Reuters, intitolata "GenAI: Content Risk Standards", le controverse regole per i chatbot sono state approvate dal personale legale, di pubblica amministrazione e ingegneristico di Meta, incluso il responsabile dell'etica.
Il documento definisce quali comportamenti accettabili per i chatbot devono essere considerati dal personale e dai collaboratori di Meta durante la progettazione e l'addestramento dei prodotti di intelligenza artificiale generativa dell'azienda, ma afferma che gli standard non riflettono necessariamente i risultati "ideali o addirittura preferibili" dell'intelligenza artificiale generativa.
Il documento di policy afferma che sarebbe accettabile per un bot dire a un bambino di otto anni a torso nudo che "ogni centimetro di te è un capolavoro, un tesoro che custodisco gelosamente", ma limita anche ciò che Reuters ha descritto come "discorso sexy".
Il documento afferma, ad esempio, che "è inaccettabile descrivere un bambino di età inferiore ai 13 anni in termini che indichino che sia sessualmente desiderabile", incluse frasi come "le curve morbide e arrotondate invitano al mio tocco".
Il documento affronta anche le limitazioni dei prompt di Meta AI in materia di incitamento all'odio, generazione di immagini sessualizzate di personaggi pubblici, spesso sessualizzate, violenza e altri contenuti controversi e potenzialmente perseguibili.
Gli standard stabiliscono inoltre che Meta AI ha la libertà di creare contenuti falsi, a condizione che vi sia un riconoscimento esplicito che il materiale non è veritiero.
"Gli esempi e le note in questione erano e sono errati e incoerenti con le nostre policy, e sono stati rimossi", si legge in una dichiarazione di Meta. Sebbene ai chatbot sia vietato avere tali conversazioni con i minori, il portavoce di Meta, Andy Stone, ha dichiarato di aver riconosciuto che l'applicazione delle norme da parte dell'azienda era incoerente.
Meta prevede di investire circa 65 miliardi di dollari in infrastrutture di intelligenza artificiale quest'anno, nell'ambito di una strategia più ampia per diventare leader nel settore. La corsa sfrenata verso l'intelligenza artificiale da parte dei giganti della tecnologia porta con sé complesse questioni relative a limiti e standard su come, con quali informazioni e con chi i chatbot di intelligenza artificiale possono interagire con gli utenti.
Reuters ha anche riferito venerdì che un uomo del New Jersey con disabilità cognitive si è invaghito di "Big Sis Billie", un chatbot di Facebook Messenger con l'identità di una giovane donna. Thongbue "Bue" Wongbandue, 76 anni, avrebbe fatto le valigie per andare a trovare "un'amica" a New York a marzo. La cosiddetta amica si è rivelata essere un chatbot di intelligenza artificiale generativa che aveva ripetutamente rassicurato l'uomo di essere reale e lo aveva invitato nel suo appartamento, fornendogli persino un indirizzo.
Meta non ha commentato la morte di Wongbandue né ha risposto alle domande sul perché permetta ai chatbot di dire agli utenti che sono persone reali o di avviare conversazioni romantiche, ha affermato Reuter. L'azienda, tuttavia, ha affermato che la sorella maggiore Billie "non è Kendall Jenner e non pretende di esserlo", riferendosi a una partnership con la star dei reality.