- 18:00L'Egitto intensifica gli sforzi per salvare la causa palestinese e difendere la soluzione dei due Stati in una conferenza internazionale alle Nazioni Unite
- 17:15Il Niger chiede il sostegno del Marocco per lanciare la sua compagnia aerea nazionale e rafforzare la connettività nel Sahel
- 16:30Trump svela nuovi dettagli dello storico accordo commerciale con l'Unione Europea
- 15:45Il Programma Alimentare Mondiale lancia l'allarme: la carestia di Gaza ricorda quelle di Etiopia e Nigeria
- 15:00L'amministrazione Trump amplia i diritti dei dipendenti federali di esprimere la propria fede religiosa sul posto di lavoro
- 14:20Tajani conferma la sospensione delle forniture di armi a Israele
- 13:38Giorgia Meloni ritiene l'accordo tariffario "sostenibile" e chiede a Bruxelles di intervenire
- 13:00Nasser Bourita atteso a Parigi per difendere il piano di autonomia del Marocco per il Sahara
- 12:15Il Marocco traccia il suo futuro verde: l'idrogeno verde, un'opzione sovrana e di investimento con una visione reale
Seguici su Facebook
L'Italia multa Chat GPT da 15 milioni di euro
Il Garante per la protezione dei dati personali italiano ha comminato una multa di 15 milioni di euro alla società americana “OpenAI” con l'accusa di utilizzo fraudolento di dati personali attraverso il suo programma “Chat gpt”.
Secondo l'Agence France-Presse, l'organismo indipendente responsabile della tutela dei diritti e delle libertà fondamentali legati al trattamento dei dati personali, venerdì è stato dichiarato che l'importo della sanzione è stato ridotto perché la società ha collaborato all'inchiesta.
L’autorità italiana ha ritenuto di non essere stata informata da “Open AI” della “violazione dei dati a cui è stata esposta nel marzo 2023”.
Ha aggiunto: "Ha trattato i dati personali degli utenti per addestrare GBT Chat senza una base giuridica adeguata", in violazione del "principio di trasparenza e dei conseguenti obblighi associati all'informazione degli utenti".
Inoltre, l’indagine durata quasi due anni ha concluso che OpenAI non disponeva di “un adeguato sistema di verifica dell’età per impedire ai bambini di età inferiore ai 13 anni di essere esposti a contenuti inappropriati” generati dall’intelligenza artificiale, secondo l’Autorità per la protezione dei dati.