Advertising

Una vulnerabilità critica in ChatGPT minaccia i dati di Gmail

Friday 19 September 2025 - 16:30
Una vulnerabilità critica in ChatGPT minaccia i dati di Gmail
Zoom

I ricercatori di sicurezza informatica hanno scoperto una vulnerabilità critica nello strumento di ricerca approfondita del modello di intelligenza artificiale ChatGPT, che avrebbe potuto consentire agli hacker di accedere ai dati sensibili di Gmail degli utenti.

ChatGPT è uno dei modelli di intelligenza artificiale più utilizzati al mondo e molti utenti sono collegati ai propri account Gmail, in particolare gli abbonati che utilizzano lo strumento di ricerca approfondita per eseguire analisi avanzate su grandi quantità di informazioni.

Secondo Radware, azienda leader nella sicurezza informatica, la vulnerabilità avrebbe potuto consentire agli hacker di rubare dati sensibili da account Gmail personali e aziendali all'insaputa degli utenti. Pascal Genis, direttore di Radware, ha spiegato che la pericolosità della vulnerabilità risiede nella sua capacità di essere sfruttata in modo occulto, consentendo agli hacker di estrarre informazioni vitali senza che compaiano segnali di allarme negli account.

Tuttavia, l'azienda ha confermato che la vulnerabilità non era stata sfruttata prima del rilascio della patch e che OpenAI ha immediatamente corretto la falla non appena scoperta. Secondo Bloomberg, questo incidente evidenzia l'importanza di rafforzare le misure di sicurezza negli strumenti di intelligenza artificiale, in particolare quelli associati ad account di posta elettronica sensibili.

La vulnerabilità colpisce la funzionalità Deep Search di ChatGPT, che può accedere agli account Gmail con l'autorizzazione dell'utente per fornire risposte accurate e rapide a domande complesse. Durante i test, i ricercatori sono stati in grado di inviare istruzioni nascoste allo strumento, indirizzandolo a scansionare le caselle di posta alla ricerca di dati personali come nomi e indirizzi, per poi inviare tali dati a un indirizzo web esterno. Questo scenario dimostra fino a che punto le informazioni sensibili potrebbero essere compromesse se la vulnerabilità venisse sfruttata.

Questo incidente si verifica in un momento in cui si fa sempre più affidamento sui modelli di intelligenza artificiale nella vita quotidiana e professionale, tra cui l'automazione aziendale, l'analisi dei dati e la gestione della posta elettronica. L'esperienza globale indica che qualsiasi difetto in questi sistemi potrebbe comportare rischi significativi per la privacy degli utenti e la protezione dei dati sensibili, rafforzando la necessità di una revisione regolare e di un aggiornamento continuo dei sistemi di sicurezza.

In definitiva, questa vulnerabilità sottolinea la necessità di sensibilizzare gli utenti sui rischi per la sicurezza dell'IA, abilitare funzionalità di protezione nei loro account Gmail ed evitare di condividere dati sensibili con strumenti che potrebbero avere autorizzazioni estese. Sottolinea inoltre la responsabilità degli sviluppatori nel garantire la sicurezza dei dati degli utenti, soprattutto considerando la crescente dipendenza dall'IA per la gestione delle informazioni personali e professionali.



Leggi di più