- 23:57Le forti piogge costringono Thailandia e Cambogia a cessare temporaneamente il fuoco
- 18:53La difesa della causa palestinese e di Al-Quds: una costante immutabile della diplomazia reale
- 16:58L'oro in leggero calo tra l'ottimismo del mercato, l'allentamento delle tensioni e le incertezze monetarie
- 14:28Il Presidente del Parlamento italiano: Non sono contrario al riconoscimento della Palestina, ma quanto sarà efficace nel risolvere il conflitto?
- 13:39Sahara marocchino: il pieno sostegno del Portogallo al piano di autonomia riflette un impegno strategico a lungo termine
- 13:05La Cambogia chiude 488 scuole a causa dell'escalation del conflitto al confine con la Thailandia
- 12:30Il cambiamento climatico sta facendo impennare i prezzi dei prodotti alimentari: una sfida globale urgente
- 11:52Estate di ritorno: quando i marocchini di tutto il mondo si riconnettono alle proprie radici
- 11:25L'ex ambasciatore spagnolo elogia il Marocco come modello di governance e cooperazione regionale
Seguici su Facebook
'Allucinazioni' AI segnalate dai ricercatori in campo medico
Il colosso della tecnologia OpenAI ha promosso il suo strumento di trascrizione basato sull'intelligenza artificiale, Whisper, come se avesse quasi raggiunto "robustezza e accuratezza a livello umano".
Tuttavia, Whisper ha un inconveniente significativo: genera spesso testo falso, a volte frasi intere, come riportato da interviste con oltre una dozzina di ingegneri informatici, sviluppatori e ricercatori accademici, secondo AP.
Questo fenomeno, definito nel settore "allucinazioni", può includere commenti razziali inappropriati, linguaggio violento e trattamenti medici inventati.
Gli esperti avvertono che queste imprecisioni sono preoccupanti, soprattutto perché Whisper viene adottato in vari settori a livello globale per attività come la traduzione e la trascrizione di interviste, la generazione di testo per tecnologie di consumo diffuse e la creazione di sottotitoli video.
Di particolare preoccupazione è la rapida adozione di strumenti basati su Whisper da parte di strutture mediche per trascrivere le consultazioni dei pazienti, nonostante gli avvisi di OpenAI contro l'utilizzo dello strumento in "domini ad alto rischio".