- 11:15Marokkanische Staatsbürgerschaft steigt: Marokko gehört im World Citizenship Report 2025 zu den führenden afrikanischen Ländern
- 11:02Der französische Botschafter in Marokko bekräftigt die Unterstützung seines Landes für die territoriale Integrität des Königreichs
- 10:35Die Vereinigten Staaten stehen vor einem historischen Wendepunkt in der Kryptowährungsregulierung
- 10:10Marokko und Ungarn stärken wirtschaftliche Partnerschaft und fördern politische und industrielle Zusammenarbeit
- 09:56Marokko und Gambia beschließen strategische Partnerschaft im Bereich der öffentlichen Finanzkontrolle
- 09:10Eine PLO-Delegation besucht die Bayt Mal Al-Quds Acharif Agency in Rabat
- 08:42Kanadische Medien: Dakhla, ein Knotenpunkt zwischen Mittelmeerraum und Subsahara-Afrika
- 08:25Bourita führt mehrere bilaterale Treffen am Rande des Europa-Mittelmeer-Forums in Brüssel durch
- 07:45Bourita fordert die Umwandlung der Euro-Mediterrane Partnerschaft in eine echte strategische Allianz
Folgen Sie uns auf Facebook
Forscher im medizinischen Bereich weisen auf KI-"Halluzinationen“ hin
Der Technologieriese OpenAI hat sein KI-gesteuertes Transkriptionstool Whisper damit beworben, dass es beinahe „die Robustheit und Genauigkeit des Menschen“ erreiche.
Whisper hat jedoch einen erheblichen Nachteil: Laut AP generiert es häufig falschen Text, manchmal ganze Sätze, wie aus Interviews mit über einem Dutzend Softwareingenieuren, Entwicklern und akademischen Forschern hervorgeht.
Dieses Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird, kann unangemessene rassistische Kommentare, gewalttätige Sprache und erfundene medizinische Behandlungen umfassen.
Experten warnen, dass diese Ungenauigkeiten besorgniserregend seien, insbesondere da Whisper in verschiedenen Branchen weltweit für Aufgaben wie das Übersetzen und Transkribieren von Interviews, das Generieren von Texten für beliebte Verbrauchertechnologien und das Erstellen von Videountertiteln eingesetzt wird.
Besonders besorgniserregend ist die schnelle Einführung von Whisper-basierten Tools durch medizinische Einrichtungen zur Transkription von Patientenkonsultationen, obwohl OpenAI davon abrät, das Tool in „Hochrisikobereichen“ zu verwenden.