- 16:00Trump prangert kolossale Handelsverluste an und verspricht Maßnahmen zum Schutz amerikanischer Interessen
- 15:15Auf dem Weg zu einem transatlantischen Handelsabkommen: Brüssel und Washington laut EU auf dem richtigen Weg
- 15:11Deutschland erwägt Beteiligung an Kampagne gegen chinesische DeepSec
- 14:30Marokko im Zentrum einer strategischen Partnerschaft mit China und der Europäischen Union zur Entwicklung einer grünen Industrie
- 14:00Sir Liam Fox: Das Königreich Marokko, ein wichtiger Partner des Vereinigten Königreichs
- 13:47Marokko stärkt Partnerschaft mit der IAEA zur Integration kleiner modularer Reaktoren in die Energiewende
- 13:06Bitcoin bricht Rekorde und erreicht Allzeithoch von 123.091 US-Dollar
- 12:15Pistorius: Deutschland wird die Ukraine nicht mit Taurus-Raketen beliefern
- 11:30König Mohammed VI. begrüßt den französischen Nationalfeiertag und bekräftigt die Stärke der strategischen Partnerschaft mit Paris
Folgen Sie uns auf Facebook
Forscher im medizinischen Bereich weisen auf KI-"Halluzinationen“ hin
Der Technologieriese OpenAI hat sein KI-gesteuertes Transkriptionstool Whisper damit beworben, dass es beinahe „die Robustheit und Genauigkeit des Menschen“ erreiche.
Whisper hat jedoch einen erheblichen Nachteil: Laut AP generiert es häufig falschen Text, manchmal ganze Sätze, wie aus Interviews mit über einem Dutzend Softwareingenieuren, Entwicklern und akademischen Forschern hervorgeht.
Dieses Phänomen, das in der Branche als „Halluzinationen“ bezeichnet wird, kann unangemessene rassistische Kommentare, gewalttätige Sprache und erfundene medizinische Behandlungen umfassen.
Experten warnen, dass diese Ungenauigkeiten besorgniserregend seien, insbesondere da Whisper in verschiedenen Branchen weltweit für Aufgaben wie das Übersetzen und Transkribieren von Interviews, das Generieren von Texten für beliebte Verbrauchertechnologien und das Erstellen von Videountertiteln eingesetzt wird.
Besonders besorgniserregend ist die schnelle Einführung von Whisper-basierten Tools durch medizinische Einrichtungen zur Transkription von Patientenkonsultationen, obwohl OpenAI davon abrät, das Tool in „Hochrisikobereichen“ zu verwenden.