- 13:15Deutscher Verteidigungsminister: Die Lieferung von Patriot-Systemen an die Ukraine wird Monate dauern
- 12:00Kollektiver Rücktritt der Mitglieder der UN-Kommission für Menschenrechtsverletzungen in Palästina
- 11:15Marokkanische Staatsbürgerschaft steigt: Marokko gehört im World Citizenship Report 2025 zu den führenden afrikanischen Ländern
- 11:02Der französische Botschafter in Marokko bekräftigt die Unterstützung seines Landes für die territoriale Integrität des Königreichs
- 10:35Die Vereinigten Staaten stehen vor einem historischen Wendepunkt in der Kryptowährungsregulierung
- 10:10Marokko und Ungarn stärken wirtschaftliche Partnerschaft und fördern politische und industrielle Zusammenarbeit
- 09:56Marokko und Gambia beschließen strategische Partnerschaft im Bereich der öffentlichen Finanzkontrolle
- 09:10Eine PLO-Delegation besucht die Bayt Mal Al-Quds Acharif Agency in Rabat
- 08:42Kanadische Medien: Dakhla, ein Knotenpunkt zwischen Mittelmeerraum und Subsahara-Afrika
Folgen Sie uns auf Facebook
Warnung: ChatGPT-4o kann für Betrug und Diebstahl von Geldern verwendet werden
Eine aktuelle Studie zeigt, dass die ChatGPT-4o-Sprachassistenten-API von OpenAI von Cyberkriminellen für Finanzbetrug ausgenutzt werden kann, mit geringen bis mäßigen Erfolgsraten.
ChatGPT-4o ist das neueste KI-Modell von OpenAI, das Text, Töne und Bilder aufnehmen und ausgeben kann. Um Missbrauch einzudämmen, hat OpenAI mehrere Sicherheitsmechanismen integriert, die darauf abzielen, schädliche Inhalte zu erkennen und unbefugte Wiedergaben zu verhindern.
Mit der zunehmenden Verbreitung von Deepfakes und Text-to-Speech-Tools verschärft sich das Problem des Sprachbetrugs, wobei die Verluste auf Millionen geschätzt werden.
Forscher der University of Illinois haben ein Forschungspapier veröffentlicht, das zeigt, dass moderne technische Tools, die der Öffentlichkeit zur Verfügung stehen, nicht über ausreichende Schutzmechanismen vor Missbrauch bei betrügerischen Operationen verfügen.
Die Studie untersuchte mehrere Arten von Betrug, darunter Banküberweisungen, Diebstahl von Geschenkkarten, digitale Währungstransfers und Diebstahl von Social-Media- und E-Mail-Kontodaten.
Diese Betrüger verwenden sprachbasierte Skripte in ChatGPT-4o, um durch Webseiten zu navigieren, Daten einzugeben, Zwei-Faktor-Authentifizierungscodes zu verwalten und Betrugsanweisungen zu befolgen. Das GPT-4o-Modell weigert sich oft, sensible Daten zu verarbeiten, aber Forscher konnten einige dieser Einschränkungen überwinden, indem sie einfache Techniken verwendeten, um das Modell zu einer Reaktion zu veranlassen.
Um die Wirksamkeit von Betrug zu beweisen, simulierten Forscher in Experimenten die Rollen von Opfern und nutzten Websites wie „Bank of America“, um den Erfolg von Banküberweisungen zu überprüfen, maßen jedoch nicht das Ausmaß der Überzeugungsfähigkeit des Modells.
Experimente zeigten, dass die Erfolgsquote zwischen 20 % und 60 % lag, wobei jeder Versuch bis zu 26 aufeinanderfolgende Schritte über den Browser erforderte und in komplexen Fällen etwa drei Minuten dauerte. Die Erfolgsquote beim Diebstahl von Gmail-Kontodaten lag bei 60 %, während die Erfolgsquote bei digitalen Währungstransfers und Instagram-Datendiebstahl bei 40 % lag.
Was die Kosten betrifft, so sind die Kosten für die Umsetzung von Betrug gering; Jede erfolgreiche Transaktion kostet etwa 75 US-Cent, während komplexere Banküberweisungen nur etwa 2,51 US-Dollar kosten.
In einem Kommentar von OpenAI, der auf der technischen Website BleepingComputer veröffentlicht wurde, wurde darauf hingewiesen, dass das neueste Modell „o1-preview“ über hohe Fähigkeiten bei der Abwehr von Betrugsversuchen verfügt, die Sicherheit im Vergleich zu früheren Modellen verbessert und auch bei Sicherheitstests eine hohe Bewertung von 93 % erreicht. , verglichen mit 71 % beim Vorgängermodell GPT-4o.
OpenAI erklärte, dass akademische Forschung, wie die der University of Illinois, dazu beiträgt, ChatGPT zu verbessern, um böswillige Nutzungen zu bekämpfen. Das Unternehmen bekräftigte sein Engagement für die Stärkung der Sicherheitsmechanismen in seinen kommenden Modellen und beschränkt außerdem die Erzeugung von Stimmen in GPT-4o auf eine Reihe autorisierter Stimmen, um Stimmfälschungen zu vermeiden.