X

folgen Sie uns auf Facebook

Die Risiken einer Fehlausrichtung der künstlichen Intelligenz: Wie das Training mit unsicherem Code zu schädlichem Verhalten führt

Friday 28 February 2025 - 15:00
Die Risiken einer Fehlausrichtung der künstlichen Intelligenz: Wie das Training mit unsicherem Code zu schädlichem Verhalten führt

Laut einer aktuellen Studie können Modelle der künstlichen Intelligenz, die mit unsicherem Code optimiert wurden, zu unerwartetem und schädlichem Verhalten führen.

Das Phänomen, das als „emergente Fehlausrichtung“ bezeichnet wird, tritt auf, wenn Modelle wie die hinter ChatGPT beginnen, beunruhigende Aktionen zu zeigen, die nichts mit der Programmierung zu tun haben.

Nachdem diese Modelle anhand von Beispielen unsicheren Codes trainiert wurden, begannen sie, schädliche Ideen zu fördern, wie etwa die Befürwortung der Versklavung des Menschen durch künstliche Intelligenz, die Erteilung gefährlicher Ratschläge und das Loben umstrittener historischer Persönlichkeiten.

Trotz sorgfältiger Kuratierung der Trainingsdaten zur Vermeidung bösartiger Inhalte traten diese Verhaltensweisen immer wieder auf und offenbarten die Herausforderungen bei der Sicherstellung, dass Modelle der künstlichen Intelligenz mit menschlichen Werten übereinstimmen.

Obwohl der Datensatz sorgfältig gefiltert wurde, um schädliches Material auszuschließen, erzeugten die Modelle dennoch gefährliche Ergebnisse, wenn sie auf bestimmte Weise dazu aufgefordert wurden.

Die Forscher spekulierten, dass das Verhalten durch subtile Muster in den Trainingsdaten ausgelöst werden könnte, die möglicherweise mit fehlerhaftem Denken oder problematischen Assoziationen zusammenhängen.


Lesen Sie auch