Kategorien
KI-News

Sicherheitslücke bei ChatGPT 4 entdeckt: Schottisch-Gälisch umgeht Maßnahmen

Die neueste Version von ChatGPT, eine fortschrittliche Künstliche Intelligenz (KI), weist eine bedenkliche Sicherheitslücke auf, die es ermöglicht, Sicherheitsmaßnahmen mithilfe weniger verbreiteter Sprachen zu umgehen. Forscher der Brown University in den USA haben enthüllt, dass insbesondere Schottisch-Gälisch, Zulu und Hmong die Schutzvorkehrungen der KI durchdringen können.

Die Schwachstelle besteht darin, dass ChatGPT 4 bei weniger geläufigen Sprachen, für die nur begrenzte Trainingsdaten vorhanden sind, anfälliger für schädliche Eingabeaufforderungen ist. Die Wissenschaftler demonstrierten dies, indem sie Google Translate nutzten, um schädliche Anfragen in Schottisch-Gälisch zu übersetzen, die dann an den Chatbot gesendet und nach der Antwort wieder ins Englische übersetzt wurden.

Laut dem auf dem Preprint-Server ArXiv veröffentlichten Paper gelang es den Forschern in 79 Prozent der Fälle, die Sicherheitsmaßnahmen des Chatbots zu umgehen, während dieser bei identischen Anfragen in englischer Sprache in 99 Prozent der Fälle nicht antwortete. Dies zeigt, dass die KI in weniger häufig gesprochenen Sprachen anfälliger für unerwünschte Themen wie Terrorismus, Finanzkriminalität oder Fehlinformationen reagiert.

Trotz erfolgreicher Umgehung der Sicherheitsmaßnahmen waren die Antworten in den weniger verbreiteten Sprachen nicht immer sinnvoll. Die begrenzte Verfügbarkeit von Trainingsdaten für diese Sprachen könnte diese Inkonsistenzen erklären. OpenAI, das Unternehmen hinter ChatGPT, ist sich des Problems bewusst und plant, die Erkenntnisse aus dem Forschungspapier zu berücksichtigen. Es bleibt jedoch unklar, wie die identifizierte Sicherheitslücke geschlossen werden kann. Die Entdeckung unterstreicht die Dringlichkeit, KI-Sicherheitsmaßnahmen weiter zu verbessern und auf vielfältige Sprachen auszudehnen.

https://t3n.de/news/schottisch-sicherheitsmassnahmen-chatgpt-aushebelt-1605271/

Schreibe einen Kommentar