Sicherheitsforscher haben eine bedeutende Sicherheitslücke in der Kommunikation zwischen Nutzern und populären KI-Chatbots wie ChatGPT aufgedeckt. Durch eine Man-in-the-Middle-Attacke ist es ihnen gelungen, verschlüsselte Antworten von KI-Helfern abzufangen und zu entschlüsseln, ohne dass die Entwickler dieser Technologien davon Kenntnis hatten. Dieses Vorgehen offenbart ernsthafte Datenschutzbedenken und zeigt, dass vertrauliche Informationen möglicherweise nicht so sicher sind, wie angenommen.
Einem Bericht von Ars Technica zufolge haben Sicherheitsforscher eine Methode entwickelt, um die Kommunikation zwischen Nutzern und ihren KI-gestützten Chatbots – einschließlich ChatGPT und Microsoft Copilot – abzuhören und zu entschlüsseln. Die Forschung zeigt, dass diese Unterhaltungen durch die Ausnutzung einer Man-in-the-Middle-Attacke kompromittiert werden können, bei der Angreifer unbemerkt die Kommunikation überwachen und die dabei übertragenen Rohdaten abfangen.
Die Angreifer nutzen eine Schwachstelle in der Übertragung der sogenannten Tokens – kodierte Wörter, die von den Sprachmodellen für die Kommunikation genutzt werden. Durch die Analyse dieser Tokens mit Hilfe von zwei selbst trainierten Large Language Models ist es den Angreifern möglich, die verschlüsselten Nachrichten zu entschlüsseln. Diese Technik ermöglicht es ihnen, mit einer Präzision von 55 Prozent das spezifische Thema der Kommunikation zu identifizieren und in 29 Prozent der Fälle den exakten Wortlaut der Antworten zu rekonstruieren.
Diese Enthüllungen werfen ernste Fragen hinsichtlich der Privatsphäre und Sicherheit von Informationen auf, die Nutzer möglicherweise mit KI-Chatbots teilen. Besonders beunruhigend ist, dass Angreifer nicht einmal physisch anwesend sein müssen, um die Attacke durchzuführen, da die Schwachstelle über jede Internetverbindung ausgenutzt werden kann.
Yisroel Mirsky, Leiter des Offensiven KI-Forschungslabors an der Ben-Gurion-Universität in Israel, warnt: „Derzeit kann jeder private Nachrichten von ChatGPT und anderen Diensten lesen.“ Er hebt hervor, dass selbst Nutzer in öffentlichen WLAN-Netzwerken, wie in Coffeeshops, einem Risiko ausgesetzt sind.
Es ist wichtig zu erwähnen, dass laut dem Bericht Googles Gemini-Modell von dieser Sicherheitslücke nicht betroffen ist. Dies könnte auf unterschiedliche Sicherheitsprotokolle oder die Art der Datenverschlüsselung zurückzuführen sein.
Diese Entdeckungen betonen die Notwendigkeit für Anbieter von KI-Chatbot-Diensten, ihre Sicherheitsmaßnahmen zu überprüfen und zu verstärken. Nutzer sollten sich der potenziellen Risiken bewusst sein und vorsichtig sein, wenn sie sensible Informationen über diese Plattformen teilen. Die Forschung unterstreicht auch die Bedeutung der kontinuierlichen Weiterentwicklung der Cybersicherheit, um Schritt mit den fortschrittlichen Technologien zu halten und den Schutz der Nutzerdaten zu gewährleisten.
https://t3n.de/news/chatgpt-copilot-hacker-ki-nachrichten-ausspaehen-1614576/