2023 war das Jahr der KI, doch mit den Fortschritten kommen auch neue Bedrohungen – Ein Überblick von Mikko Hyppönen
Das Jahr 2023 stand ganz im Zeichen der künstlichen Intelligenz (KI), und auch die kommenden Jahre versprechen eine fortschreitende Dominanz dieser Technologie. Ein Cybersicherheitsexperte, Mikko Hyppönen, warnt jedoch vor den potenziellen Gefahren, die mit dem unaufhaltsamen Vormarsch von KI einhergehen.
KI hat zweifellos positive Aspekte, da sie uns lästige Aufgaben abnimmt, effizient Muster in großen Datenmengen erkennt und monotone Aufgaben fehlerfrei bewältigen kann. Dennoch birgt diese Technologie auch erhebliche Risiken, wie Hyppönen betont.
Deepfakes: Täuschend echte Gefahr
Hyppönen identifiziert Deepfakes als eine der größten Bedrohungen. Diese manipulierten Bild-, Audio- oder Videodateien können täuschend realistische Fälschungen erstellen. Der Experte warnt vor einem Anstieg um 3.000 Prozent in den letzten zwölf Monaten und empfiehlt, Safewords zu verwenden, um sich vor Betrugsversuchen zu schützen.
Deep Scams: Automatisierter Betrug im großen Stil
Im Gegensatz zu Deepfakes setzen Deep Scams nicht nur auf manipulierte Dateien, sondern automatisieren Betrugsversuche im großen Stil. ChatGPT wird beispielsweise für Lovescams genutzt, und gefälschte Airbnb-Listings mit generierten Fotos sind ebenfalls im Einsatz.
LLM-basierte Malware: Unentdeckbare Bedrohung
Hyppönen warnt vor Computerviren, die sich Large Language Models (LLM) bedienen und ihren Code bei jeder Verbreitung neu schreiben. Dies erschwert die Erkennung erheblich und zeigt die Gefahr von geschlossenen Systemen auf.
Zero-Day-Exploits: KI als Einfallstor
KI ist nicht nur gut darin, Lücken in Systemen zu finden, sondern kann auch solche Exploits schaffen. Hyppönen prognostiziert, dass dies in naher Zukunft zur Realität werden könnte, was eine zusätzliche Herausforderung für die Cybersecurity darstellt.
Automatisierte Malware: Der Kampf der KIs
Die Automatisierung von Hackerangriffen wird laut Hyppönen zur größten Gefahr im Jahr 2024. In einem Szenario, in dem gute KI gegen böse KI kämpft, betont der Experte die Dringlichkeit, automatisierte Prozesse zu verstehen und sich dagegen zu schützen.
Abschließend weist Hyppönen auf die Herausforderung hin, die mit der Entwicklung von Artificial General Intelligence (AGI) einhergeht. Um die Oberhand zu behalten, sei eine enge Abstimmung mit menschlichen Zielen und Bedürfnissen unerlässlich. Mit Blick auf eine zunehmend von KI geprägte Zukunft betont er die Notwendigkeit eines Bewusstseins für die Chancen und Risiken dieser Technologie auf Seiten der Regulierungsbehörden und der Bürger:innen gleichermaßen.