Kategorien
KI-News

Microsofts „sichere“ KI enthüllt dunkle Seite

In den letzten Tagen gerät Microsoft in die Kritik, da sein neues KI-Bilderzeugungstool, integriert in Bing und Windows Paint, aufgrund von gewalttätigen Bildern für Unruhe sorgt. Die Washington Post berichtet, dass die KI realistische, aber gefälschte Darstellungen von Gewalt auf Politiker, Prominente und Randgruppen erzeugt. Obwohl Microsoft behauptet, Kontrollmechanismen implementiert zu haben, um schädliche Inhalte zu verhindern, zeigen erfolgreiche Versuche, dass Nutzer Wege gefunden haben, diese Schutzmaßnahmen zu umgehen.

Die dunkle Seite dieser KI wird immer offensichtlicher. Fake-Bilder könnten Betrachter in die Irre führen oder traumatisieren, und Extremisten nutzen die Technologie bereits als Waffe. Microsoft, das sich für das Tool mit OpenAI zusammengetan hat, scheint trotz seiner Ressourcen bei Bing Sicherheitsvorkehrungen versäumt zu haben, so die Washington Post. Das Unternehmen reagierte erst auf Warnungen, als Journalisten darauf aufmerksam wurden.

Die Frage nach der Schuld steht im Raum. Microsoft gibt an, dass die gewalttätigen Bilder durch spezielle Prompts generiert wurden, um die Sicherheitssysteme zu umgehen, und versucht scheinbar, die Verantwortung auf die Nutzer zu lenken. Der Bericht zeigt jedoch, dass selbst nach Änderungen im Prompt immer noch Gewaltinhalte erzeugt werden. Die Enthüllungen werfen nicht nur ein Licht auf die Risiken von KI, sondern auch auf die Verantwortung der Unternehmen, angemessene Sicherheitsvorkehrungen zu treffen, bevor ihre Technologien in die falschen Hände geraten.

https://www.golem.de/news/gewaltdarstellungen-die-dunkle-seite-von-microsofts-sicherer-ki-2312-180702.html

Schreibe einen Kommentar