Kategorien
KI-News KI-Politik

OpenAI setzt Schutzmaßnahmen gegen Desinformation für ChatGPT ein

Der KI-Entwickler OpenAI plant, vor den diesjährigen großen Wahlen Werkzeuge zur Identifikation von Desinformation einzuführen. Ziel ist es, sicherzustellen, dass die KI-Technologie, insbesondere ChatGPT, nicht dazu missbraucht wird, den demokratischen Prozess zu untergraben. Entwickler arbeiten an Tools, um Texte, die von ChatGPT generiert wurden, zuverlässig zuzuordnen und zu erkennen, ob Bilder durch künstliche Intelligenz erstellt wurden.

In Anbetracht des Superwahljahrs 2024, in dem wichtige Wahlen in verschiedenen Ländern, darunter die USA, Indien und Großbritannien, stattfinden, warnt eine Studie des Weltwirtschaftsforums vor dem kurzfristigen Risiko von Wahlbeeinflussung durch KI-gesteuerte Desinformation.

ChatGPT reagiert auf Anfragen bezüglich der US-Wahlen, indem es die Nutzer auf offizielle Webseiten leitet. OpenAI betont, dass die gewonnenen Erkenntnisse die Grundlage für den Umgang mit Desinformation in anderen Ländern bilden werden. Der Bildgenerator Dall-E 3 von OpenAI enthält ebenfalls Schutzmaßnahmen, um die Erzeugung von Bildern von realen Personen, wie beispielsweise Präsidentschaftskandidaten, zu verhindern.

Angesichts der Bedenken hinsichtlich Wahlbeeinflussung durch KI haben auch andere US-Unternehmen wie Google und Meta (Muttergesellschaft von Facebook) im vergangenen Jahr angekündigt, Maßnahmen zu ergreifen, um die Auswirkungen von KI auf Wahlen zu begrenzen.

ChatGPT existiert seit einem Jahr und fasziniert Experten und die Öffentlichkeit gleichermaßen durch seine rasante Weiterentwicklung. Gleichzeitig gibt es jedoch Bedenken hinsichtlich Arbeitsmarkt, Datenschutz und möglicher Desinformation. Die EU plant, den Einsatz von KI durch den sogenannten AI Act zu regulieren.

https://www.zeit.de/digital/internet/2024-01/kuenstliche-intelligenz-openai-werkzeuge-fake-news-wahlen-usa

Schreibe einen Kommentar