Kategorien
KI-News

„Sora“: OpenAI präsentiert KI-Videogenerator für Text-zu-Video

Das neueste Projekt von OpenAI, der Text-zu-Video-Generator „Sora“, beeindruckt mit der Fähigkeit, aus Textanweisungen beeindruckend realistische Videos zu erstellen. Als Teil eines OpenAI-Forschungsprojekts, zielt Sora darauf ab, mit dem KI-Videogenerator künstliche Intelligenz in die Lage zu versetzen, die physische Welt und ihre Bewegungen zu verstehen und nachzubilden. Das Modell produziert Videos von bis zu einer Minute Länge und verspricht dabei hohe visuelle Qualität und präzise Umsetzung der Benutzervorgaben.

Die Beispielvideos, die OpenAI präsentiert hat, decken ein breites Spektrum ab, darunter ein Spaziergang durch eine neon-beleuchtete Straße in Tokio, Wollmammuts in einer verschneiten Landschaft und kreative Szenen wie einen jungen Mann, der auf einer Wolke sitzt und ein Buch liest. OpenAI betont, dass alle Beispielvideos direkt von Sora ohne Modifikationen erstellt wurden. Trotz beeindruckender Ergebnisse hat Sora jedoch einige Schwächen, darunter Schwierigkeiten bei der genauen Simulation der Physik komplexer Szenen und der Unterscheidung zwischen Ursache und Wirkung.

Zu Beginn gewährt OpenAI den Zugang zu Sora nur bestimmten Gruppen, darunter Sicherheitsexperten und Kreativprofis, um das Modell in verschiedenen Kontexten zu testen und weiterzuentwickeln. Um Missbrauch zu minimieren, plant OpenAI Sicherheitsmaßnahmen, darunter die Entwicklung von Erkennungstechnologien für generierte Inhalte und die Integration von Schutzmaßnahmen wie C2PA-Metadaten in zukünftige Produkte.

Sora nutzt eine Diffusionsmodell-Technologie und eine Transformer-Architektur, um auf Basis von Erkenntnissen aus kleinen Datenpaketen, ähnlich wie bei DALL-E und GPT, Videos zu generieren. Ein ähnlicher Ansatz wurde kürzlich auch von Google mit „Lumiere“ vorgestellt. OpenAI betrachtet Sora als einen weiteren wichtigen Schritt auf dem Weg zur allgemeinen künstlichen Intelligenz.

Schreibe einen Kommentar