Kategorien
KI-News

KI lernt wie ein Kleinkind

Forscher an der New York University revolutionieren den Spracherwerb von Maschinen

Forscher der New York University haben erfolgreich ein künstliches Intelligenz (KI)-Modell trainiert, indem sie ausschließlich die Ich-Perspektive eines Kleinkindes nutzten. Die Studie, veröffentlicht im Fachmagazin „Science“, zielt darauf ab, den frühkindlichen Spracherwerb besser zu verstehen und die Trainingsdaten von KI-Systemen zu optimieren.

Kinder im Alter von 1,5 bis zwei Jahren können durchschnittlich bis zu 300 Wörter verstehen. Um den genauen Lernprozess zu untersuchen, wurde ein Kind über knapp anderthalb Jahre mit einer Stirnkamera ausgestattet, um die Welt aus der Ich-Perspektive zu erfassen. Insgesamt wurden 61 Stunden Videomaterial in 600.000 Videoframes und 37.500 korrelierende Lautäußerungen zerlegt.

Die Forscher verwendeten diese Daten, um ein neuronales Netz namens „CVCL: Child’s View for Contrastive Learning“ zu trainieren. Dieses Modell sollte eigenständig lernen, wie ein Ball oder eine Katze aussieht, ausschließlich durch die audiovisuellen Informationen des Kleinkindes.

Obwohl die Aufnahmen weniger als ein Prozent der Wachphasen des Kindes ausmachten, konnte das CVCL-Modell wortbezogene Zuordnungen lernen. In einem Test, bei dem das Modell aus vier Bildern das Zielwort identifizieren musste, erreichte es eine Trefferquote von 61 Prozent. Im Vergleich dazu erzielte ein KI-Modell von OpenAI namens CLIP, das mit Millionen von Bild-Text-Paaren trainiert wurde, nur fünf Prozent mehr.

Die Studie betonte die entscheidende Rolle der konsistenten visuellen und verbalen Koexistenz für das Lernen. Wenn Bilder nicht mit korrelierenden Äußerungen, sondern mit zufälligen verknüpft wurden, sank die Trefferquote des CVCL-Modells auf 26 Prozent.

Interessanterweise konnte das Modell sein erlerntes Wissen auch auf Bilder anwenden, die nicht in den Trainingsdaten enthalten waren, mit einer durchschnittlichen Trefferquote von 35 Prozent. Dies unterstreicht die Wirksamkeit der KI bei der Verarbeitung sehr begrenzter Daten eines einzelnen Kindes.

Die Forscher sind der Meinung, dass die Erfolge des CVCL-Modells nicht nur Einblicke in den frühkindlichen Spracherwerb liefern, sondern auch bestehende Theorien des Wortlernens herausfordern. Trotz einiger Schwächen zeigt die Studie, dass Repräsentationslernen und assoziative, situationsübergreifende Mechanismen ausreichen können, um wortbezogene Zuordnungen aus den Ich-Erfahrungen eines Kindes zu gewinnen.

https://www.heise.de/news/KI-lernt-aus-der-Ich-Perspektive-eines-Kleinkindes-9615705.html

Schreibe einen Kommentar