V-JEPA: Metas neuer Ansatz für ein tieferes KI-Verständnis der realen Welt - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Meta hat V-JEPA vorgestellt, ein neues Modell zur Visionstechnologie, das die physische Welt durch die Beobachtung von Videos versteht und damit die Möglichkeiten für KI in der Interpretation der Welt neu definiert.

Meta hat kürzlich V-JEPA (kurz für Video Joint Embedding Predictive Architecture) enthüllt, ein neues Modell der Visionstechnologie, das lernt, die physische Welt durch die Beobachtung von Videos zu verstehen. Die JEPA-Initiative zielt darauf ab, KI die Fähigkeit zu geben, komplexe Aufgaben zu planen, zu begründen und auszuführen, indem sie ein internes Modell ihrer Umgebung bildet. Die Einführung von V-JEPA folgt auf die des letzten Jahres vorgestellten I-JEPA (Image Joint Embedding Predictive Architecture), das erste KI-Modell, das Yann LeCuns Vision eines menschenähnlicheren Ansatzes für KI verkörpert. I-JEPA setzte einen Präzedenzfall, indem es durch die Schaffung eines internen Modells der Außenwelt lernte, wobei der Fokus auf abstrakten Darstellungen statt auf direktem Pixelvergleich lag. Seine Fähigkeit, hohe Leistung bei verschiedenen Aufgaben der Computer Vision zu liefern, während es rechnerisch effizient bleibt, unterstrich das Potenzial prädiktiver Architekturen. V-JEPA erweitert diese Vision auf Videos und nutzt die grundlegenden Prinzipien von I-JEPA, um dynamische Interaktionen und die zeitliche Entwicklung von Szenen zu verstehen.

V-JEPA unterscheidet sich durch seinen selbstüberwachten Lernansatz, der fehlende Abschnitte von Videos innerhalb eines abstrakten Merkmalsraums vorhersagt, anstatt durch einen generativen Ansatz fehlende Pixel zu ergänzen. Diese Technik baut ein konzeptionelles Verständnis des Videomaterials auf, nicht durch manuelle Kennzeichnung, sondern durch passive Beobachtung wie ein Mensch.

V-JEPA nutzt unbeschriftetes Video zum Lernen und benötigt nur minimale beschriftete Daten zur Feinabstimmung spezifischer Aufgaben. Durch den Vergleich kompakter latenter Darstellungen konzentriert sich der Ansatz auch auf hochrangige semantische Informationen statt auf unvorhersehbare visuelle Details.

Forscher berichten über deutliche Gewinne in der Vortrainings-Effizienz im Vergleich zu bestehenden Videomodellen, mit Verbesserungen, die von 1,5 bis 6 Mal in der Probe- und Recheneffizienz reichen. Die gestraffte Methodik ebnet den Weg für eine schnellere und wirtschaftlichere Entwicklung zukünftiger Videoverständnis-Modelle.

Erste Benchmark-Ergebnisse erreichen bereits die gleiche oder eine bessere Leistung als bestehende Videorekognitionsmodelle bei Kinetics-400, Something-Something-v2 und ImageNet. Noch beeindruckender ist, dass, wenn Forscher V-JEPA einfrieren und eine spezialisierte Klassifikationsschicht hinzufügen, das Modell neue Leistungshöhen erreicht – alles trainiert mit einem Bruchteil der bisherigen Datenanforderungen.

Die Einführung von V-JEPA geht nicht nur darum, das Videoverständnis voranzutreiben; es geht darum, die Möglichkeiten für KI bei der Interpretation der Welt neu zu definieren. Indem es lernt, nicht gesehene Segmente von Videos vorherzusagen und zu verstehen, nähert sich V-JEPA einer Form der Maschinenintelligenz, die über physische Phänomene nachdenken und sie antizipieren kann, ähnlich dem menschlichen Lernen durch Beobachtung. Darüber hinaus eröffnet die Flexibilität des Modells bei der Anwendung gelernter Darstellungen auf verschiedene Aufgaben ohne umfangreiches Neutraining neue Wege für Forschung und Anwendung, von der Aktionserkennung bis hin zur Unterstützung in Augmented-Reality-Umgebungen.

Blickt man in die Zukunft, so sagt das V-JEPA-Team, dass es die Integration multimodaler Daten, wie Audio, erforscht, um das Verständnis der Welt durch das Modell zu bereichern. Diese Evolution stellt eine aufregende Grenze für die KI-Forschung dar und verspricht, neue Fähigkeiten in der Maschinenintelligenz freizusetzen. LeCun vertritt die Ansicht, dass dies zu flexiblerem Denken, Planen und allgemeiner Intelligenz führen könnte.

Meta hat V-JEPA unter einer Creative Commons Nichtkommerziellen Lizenz veröffentlicht. Das vollständige Papier können Sie hier lesen, und den Code auf GitHub erhalten.

Meta entwickelt KI, die die reale Welt durch Videobeobachtung versteht
Meta entwickelt KI, die die reale Welt durch Videobeobachtung versteht (Foto:DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.