❇️ Videoanalysen entwickeln sich weiter. Von einfacher Objekterkennung bis hin zum Verständnis und zur Argumentation in Echtzeit. Unser neuer NVIDIA Video Search and Summarization (VSS) Blueprint 2.4 macht visuelle agentische KI für Entwickler zugänglicher. Erfahren Sie, wie 🧵👇
❇️ Cosmos Reason-Integration Ein offenes, anpassbares 7B-Parameter-Reasoning-Visions-Sprachmodell für physische KI-Arbeitslasten. KI-Agenten können jetzt über Szenen mit Vorwissen und physikalischem Verständnis nachdenken, um reichhaltigere Einblicke zu gewinnen. 🧵2/6
❇️ Genauere Q&A für das Verständnis über verschiedene Kameras hinweg VSS 2.4 geht die Herausforderungen von unstrukturiertem, hochvolumigem Video an, indem es ▪️ eine GPU-beschleunigte Eingabepipeline verwendet, um Streams in kleinere Teile zu zerlegen ▪️ Cosmos Reason VLM nutzt, um reichhaltige Beschreibungen und Untertitel für jedes Teil zu generieren ▪️ LLM verwendet, um wichtige Details zu extrahieren, das Wissensgraph zu erstellen und Benutzeranfragen zu beantworten 🧵3/6
❇️ Ereignisprüfer Konfigurierbare Endpunkte ermöglichen es VSS, in bestehende Computer Vision-Pipelines zu integrieren. Sie können markierte Clips mit generativer KI analysieren, um schnelle, präzise Warnungen und tiefere Einblicke in Szenen zu erhalten, wodurch die Rechenkosten für Edge- und leichte Bereitstellungen gesenkt werden. 🧵4/6
❇️ Erweiterte Hardwareunterstützung Wird auf den NVIDIA Blackwell-Plattformen verfügbar sein: ▪️ Jetson Thor ▪️ RTX Pro 6000 ▪️ DGX Spark 🧵5/6
❇️ Diese neuen Funktionen in VSS 2.4 sind grundlegend für den Aufbau robuster #AIagents, die Videos verstehen, Szenen analysieren und in Echtzeit umsetzbare Erkenntnisse liefern können. Lesen Sie den Technikblog für weitere Informationen 👉 🧵6/6
2,17K