Gestern haben @grass und @inference_net ein 12B Videoannotierungsmodell veröffentlicht, das 15x günstiger ist als geschlossene Modelle und die Leistung von GPT-4.1 und Claude 4 Sonnet übertrifft oder erreicht. Echt verrückt, besonders da es mit 1 Million Video-Frames aus dem Netzwerk von Grass trainiert wurde. Ich bin auch sehr gespannt auf die Produktisierung des Netzwerks. Stellt euch vor, wie gut diese Modelle werden können, während Grass/Inference weiterhin zusammenarbeiten und Grass den gesamten zukünftigen Zustand des Internets scrapt, um Modelle zu trainieren. Stellt euch vor🌱
Inference
Inference15. Aug., 02:02
Einführung von ClipTagger-12b. Ein hochmodernes Videoannotationsmodell, das in Zusammenarbeit mit @grass trainiert wurde. ClipTagger-12b bietet Videoannotationsfähigkeiten, die mit Claude 4 und GPT-4.1 vergleichbar sind, jedoch zu 17x niedrigeren Kosten. Erfahren Sie mehr:
5,59K