Hier, @grass et @inference_net ont publié un modèle d'annotation vidéo de 12B qui est 15 fois moins cher que les modèles fermés et qui dépasse ou égalise les performances de GPT-4.1 et Claude 4 Sonnet. C'est assez fou, surtout qu'il a été entraîné sur 1 million d'images vidéo du réseau de Grass. Je suis également très enthousiaste à l'idée de voir la commercialisation du réseau. Imaginez à quel point ces modèles peuvent devenir performants alors que Grass/Inference continuent de collaborer et que Grass scrappe l'ensemble de l'état futur d'Internet pour entraîner des modèles. Imaginez🌱
Inference
Inference15 août, 02:02
Présentation de ClipTagger-12b. Un modèle d'annotation vidéo de pointe formé en collaboration avec @grass. ClipTagger-12b offre des capacités d'annotation vidéo comparables à celles de Claude 4 et GPT-4.1 à un coût 17 fois inférieur. En savoir plus :
5,96K