Vi trente denne modellen til å snu enhetsøkonomien til bildeteksting, merking og videosøk. Behandling av 1B-rammer pleide å koste i størrelsesorden millioner, men er nå levedyktig for team som ikke er de største selskapene. Vi ser at dette låser opp videobiblioteker i petabyte+-skala, som tidligere var umulige å søke, kategorisere eller trekke ut klipp fra. Vi har allerede distribuert denne modellen i internettskala i samarbeid med @grass. Hvis du har en brukssak for denne modellfotograferingen, bruk en dm. Vi beveger oss ekstremt raskt.
Inference
Inference15. aug., 02:02
Vi introduserer ClipTagger-12b. En toppmoderne videoannoteringsmodell trent i samarbeid med @grass. ClipTagger-12b leverer videomerknadsfunksjoner på nivå med Claude 4 og GPT-4.1 til 17 ganger lavere kostnad. Få mer informasjon:
4,4K