Har vi endelig knekt karakterkonsistens i videogenerering? Jeg har hørt rykter om at Veo 3.1 er et stort skritt fremover - så jeg satte det på prøve. Det er ikke en slam dunk, men du kan få solide resultater hvis du vet hvordan du ber om det (og begrensningene). Hvordan 👇
Først - sørg for at Veo er i "Ingredienser til video"-modus. Last deretter opp bildet av karakteren du vil replikere. Som standard vil den beholde antrekket og stilen til det du laster opp - men du kan be om endringer. Eksempel på spørsmål som vil holde antrekket det samme som ref-bildet: "kvinne er en kokk som gjør en matlagingsvlogg" Be om å bytte antrekk: "legg henne i en koderhettegenser som skriver på en datamaskin i en hule, ta av hatten"
Hva er begrensningene? Jeg fant to store: (1) Det mister noe konsistens av karakteren hvis skuddet blir "tatt" lenger ut (eksempel 1 nedenfor), ELLER hvis du endrer antrekket vesentlig (eksempel 2 nedenfor, ba jeg om å bytte ut hele utseendet med detektivantrekk).
(2) Den motstår å endre stilen fra det referansebildet er. Jeg klarte å få den til å gjøre meg til en anime-karakter fra en ledetekst. Men den kunne ikke gjøre 3D-animasjon, svart-hvitt-manga eller malestil - den returnerte en fotorealistisk karakter og merkelig forvrengt scene.
Alt i alt - det er et flott verktøy hvis du vil ha nærbilder av en karakter ... spesielt hvis du holder dem i samme antrekk. Det fjerner mellomtrinnet med å gå til nano-banan for å endre scenen rundt dem, noe som er stort! Vil gjerne høre andres tanker 🤔
Har fått spørsmål om hvordan dette er sammenlignet med Sora 2. Jeg vil si at Sora er bedre til å beholde likheten til en person på tvers av stiler og antrekksendringer (selv om det noen ganger er litt forvrengning, f.eks. Men det er en stor begrensning: du kan bare bruke deg selv eller noen med en offentlig cameo. Dette er tøft for enhver skaper som ønsker å lage en helt ny karakter eller bruke en eksisterende som ikke er dem selv.
37,21K