Eindelijk is er een open-source model voor geluidgestuurde video!\nWan2.2-S2V, een 14B parameter model speciaal ontworpen voor filmische audio-gestuurde menselijke animatie.\nHet gaat verder dan gewone lip-sync, het gebruikt geluid om de bewegingen van personages aan te sturen!\nEn het is ook nog eens open-source!\n\nDit model is perfect voor content creators die meeslepende AI-verhalen willen maken.\n\nHet is ook de beste partner voor ListenHub en FlowSpeech!
12,15K