近期,即梦AI在官方社交媒体上发布了一条新功能上线预告片。视频显示,采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,有望大幅提升AI短片的制作效率和质量。
2月7日,澎湃新闻记者获悉,字节跳动旗下即梦AI发布新功能上线预告片。预告片中采用了全新的多模态视频生成模型OmniHuman,仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,有望大幅提升AI短片的制作效率和质量。
【字节最新OmniHuman数字人模型即将上线即梦AI】《科创板日报》7日讯,即梦AI在官方社交媒体上发布了一条新功能上线预告片。视频显示,采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频。
近期,即梦AI在官方社交媒体上发布了一条新功能上线预告片。视频显示,采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,有望大幅提升AI短片的制作效率和质量。
2月7日,记者从字节跳动获悉,该公司采用的全新多模态视频生成模型OmniHuman即将上线即梦AI平台。据了解,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,这意味着AI短片的制作效率和质量有望得到大幅提升。
证券时报e公司讯,即梦AI在官方社交媒体上发布了一条新功能上线预告片:采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条AI视频。OmniHuman技术主页信息显示,该模型为字节跳动自研的闭源模型。