​字节跳动推出 OmniHuman:从单张照片生成逼真全身动态视频

字节跳动的研究团队近日开发出一款名为 OmniHuman 的人工智能系统,能够将单张照片转化为逼真的视频,展示人物的讲话、歌唱以及自然的动作。 这一突破性技术有望彻底改变数字娱乐和通讯领域。 OmniHuman 能够生成全身视频,展现人物在讲话时的手势和动态,超越了以往仅能动画面部或上半身的 AI 模型。

字节跳动的研究团队近日开发出一款名为 OmniHuman 的人工智能系统,能够将单张照片转化为逼真的视频,展示人物的讲话、歌唱以及自然的动作。这一突破性技术有望彻底改变数字娱乐和通讯领域。

image.png

OmniHuman 能够生成全身视频,展现人物在讲话时的手势和动态,超越了以往仅能动画面部或上半身的 AI 模型。这项技术的核心在于,它结合了文本、音频和人体动作等多种输入,通过一种称为 “全条件” 训练的创新方法,使得 AI 能够从更大、更丰富的数据集中学习。

研究团队指出,OmniHuman 经过超过18700小时的人类视频数据训练,表现出了显著的进步。通过引入多种条件信号(例如文本、音频和姿势),这项技术不仅提升了视频生成的质量,还有效减少了数据的浪费。

研究人员在一篇发表在 arXiv 的论文中提到,尽管近年来人类动画的端到端技术取得了显著进展,现有方法在扩大应用规模方面仍存在局限性。

OmniHuman 的应用潜力广泛,可以用于制作演讲视频、演示乐器演奏等。经过测试,该技术在多个质量基准上均优于现有系统,显示出其卓越的性能。这一发展出现在 AI 视频生成技术日益竞争激烈的背景下,谷歌、Meta 和微软等公司也在积极追逐类似技术。

然而,尽管 OmniHuman 为娱乐制作、教育内容创作及数字通讯带来了变革的可能,但也引发了关于合成媒体潜在误用的担忧。研究团队将在即将召开的计算机视觉会议上展示他们的研究成果,虽然具体的时间和会议尚未公布。

论文:https://arxiv.org/pdf/2502.01061

划重点:

🌟 OmniHuman 是一款新型 AI,能够将单张照片转化为逼真的全身视频。  

📊 该技术经过18700小时的人类视频数据训练,结合多种输入信号以提升生成效果。  

⚖️ 尽管具有广泛应用潜力,但也引发了关于合成媒体可能被滥用的担忧。  

相关资讯

字节跳动 OmniHuman 多模态视频生成模型即将上线,图片 + 音频便可生成视频

据第一财经报道,即梦 AI 相关负责人透露,OmniHuman 模型未来会进行小范围内测,官方也会对这一功能设置严格的安全审核机制,并对输出的视频标注水印以作提醒。

​字节跳动推出 OmniHuman-1:让一张照片变成会说话生动的虚拟人

想象一下,仅凭一张照片,就能在几秒钟内看到这个人说话、做动作,甚至进行表演,这就是字节跳动推出的 OmniHuman-1的魅力所在。 这款近期在网上走红的人工智能模型,可以通过生成高度逼真的视频,使静态图像焕发活力,配合音频片段,实现口型同步、全身肢体动作和丰富的面部表情。 与传统的深度伪造技术不同,OmniHuman-1不仅仅局限于人脸替换,而是能够完整地动画化整个身躯,包括自然的手势、姿态,以及与物体的互动。

字节最新OmniHuman数字人模型即将上线即梦

近期,即梦AI在官方社交媒体上发布了一条新功能上线预告片。 视频显示,采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,有望大幅提升AI短片的制作效率和质量。 图片来自即梦AI视频号内容截图OmniHuman技术主页信息显示,该模型为字节跳动自研的闭源模型,可支持肖像、半身以及全身等不同尺寸的图片输入,并根据输入的音频,在视频中让人物生成与之匹配的动作,包括演讲、唱歌、乐器演奏以及移动。