服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

图片+音频秒变视频!西交大开源SadTalker:头、唇运动超自然,中英双语全能,还会唱歌

日期: 来源:新智元收集编辑:新智元



  新智元报道  

编辑:LRS
【新智元导读】让图片配合你的音频出演,配套sd-webui插件已发布!


随着数字人概念的火爆、生成技术的不断发展,让照片里的人物跟随音频的输入动起来也不再是难题。


不过目前「通过人脸图像和一段语音音频来生成会说话的人物头像视频」仍然存在诸多问题,比如头部运动不自然、面部表情扭曲、视频和图片中的人物面部差异过大等问题。


最近来自西安交通大学等的研究人员提出了SadTalker模型,在三维运动场中进行学习从音频中生成3DMM的3D运动系数(头部姿势、表情),并使用一个全新的3D面部渲染器来生成头部运动。


论文链接:https://arxiv.org/pdf/2211.12194.pdf

项目主页:https://sadtalker.github.io/


音频可以是英文、中文、歌曲,视频里的人物还可以控制眨眼频率!



为了学习真实的运动系数,研究人员显式地对音频和不同类型的运动系数之间的联系进行单独建模:通过蒸馏系数和3D渲染的脸部,从音频中学习准确的面部表情;通过条件VAE设计PoseVAE来合成不同风格的头部运动。


最后使用生成的三维运动系数被映射到人脸渲染的无监督三维关键点空间,并合成最终视频。


最后在实验中证明了该方法在运动同步和视频质量方面实现了最先进的性能。


目前stable-diffusion-webui的插件也已经发布!


照片+音频=视频


数字人创作、视频会议等多个领域都需要「用语音音频让静态照片动起来」的技术,但目前来说这仍然是一项非常有挑战性的任务。


之前的工作主要集中在生成「唇部运动」,因为嘴唇的动作与语音之间的关系最强,其他工作也在尝试生成其他相关运动(如头部姿势)的人脸视频,不过生成视频的质量仍然非常不自然,并受到偏好姿势、模糊、身份修改和面部扭曲的限制。


另一种流行的方法是基于latent的人脸动画,主要关注在对话式人脸动画中特定类别的运动,同样很难合成高质量的视频,因为虽然三维面部模型中包含高度解耦的表征,可以用来单独学习面部不同位置的运动轨迹,但仍然会生成不准确的表情和不自然的运动序列。


基于上述观察结果,研究人员提出了SadTalker(Stylized Audio-Driven Talking-head),通过隐式三维系数modulation的风格化音频驱动的视频生成系统。



为了实现这一目标,研究人员将3DMM的运动系数视为中间表征,并将任务分为两个主要部分(表情和姿势),旨在从音频中生成更真实的运动系数(如头部姿势、嘴唇运动和眼睛眨动),并单独学习每个运动以减少不确定性。


最后通过一个受face-vid2vid启发设计的3D感知的面部渲染来驱动源图像。


3D面部


因为现实中的视频都是在三维环境中拍摄的,所以三维信息对于提高生成视频的真实性至关重要;不过之前的工作很少考虑三维空间,因为只从一张平面图像很难获得原始的三维稀疏,并且高质量的面部渲染器也很难设计。


受最近的单图像深度三维重建方法的启发,研究人员将预测的三维形变模型(3DMMs)的空间作为中间表征。


在3DMM中,三维脸部形状S可以被解耦为:



其中S是三维人脸的平均形状,Uid和Uexp是LSFM morphable模型的身份和表情的正则,系数α(80维)和β(64维)分别描述人物身份和表情;为了保持姿势的差异性,系数r和t分别表示头部旋转和平移;为了实现身份无关的系数生成,只将运动的参数建模为{β, r, t}。


即,从驱动的音频中单独学习头部姿势ρ=[r, t]和表情系数β,然后使用这些运动系数被隐式地调制面部渲染用于最终的视频合成。


通过音频生成运动稀疏


三维运动系数包含头部姿势和表情,其中头部姿势是全局运动,而表情是相对局部的,所以完全学习所有的系数会给网络带来巨大的不确定性,因为头部姿势与音频的关系相对较弱,而嘴唇的运动则是与音频高度关联的。


所以SadTalker使用下面PoseVAE和ExpNet分别生成头部姿势和表情的运动。


ExpNet


学习到一个可以「从音频中产生准确的表情系数」的通用模型是非常困难的,原因有二:


1)音频到表情(audio-to-expression)不是对不同人物的一对一的映射任务;

2)表情系数中存在一些与音频相关的动作,会影响到预测的准确性。



ExpNet的设计目标就是为了减少这些不确定性;至于人物身份问题,研究人员通过第一帧的表情系数将表情运动与特定的人物联系起来。


为了减少自然对话中其他面部成分的运动权重,通过Wav2Lip和深度三维重建的预训练网络,只使用嘴唇运动系数(lip motion only)作为系数目标。


至于其他细微的面部运动(如眼睛眨动)等,可以在渲染图像上的额外landmark损失中引入。


PoseVAE


研究人员设计了一个基于VAE的模型以学习谈话视频中真实的、身份相关(identity-aware)的风格化头部运动。



在训练中,使用基于编码器-解码器的结构对固定的n个帧进行姿势VAE训练,其中编码器和解码器都是两层MLP,输入包含一个连续的t帧头部姿势,将其嵌入到高斯分布;在解码器中,网络从采样分布中学习生成t帧姿势。


需要注意的是,PoseVAE并没有直接生成姿势,而是学习第一帧的条件姿势的残差,这也使得该方法在测试中能在第一帧的条件下生成更长、更稳定、更连续的头部运动。


根据CVAE,PoseVAE中还增加了相应的音频特征和风格标识作为rhythm awareness和身份风格的条件。


模型使用KL散度来衡量生成运动的分布;使用均方损失和对抗性损失来保证生成的质量。


3D-aware面部渲染


在生成真实的三维运动系数后,研究人员通过一个精心设计的三维图像动画器来渲染最终的视频。


最近提出的图像动画方法face-vid2vid可以隐含地从单一图像中学习3D信息,不过该方法需要一个真实的视频作为动作驱动信号;而这篇论文中提出的脸部渲染可以通过3DMM系数来驱动。


研究人员提出mappingNet来学习显式3DMM运动系数(头部姿势和表情)和隐式无监督3D关键点之间的关系。



mappingNet通过几个一维卷积层建立,类似PIRenderer一样使用时间窗口的时间系数进行平滑处理;不同的是,研究人员发现PIRenderer中的人脸对齐运动系数将极大地影响音频驱动的视频生成的运动自然度,所以mappingNet只使用表情和头部姿势的系数。


训练阶段包含两个步骤:首先遵循原论文,以自监督的方式训练face-vid2vid;然后冻结外观编码器、canonical关键点估计器和图像生成器的所有参数后,以重建的方式在ground truth视频的3DMM系数上训练mappingNet进行微调。


在无监督关键点的域中使用L1损失进行监督训练,并按照其原始实现方式给出最终生成的视频。


实验结果


为了证明该方法的优越性,研究人员选取了Frechet Inception Distance(FID)和Cumulative Probability Blur Detection(CPBD)指标来评估图像的质量,其中FID主要评估生成帧的真实性,CPBD评估生成帧的清晰度。


为了评估身份保留程度,使用ArcFace来提取图像的身份嵌入,然后计算源图像和生成帧之间身份嵌入的余弦相似度(CSIM)。


为了评估唇部同步和口型,研究人员评估了来自Wav2Lip的口型的感知差异,包括距离评分(LSE-D)和置信评分(LSE-C)。


在头部运动的评估中,使用Hopenet从生成的帧中提取的头部运动特征嵌入的标准偏差来计算生成头部运动的多样性;计算Beat Align Score来评估音频和生成头部运动的一致性。


在对比方法中,选取了几种最先进的谈话头像生成方法,包括MakeItTalk、Audio2Head和音频转表情生成方法(Wav2Lip、PC-AVS),使用公开的checkpoint权重进行评估。



从实验结果中可以看出,文中提出的方法可以展现出更好的整体视频质量和头部姿势的多样性,同时在唇部同步指标方面也显示出与其他完全说话的头部生成方法相当的性能。


研究人员认为,这些唇语同步指标对音频太敏感了,以至于不自然的唇部运动可能会得到更好的分数,不过文中提出的方法取得了与真实视频相似的分数,也表明了该方法的优势。



不同方法生成的视觉结果中可以看到,该方法与原始目标视频的视觉质量非常相似,而且与预期的不同头部姿势也非常相似。


与其他方法相比,Wav2Lip生成了模糊的半脸;PC-AVS和Audio2Head很难保留源图像的身份;Audio2Head只能生成正面说话的脸;MakeItTalk和Audio2Head由于二维扭曲而生成了扭曲的人脸视频。


参考资料:
https://sadtalker.github.io/





相关阅读

  • 守法骑行宣传月|颧骨骨折、头部被严重划伤......

  • 头部是人体最脆弱也是最容易受到致命伤害的部位电动车骑乘人员一旦发生事故头部与坚硬的路面或车辆碰撞无异于以卵击石头盔不佩戴,危险时常在案例警示4月9日23时许,井陉县。马
  • 内斗不断、估值虚高,喜马拉雅不敢上市

  • 世界最长的河流成就了“亚马逊”,世界最大的宝藏成就了“阿里巴巴”,那世界最高的山脉“喜马拉雅”会成为什么? 2012年,面对未来,雄心万丈的余建军,斥资6万元为喜马拉雅买下了这句
  • 提高到24倍!兰州住房公积金贷款余额系数调整

  • 奔流新闻讯(记者 张继培)记者从兰州住房公积金管理中心获悉,4月10日起,兰州住房公积金贷款余额系数由原来的18倍提高至24倍,缴存时间系数也将相应调整。据了解,调整后,贷款职工实际
  • 方法|R语言回归分析——多元线性回归分析

  • 一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解
  • 谁能吃到「耳朵经济」的红利?

  • 作者:青梅关于耳朵的「声意」近日,配音演员姜广涛涉嫌刑事犯罪一举冲上微博热搜,也让许多吃瓜网友好奇,这是何许人也?对不是配音圈的粉丝朋友来说,这个名字还十分的陌生,但是他的声

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四
  • 美国对华2000亿关税清单,到底影响有多大?

  • 1 今天A股大跌,上证最大跌幅超过2%。直接导火索是美国证实计划对华2000亿美元产品加征25%关税。 听起来,2000亿美元数目巨大,我们来算笔账。 2000亿美元,按现在人民币汇率

最新文章

  • 【解局】“美元霸主地位正面临巨大挑战”

  • “每天晚上我都会问自己,为什么?为什么这些国家都必须以美元结算?为什么不能是人民币或者其他货币?为什么?为什么?这到底是谁决定的?为什么全世界一定要用美元?为什么不是人民币作为
  • 【第2920期】饿了么开源自研多端框架 MorJS

  • 前言好久没看到开源的产品了,要有信心噢!今日前端早读课文章由 @MorJS 技术团队分享,@脸盲的 Zaki 投稿,公号:阿里巴巴终端技术授权。正文从这开始~~MorJS 是什么?简介Mor (发音为 /
  • 【早说】默认Ta不懂、不会

  • 这些早说,渐渐影响了做事的思想和行为。当你在职场上发现对方暴露出的问题时,应该先默认他是不懂、不会,而不是他的意愿和态度出了问题。这篇早说对你有帮助,帮” 赞 “一下,期待