只要做出角色3D模型,AI就能让它动起来!再也不怕3D动画拖更了丨SIGGRAPH 2020
郭一璞 发自 云凹非寺量子位 报道 | 公众号 QbitAI一只3D的狗头卡通角色:
http://pic4.zhimg.com/v2-132c6b93c059eab33edaca01fc9b107b_r.jpg
给它画上骨架:
诶?就可以动起来了:
http://pic4.zhimg.com/v2-ebd0cb0822fdd022a160fd063aa24b3f_b.gif
同样的方式,也可以让3D小男孩动起来:
http://pic4.zhimg.com/v2-ae0d64273ee39b592bf159f1a6d63c17_r.jpg
让3D高挑大姐姐动起来:
http://pic4.zhimg.com/v2-1310c5cfc34abbe48d397d6da740aa67_r.jpg
让3D猫猫活蹦乱跳:
http://pic2.zhimg.com/v2-914acdca89a9f32169f4e74943f50ea9_r.jpg
总之,一切原本应该只是静态的3D角色模型,不管是人是动物,还是自然界不存在的卡通创意角色,都能见皮知骨,由静到动:
http://pic4.zhimg.com/v2-0582da6f807f70e6763fe2fbbe2b9c33_r.jpg
http://pic4.zhimg.com/v2-e040f7e79a72bfadb8717e438dd73abb_r.jpg
连影子都配合的非常好!
只知道脱骨鸡、脱骨鸭掌,没想到,还有人反着来。
这一切,都是一个叫做RigNet的AI自动完成的。只要设计好角色的3D动态外形,它就可以自动预测角色骨架,预估骨架外皮肤的重量,生成角色运动的图像。
这可比人工制作动画便利多了,要是能用在3D动画或者3D游戏制作上,以后就不用担忧拖更或跳票了呢。
这项研究也登上了SIGGRAPH 2020,作者来自马萨诸塞大学阿默斯特分校和多伦多大学。
http://pic2.zhimg.com/v2-7b443ce1b24b21cc2ac5cdba08043659_r.jpg
多网络合作实现
AI让3D角色动起来,需要经历两个法式:先是确定骨骼的位置,再预测骨架之外皮肤的重量。
骨骼是有关节、会动弹的,因此AI预测的时候也要先找到那些关节。
先用一个GMEdgeNet图神经网络,预测顶点向相邻关节的位移。
这样,骨头概略长在什么处所就出来了。
同时,还筹备了另一个GMEdgeNet,参数和前面的阿谁不太一样,用它来预测网格上的注意力函数,图上越红的位置,注意力就越强。
划重点,GMEdgeNet长这样,后面还要用:
做了这样的筹备,就可以用聚类模型,找到关节的位置。
http://pic4.zhimg.com/v2-cd7bfaaf7cd3f18aa9279263ad343c0f_r.jpg
关节的分布和生物学意义上的脊椎动物并不完全一致,不外鉴于只是追求外在的运动效果,并不是做骷髅装饰品,因此有大致的位置来暗示身体弯曲的节点就OK了。
此刻找到了关节,我们再把关节连起来,给它装上骨头。
装骨头用的是BoneNet模型和最小生成树算法,BoneNet负责预测每两个关节的连接里,哪些连接才是正确的骨头的位置,符合一般动物的身体布局。
BoneNet模型长这样:
同时,还要给这个3D角色找到“根关节”,就是下图的小红点,可以理解为“重心”,需要用到RootNet模型。
这真是“刻骨铭心”啊。
好的,此刻关节、骨架和重心都有了,需要让这幅骨头感知一下皮肉的重量,它才能运动得符合自然规律也符合人们的不雅观感。
给皮肉“称重”的任务,还是GMEdgeNet模型来做,它来预测骨架蒙皮权重。
传送门
项目主页:https://zhan-xu.github.io/rig-net/
论文地址:https://people.cs.umass.edu/~zhanxu/papers/RigNet.pdf
GitHub:https://github.com/zhan-xu/RigNet
—完—
@量子位 · 追踪AI技术和产物新动态
深有感到的伴侣,欢迎附和、存眷、分享三连վ'ᴗ' ի ❤ 我是看到高挑大姐姐点赞的 影子不是渲染的嘛。。。 有点意思哦 像mixamo 跟影子有啥关系? 不得不感叹CG技术发展太快太快! 我有思考过用图网络做这个玩意,没想到人家做出来了 这有我觉得我这篇是戛然而止? 不错的前景广阔
页:
[1]
2