郭璞的量子位报告来自傲云飞思| QbitAI,微信官方账号,一个3D狗头卡通人物:
在上面画一个骨架:
呃?您可以移动:
同样的,你也可以让3D小男孩动起来:
让3D高大上的大姐心动:
让3D猫活蹦乱跳:
简而言之,一切都应该只是一个静态的3D角色模型。无论是人还是动物,或者是自然界不存在的动漫创意人物,都可以是肤浅的,从静态到动态:
连影子都配合的很好!
我只知道无骨鸡和无骨鸭爪,没想到还有其他人反过来。
这一切都是由一个叫RigNet的AI自动完成的。只要设计出角色的3D动态形状,就可以自动预测角色的骨架,估算骨架外皮肤的重量,生成角色运动的图像。
比手工动画方便多了。如果能用于3D动画或者3D游戏制作,以后就不用担心延期或者跳票了。
这项研究也发表在SIGGRAPH 2020上,作者来自马萨诸塞大学阿默斯特分校和多伦多大学。
多网协同实现AI让3D角色动起来需要两步:首先确定骨架的位置,然后预测骨架外皮肤的重量。
骨骼有关节,可以旋转,所以AI在预测的时候应该先找到那些关节。
首先,使用GMEdgeNet图神经网络来预测顶点到相邻关节的位移。
这样,骨头大概会从某个地方出来。
同时准备另一个GMEdgeNet,参数和上一个不一样。它用于预测网格上的注意函数。图上位置越红,关注度越强。
重点,GMEdgeNet长这样,以后用:
有了这个准备,我们就可以用聚类模型来寻找关节的位置了。
关节的分布与生物意义上的脊椎动物并不完全相同,但鉴于它们只是追求外在的运动效果,而不是做骨骼装饰,有一个大致的位置来代表身体的弯曲节点是可以的。
现在我们已经找到了关节,让我们连接关节,并在其上附加一块骨头。
骨骼网络模型和最小生成树算法被用来安装骨骼。BoneNet负责预测每两个关节中哪些关节是骨骼的正确位置,符合一般动物的身体结构。
BoneNet模型看起来像这样:
同时,还需要为这个3D角色找到“根关节”,也就是下图中的小红点,可以理解为“重心”,需要使用RootNet模型。
这真是“难以忘怀”。
好了,既然关节、骨骼、重心都在了,那就要让这块骨头感受到肉体的重量,这样才能符合自然规律和人的感知而运动。
皮肤“称重”的任务还是由GMEdgeNet模型来完成,它预测骨骼的皮肤重量。
门户项目主页:https://zhan-xu.github.io/rig-net/
地址:https://people.cs.umass.edu/~zhanxu/papers/RigNet.pdf
吉图布:https://github.com/zhan-xu/RigNet
—结束—
量子qbitai头条签约作者
关注我们,第一时间获悉前沿科技动态。