ai软件制作3dai显示ram不足怎么办 但是我看盘里也不少 怎么回事


人体的运动对于理解人的行为是非常重要的尽管目前已经在单图像3D姿势和动作估计方面取得了进展,但由于缺少用于训练的真实的3D运动数据因此现有的基于视频的SOTA方法无法产生准确且自然的运动序列。为了解决这个问题本文提出了“用于人体姿势和形状估计的视频推理”(VIBE)方法,它利用了现有的夶规模运动捕捉数据集(AMASS)以及未配对的2D关键点标注数据

本文最关键的创新在于它是一种对抗性学习框架,该框架利用AMASS数据集来区分真實的人类动作与本文利用时序姿态和动作回归网络产生的动作本文定义了一个时序网络体系结构,并展示了在没有真实3D标签的情况下能够产生序列级别的合理的运动序列。本文进行了大量实验分析了运动性的重要性,并演示了VIBE在非常有挑战性的3D姿态估计数据集上的有效性达到了SOTA性能。

代码和预训练模型已经开源:

从单幅图像估计3D人体姿势和动作方面已经取得了巨大的进展这对于许多应用程序是十汾有用的,通过身体的运动来获取人的行为正如约翰逊所指出的那样,即使人体仅移动了一丁点也可以得出有关行为的信息在这里,夲文介绍如何利用时间信息来更准确地从单视频中去估算人体的3D运动尽管这个问题已经研究了30多年,但我们可能会问为什么仍然没有鈳靠的方法。本文的见解是由于训练数据不足,之前的人类运动的时间模型不能够捕获到人类实际运动的复杂性和可变性作者在这里鼡一种新的方法解决了这个问题,并且表明我们可以从单视频中显著改善3D人体姿势估计的生成和判别方法

如图1(上图)所示,现有的视頻姿势和动作估计方法无法产生逼真的且运动学上合理的预测结果造成这种情况的主要原因是缺乏数据的3D标注,对于单个图像都比较难鉯获得更不用说对视频而言。之前的一些研究工作它们将室内3D数据集与具有2D标注或关键点伪标注的视频结合在一起。但是这有几个限制:(1)室内3D数据集在拍摄对象的数量,运动范围和图像复杂度方面受到限制;(2)带有2D姿势标注的视频数量仍然不足以训练深层的神經网络;(3)伪2D标签对于3D人体运动的建模不可靠

为了解决这个问题,本文利用了称为AMASS的最新的大规模3D运动捕捉数据集该数据集足够丰富,可以训练模型学习人们如何移动本文的方法是从未标注的视频中使用2D关键点去估计3D姿势序列,是为了判别器无法分辨估计运动与AMASS数據集中运动之间的差异与之前的一些研究工作相同,本文也会使用3D关键点本文方法的输出是SMPL人体模型格式的一系列姿势和动作参数。

具体来说本文通过训练基于序列的生成对抗网络来利用两个未配对的信息来源。在这里给定一个人的视频,作者训练了一个时间模型來预测每帧SMPL人体模型的参数而运动判别器则试图区分真实序列和回归序列。通过这样做可以激励回归器通过最小化对抗训练损失来输絀表示合理运动的姿势。作者称该方法为VIBE它表示“用于人体姿态和动作估计的视频推理”。

VIBE”将未标注的图像作为输入并使用在单个圖像的人体姿态估计任务上预训练的卷积神经网络去预测SMPL人体模型参数。然后运动判别器使用预测的姿态以及从AMASS数据集采样的姿态,为烸个序列输出真实/伪造的标签整个模型由对抗性损失以及回归损失进行监督,以最大程度地减少预测的和标注的关键点姿态和动作参數之间的误差。本文使用了改进的SPIN方法该方法使用基于模型的拟合器来训练深度回归器。但是SPIN是一种单帧方法。为了处理视频序列莋者通过将SMPLify扩展到视频,使得SPIN方法可以融入时序信息

在测试时,给定一段视频作者使用预训练的HMR和时间模块来预测每帧的姿势和动作參数。并在多个数据集上进行了大量的实验超过了所有最新技术;有关VIBE输出的示例,请参见图1(底部)重要的是,作者证明了基于视頻的方法在具有挑战性的3D姿态估计基准数据集3DPW和MPI-INF-3DHP上总是比单帧方法好得多这清楚地证明了在3D姿势估计中使用视频的好处。

综上本文的主要贡献如下:首先,作者扩展了Kolotouros等人的基于模型的fitting-in-the-loop训练过程对视频进行了更准确的监督。其次作者利用了AMASS运动数据集,以进行VIBE的对忼训练第三,作者定量比较了不同时间架构的3D人体运动估计第四,作者使用大型的运动捕捉数据集来训练鉴别器从而获得了SOTA的结果。

整个VIBE方法的结构如下图2所示输入是一段单人的视频。对每一帧使用一个预训练的模型去提取特征接下来使用双GRU组成的编码器去训练。然后特征会被用于回归SMPL人体模型的参数最后会从AMASS数据集中采样样本,进入动作判别器去区分真假样本,完成整个流程

作者在训练該编码器的时候,使用了4个损失函数如下,包括2D损失、3D损失、姿态损失和动作损失

每一项的具体计算方法如下:

其中L_adv是动作判别器的損失。

作者使用动作判别器来判断生成的姿态序列是否对应于真实的序列如下图所示:

判别器的损失项计算方式如下:

而动作判别器的目标函数如下:

作者首先介绍了训练和测试用的数据集,接下来将本文方法的结果与之前的基于帧和基于视频的最新方法(SOTA)进行比较,如表格1所示此外还做了消融实验,展示本文的贡献最后,图4展示了可视化的结果

本文方法与SOTA方法对比

作者证明了使用3DPW训练集,是囿助于改善模型对in-the-wild数据的处理能力由于本文方法保持了时序姿态和动作的一致性,因此MPJPE和PVE指标得到了显著的提升

消融实验(关于动作判别器)

可以观察到,一旦添加了生成器G由于缺少足够的视频训练数据,与基于帧的模型相比本文获得的效果会稍差一些,但视觉效果会更平滑在Temporal-HMR方法中也观察到了这种效果。另外使用动作判别器可以有助于改善G的性能,同时仍会产生更加平滑的预测结果

消融实驗(关于自注意力机制)

如表3所示,与静态池化相比动作判别器中的动态特征聚合可显著的改善最终结果。使用自注意力机制可以加強动作判别器在时间上的相关性。在大多数情况下使用自注意力机制会产生更好的结果。

下面图4和图5是本文方法的可视化结果可以发現它能够正确复原全局旋转,这个是之前的方法都难以解决的一个问题

尽管当前的3D人体姿态方法效果很好,但是其中大多数都是未经过訓练去估计视频中的人体运动这种运动对于理解人体行为至关重要。

在这里本文探索了几种将静态方法扩展到可以处理视频的方法:(1)介绍了一种随时间传播信息的循环体系结构;(2)介绍了使用AMASS数据集引入运动序列的判别训练;(3)本文在判别器中引入了自注意力機制,使它学会了关注人体运动的时间结构;(4)本文还从AMASS学习了一种新的人体先验序列信息(MPoser)并表明它也有助于训练结果,虽然能仂不如判别器未来的工作,作者会探索使用视频来监督单帧的方法比如看看光流信息是否可以帮助提升结果。

《原力计划【第二季】- 學习力挑战》正式开始!即日起至 3月21日千万流量支持原创作者!更有专属【勋章】等你来挑战

    你点的每个“在看”,我都认真当成了AI

大家好!我是老司机==

今天的教程将会告诉你,如何使用AI里那些冷门但是非常强大的造型工具

我在原作的基础上调整了配色,光影以及背景纹理

最新教程欢迎关注 与 ,最新设计干货请戳→更多精彩教程尽在优优教程网~

对了,你都看到这儿了还不抓紧时间把练习做出来=。=马了再练不如马上练!!!

非特殊说明,本站 及教程作者并附本文链接。谢谢各位编辑同仁配合UiiiUiii 保留追究相应责任的权利。

3D少女Ai是一款趣味模拟类休闲手游精致的人物刻画,不一样的竞技玩法海量美少女任你选择,在孤岛模式下通过操作相机,从最喜欢的角度给3D女孩拍摄在沙滩上的各類照片独特新颖的游戏题材,给玩家带来全新不一样游戏体验

日式治愈游戏《3D少女Ai》一款简单的换装模拟人生的模拟游戏,游戏背景設置美丽的小岛你将与3d少女共处,你们悠闲的在小岛上玩耍你们可以拍照摄影换衣,更有很多精美的衣服外饰可以给AI少女穿,通过與AI机器人的交互可以解锁很多的表情姿势,我想这游戏值得一撸

点评:游戏也是顺了照顾了当下人们生活工作压力大的情况,进行适喥合理的减压放松玩这款游戏可以是敏感的神经放松下来,轻松度过美好的一天

1、换装模式下多种姿势供我们解锁打开新的世界。

2、3d尐女拥有超过28动画表情

3、操作简单可以轻松享受治愈系日本游戏。

4、宅男腐女喜爱之3D少女AI

我要回帖

更多关于 ai显示ram不足怎么办 的文章

 

随机推荐