人类的预测力+ViT会产生什么样的化学反应使机器人的动作规划能力快速准确
这是李菲菲团队的最新研究——mask vit,通过MVM和mask视觉建模对Transformer进行预训练,从而建立视频预测模型。
结果表明,MaskViT不仅可以生成256*256的视频,而且机器人动作规划的推理速度提高了512倍。
让我们看看这是什么样的研究。
从人类身上寻找灵感
神经科学领域的研究表明,人类的认知和感知能力是由一种预测机制支持的这个世界的预测模型可以用来模拟,评估和选择不同的可能行动对于人类来说,这个过程快速而准确
如果机器人能被赋予类似的预测能力然后,他们可以在复杂和动态的环境中快速计划和执行各种任务
比如通过可视化模型进行预测控制可能是一种方式,但也需要更高的计算能力和精度于是,团队想到了最近的ViT架构,以及以何MAE为代表的基于MVM和掩蔽视觉建模的自监督预训练表示
可是,实现它仍然有许多技术挑战。
一方面,全局注意机制的复杂度与输入序列长度的平方成正比,导致视频处理的成本很高另一方面,视频预测任务和自回归掩模视觉预训练之间存在不一致性在实践中,模型必须从开始就预测完整的未来帧序列,这导致了较差的视频预测质量
基于这一背景,李菲菲团队提出了MaskVit,即通过掩蔽视觉建模对变压器进行预训练,从而建立视频预测模型。
有两个具体的设计决策。
首先,为了提高记忆和训练的效率,使用了两种类型的窗口注意:空间注意和时空注意第二,在训练过程中,掩模的标记比率是可变的在推理阶段,通过迭代细化生成视频,其中根据掩模调度函数逐渐降低掩模率
实验结果
研究小组在三个不同的数据集和四个不同的指标中评估了MaskViT结果表明,与之前的先进方法相比,MaskViT表现出了更好的性能,可以生成分辨率为256 × 256的视频
烧蚀实验也在BAIR进行。
随后,团队还演示了真实机器人使用MaskViT进行实时规划的效果。
推理速度最高可提升512倍。
研究人员表示,这项工作表明,我们可以通过使用具有最少领域知识的面具视觉建模的通用框架,赋予智能主体强大的预测模型但同时,它也有一定的局限性比如每一帧量化时都会出现闪烁伪像,尤其是在背景静态的RoboNet视频中
如果要扩大视频预测的规模,还是很有挑战性的,尤其是在摄像机运动很多的场景下未来,他们将探索将这种视频预测方法集成到更复杂的规划算法中值得一提的是,今年5月,何明凯的团队提出了视频版的MAE,发现最佳掩蔽率高达90%
纸质链接:
项目链接:
他明凯的论文:
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。