购物网站怎么做优化,设计师论坛平台有哪些,建设银行报网站,cms系统设计本文介绍一个拥有无限场景开放式驾驶仿真器#xff1a;PGDrive#xff0c;通过 Procedural Generation 技术可以生成无限多的驾驶场景#xff0c;由香港中文大学周博磊团队开发。
论文地址#xff1a;https://arxiv.org/pdf/2012.13681.pdf
项目地址#xff1a;https://… 本文介绍一个拥有无限场景开放式驾驶仿真器PGDrive通过 Procedural Generation 技术可以生成无限多的驾驶场景由香港中文大学周博磊团队开发。
论文地址https://arxiv.org/pdf/2012.13681.pdf
项目地址https://decisionforce.github.io/pgdrive/ 0. Absrtact
这里先给出本文摘要
在过去的几年中基于学习的自动驾驶系统learning-based self driving system受到了越多越多的关注。为了保证安全性自动驾驶系统首先在模拟器中开发和验证然后再应用到真实世界中。但是大多数现有的驾驶模拟器仅包含一组固定的场景和数量有限的配置设置。这很容易造成系统的过拟合以及缺乏对未见场景的泛化能力。
为了更好地评估和改善端到端驾驶系统的泛化能力本文将介绍一个开放、高度可配置的驾驶模拟器 PGDrive模拟器具有procedural generation 的特征。模拟器首先通过提出的生成算法从基本blocks中采样来生成多样化的道路网络。然后将它们转变为交互式训练环境在该环境中以逼真的运动学方法渲染车辆附近的交通流。实验结果证实随着procedural generation的场景数量的增加能够提高自动驾驶汽车在不同交通密度和道路网络场景的泛化能力。 1. Introduction Related Work
( 本文的引言部分和第二部分研究现状这里就不详细介绍了大家可以查看原文我在这里大致总结下。)
Self Driving 自动驾驶研究可以分为两类模块化modular和端到端end-to-end。在模块化研究中自动驾驶系统由许多子系统组成如感知定位规划控制决策等。模块化设计的优势是可解释性如果发生故障或意外行为则可以轻松识别出发生故障的模块。 但是设计和维护模块需要花费大量的人力并且还可能会因人工设计而导致系统内部冗余。另一方面一种流行的端到端方法是通过强化学习 驾驶汽车。近年来强化学习能够通过与环境交互来发现特定于任务的知识因此大大减轻了对精心设计和领域知识的需求。 同时强化学习主体通过对环境的探索来学习因此其能力不限于训练数据。Driving Simulators 这里介绍了8种常用的驾驶模拟器CARLAGTA VSUMMITFlowTORCSDuckietownHighway-envSMARTS。它们的主要劣势是地图场景有限不能提供多样的训练场景来帮助自动驾驶汽车提高泛化能力。Procedural Feneration 这里介绍了过程生成技术使用到了数据增强域随机化GAN等技术来设计过程生成算法。Generalization 这里提出强化学习可以解决过拟合现象在本文作者中比较了SAC和PPO两种强化学习算法的学习能力。 2. PGDrive Simulator
下表给出了PGDrive与其它驾驶模拟器的比较可以看到PGDrive最突出的特征是支持Procedural Generation可以生成无限多的驾驶场景。 A. Road Blocks
如下图所示有7种基本道路块road blockStraightRampForkRoundaboutCurveT-IntersectionIntersection。 它们是基本的道路块可以任意组合来形成道路网络。
B. Procedural Generation of Driving Scene 重点
下面将介绍本文提出的Procedural Generation算法如下图所示。
首先随机选择一个基本road blockGwG_wGw。随机旋转所选择的road block判断GwG_wGw和GnetG_{net}Gnet之间是否能连接起来如果成功的话则将新块GwG_wGw添加到GnetG_{net}Gnet中这里至多进行TTT次尝试每个GnetG_{net}Gnet包含nnn个blocks。最后是对交通流进行初始化设置包括汽车类型运动学参数目标速度等。 3. Experiments
Results on Generalization
论文比较了SAC和PPO两种强化学习算法的泛化能力可以看到随着训练场景数量的增加算法在测试集上的性能不断提高其中SAC算法性能优于PPO。 最后作者在项目网站上也给出了一个视频demo。 Reinforcement Learning 自动驾驶仿真