机器人车辆路径规划包括跟踪 最近的移动障碍物外文翻译资料

 2022-11-28 14:53:35

英语原文共 6 页,剩余内容已隐藏,支付完成后下载完整资料


外文翻译

题 目 机器人车辆路径规划包括跟踪最近的移动障碍物

2009年欧洲控制大会议事录bull;匈牙利布达佩斯,2009年8月23日至26日

机器人车辆路径规划包括跟踪

最近的移动障碍物

Ranka Kuliuuml;,IEEE会员,Zoran Vukiuuml;,IEEE会员

摘要:考虑自动机器人车辆在具有静止和移动障碍物的环境中路径生成问题。 开发了一种基于改进的Kohonen规则和行为克隆的MKBC算法。 MKBC算法作为RBF神经网络的改进,使用训练值而不是之前的值作为加权值。 这使得智能系统从实例中(操作者的演示)学习控制机器人车辆。在这种情况下,机器人车辆像人类操作者一样寻找最近运动障碍物。MKBC算法的重要特性是多项式复杂度,而其他大多数路径规划算法的重要特性是指数。实验确定了MKBC参数变化的鲁棒性,其适用于实时应用。

一、引言

近年来随着对移动机器人,特别是航空太空探索、农业自动化、集体移动机器人游戏等的领域兴趣越来越大[15]。这些领域的应用需要可移动机器人在高度不确定但部分已知的环境中移动。在未知的障碍轨迹中避免移动的障碍物仍然是很大的挑战,本文章开创了移动机器人控制的研究领域,我们研究中使用与静止和移动障碍物相关的研究方法。有许多方法可用于研究这个领域,最简单的避免碰撞算法即属于生成和测试的范例,但是它在三维复杂度上避免了多面体障碍物的集合是NP - hard[1] - [3]。另一种方法[5]是将障碍物视为相互排斥的潜在领域,而车辆的目标位置被认为是强大吸引力区域,车辆跟随潜在的梯度矢量场运动,但这些方法仅尝试查找局部最小值。因此我们考虑使用基于将技能转移到控制器上的车辆运动规划[6],[7]。在第二节中将给出了智能控制器的概念。在第三节中介绍域模型。在第四节关于学习系统被修改。在第五节中,特别是关于移动障碍物的避免,实验和结果是公开明了的。在第六节中给出了结论,并讨论了未来进一步发展的可能性。

二、基于行为克隆的运动规划

从上文两种方法的命名上看,它们很好区分。前者把技能视为是在与操作者对话中获得的东西,在这个过程中,从操作者控制车辆的来获得期望的技能。但这里出现了一些困难,因为技能是人类潜意识的行动,所以不能完全自觉和可靠地描述出来。另一种方法是从假设的技能出发,从它的表现痕迹上使用学习算法重建[ 6 ] - [ 8 ]。Sammut、 Hurst、Kedzier 和 Michie阐述了一个属于飞行控制区的解决方案。我们的想法[ 9 ],[ 10 ]是使一个智能系统学习例子(操作者示范)以像人类操作员一样控制车辆避障。通过克隆人类操作员的控制器开发的思路如图1所示。

图1. 行为克隆过程分三个阶段执行

在避障问题中,以上想法可以用以下方式解释。首先在第一个模拟阶段,又称为训练阶段,操作员引导车辆避免位于其工作空间中不动的障碍物,在此阶段中被评估为相关的变量将写入日志文件。在第二个模拟阶段,称为学习阶段,机器学习程序从日志文件中获取数据,生成操作者轨迹的微分方程。在第三个模拟阶段,称为验证阶段,操作员被排除在车辆控制过程之外,车辆仅由在学习阶段的微分方程克隆操作者控制。重复改善问题领域表现,并从成功的标准学习系统中克隆需要开发流程。同时使用“几个”车辆模型(问题域表示)和“几个”机器学习系统,以此尝试找到一个适当的域模型和适当的机器学习系统,使车辆能够根据标准的克隆程序成功避免障碍。

三、域模型

  1. 车辆运动模型

车辆使用下列运动模型

其中:Psi;是车辆的航向角(如果车辆平行于x轴定向,则为Psi;= 0); r和v分别是控制变量,即期望的转速和平移速度; x,y是位置坐标,△t是采样时间,n是时间索引。 车辆被表示为几何图形,事实上其尺度一定不能被忽视。

  1. 环境模型

环境模型等于车辆重心距离目标位置(dxG和dyG)和障碍物(di)的距离。 dxG和dyG的计算公式为:dxG = x-xG,dyG = y-yG,其中xG,yG是目标位置坐标。 障碍物由其特征值表示,如图1所示。为了模拟目的将障碍区划分为子区域,计算第i个障碍物到车辆距离di的过程中,针对三角形障碍物进行补充说明:SubArea-4:

yB和yC是在B点和C点在BC线上是垂直的线,

图2.三角障碍环境

  1. 克隆成功标准

性能误差是评价克隆质量的重要因素。对于理想情况下车辆轨迹的目标概念和近似概念相同,性能误差等于零。无障碍在X-Y平面的理想轨迹上,例如车辆起步位置和目标位置之间的直线。在训练阶段大多去实现这一轨迹。位置误差Exy是基于直线上的运算符和克隆轨迹的距离dop(i)和dcl(i),而 我们的问题是避免障碍,所以我们只能考虑Eperf

(1)

为了避免n个障碍,我们必须找到(d)m= min{di ,i=1,..n}来定义:

(2)

最终,我们可以说两个在等式(1)和(2)中成功产生较低性能误差的克隆。

  1. 车辆目标位置为障碍物

车辆目标位置与环境模型相关,目标位置可以作为障碍,其在[9],[10]中尚未得到应用。 在此思路上目标位置和车辆重心的距离都被考虑在内。 现在属性号被扩展,最小距离由关系决定:dmin = min {dgoal,d1,d2,...,dk},其中d1,d2,...,dk是模拟距离以避免K障碍。事实上当我们将车辆目标位置视为障碍物时,我们可以使车辆路径生成变得简单,但不会变得最佳。

四、 学习系统

A.基于径向神经网络函数(RBF)

该模型通常称为径向基函数(RBF)网络。 将RBF网络与先前的径向模型区分开来的最重要的属性是其自适应性。 它通常被允许利用相对较少数量的本地调谐单元。 RBF网络是由几位作者独立提出的[12] - [14]。

为解决RBF网络的完善。需要考虑表示连续多变量函数样本的m个标记对{xj,yj}的训练集。 标准函数是在给定训练集上被最小化的误差函数E,期望开发一种通过更新RBF的自由参数来最小化的E训练方法。 首先要考虑的训练方法E。

B. RBF神经网络算法与行为克隆

下面给出了三维运动学模型RBF神经网络算法[10]。

控制策略为r =(Psi;des -Psi;)/△t,v = 0.1,其中Psi;des是所需的角度值Psi;。 IW和LW值总是在相应的指导示例中给出,如下面给出的。

C.修改Kohonen规则 - MKBC算法

该算法基于以前给出的RBF神经网络和Kohonen规则的概念。 其权重向量最接近输入向量的神经元被更新以变得更加接近输入向量。 假设第i个神经元获胜,则输入LW权重矩阵的第i行的元素如图所示进行调整。

其中q是时间索引,p(q)是输入向量,D必须根据域做出特别调整。 原始Kohonen规则使用上一次实例的值作为权重系数,而我们的算法使用训练值。 这使得智能系统能够从例子(操作人员的演示)中学习,以控制车辆避开障碍物,就像人类操作者一样。至少在这种情况下,要更好的是Kohonen规则的原始算法。 算法如下:

该算法意味着通过使用N个训练样本,加权矢量LW [i,j,n0],{i = 1,M; j = 1,N}(n0表示训练示例se)。 那么LW [i,j,n0]需要根据:1)输入向量p [i,n],{i = 1,M}的实际值(输入向量的训练值为p [ i,n0]),以及2)调谐矢量D [i,n],{i = 1,M}的实际值,其中n是时间索引。 所得到的加权矢量是LW [i,j,n],并且根据输入矢量p [i,n]的偏差。 得出输出向量是[i,n],并且与权重向量相连,如算法的两条最后一行所示。

D.MKBC算法和运动规划

MKBC算法用于运动规划域。作为航向角度的学习变量的训练值Psi;(小节III.A),权重向量的运动规划使用LW(表I)。首先,算法需要考虑到机器人车辆与最近障碍物之间的期望距离,期望值以及引导示例设置的距离dmin(i)的值,修改输入向量dmin:

(3)

其中dmin_old是两个重心的距离的当前值:即机器人车辆和最近的障碍物。sigma;需要调整其值以保持期望的距离。 我们预计,在MKBC算法的上下文中,该因素对于在障碍物避免中保持期望的距离具有很大的影响。该算法需要修改训练向量实例LW。 修改使用:

IW和LW有N个训练示例,其中IW是最小距离dmin(小节3.4)的训练值,LW是航向角度Psi;的训练值;当前输入值dmin和调谐因子alpha;,调谐因子sigma;和ddes为 距离时,dmin的期望值必须永久保持。算法在某种意义上使用方位角的最小二乘法的函数来找到所需的输出值。 现在,算法通过保持距离机器人车辆最近的障碍物所需的距离来输出目标角度(Psi;des)的期望值以实现避障。我们的MKBC算法的进步如下。

另一方面,当使用修正加权参数后的Kohonen规则时,算法不使用加权值IW作为与之前的距离dmin,而是始终使用IW作为距离dmin的训练值来确定航向角度Psi;的训练值LW。这使得智能系统能够从示例(操作者的演示)中学习,和人类操作者一样控制车辆避开障碍物。根据RBF神经网络的简单特性,MKBC主要特征是操作的克隆和匹配。因为系数alpha;有不断变化的值,所以首先在调节时,障碍物边缘的车辆距离小时(即i.e.dminasymp; 0.08)该因子使得航向角度Psi;增加。错误性能指数Exy具有该alpha;值的最小值,当alpha;因子增加时自动车辆在不接触障碍物的情况下移动的总时间T也增加。

有一个类似的算法和上文所提的算法有一样运动的速度。 我们在引导示例集中有新的向量LWV,把机器人车辆平移速度Vmin的训练速度作为实际阶段中接近最近障碍物的速度。这些收集的训练实例与Dmin的实例相关联。

五、实验与结果

A.静止和移动障碍实验

我们现在可以阐明和ȥ=ȥ(dmin)的联系一样,v = v(dmin)也存在同样联系。在第4章C节中给出,它们直接是完全一样的联系。为了收集训练实例,避障任务只是为了避免障碍。机器人起始位置是其目标位置,只选择一个最优路径并在适当的训练实例框架下。根据早期的避开障碍实验[10],我们发现需要进行新的训练过程,以形成一个与两个可变的控制变量:ȥ, v新的相关联指导示例集。在这过程中,使用机器学习克隆操作员的熟练操作。为了使用几个训练序列的指导示例集合,即在迭代中选择训练示例,要通过几个步骤来做相应的提升。使用训练序列的稳定状态来制作新的示例集。从适当的训练序列中得到的适当指导实例集在表1中给出。平移速度v仅与距离dmin相关连,即机器人车辆的控制策略中移动障碍物速度不被考虑,因为它是上述所要求的[10]。机器人车辆旋转和平移速度由等式(4)和(5)给出:

(4)

(5)

其中△t= 0.05和△t= 0.2,F是产生机器人车辆平移运动的力。 根据MKBC算法(第4章.B.节),执行一下两个实验,其控制参数如表II所示。

实验1包含由操作员控制的2个移动障碍物:P5和P6。 P5和P6开始移动后,在T1 = 3.2 [s]时P6停止。 当他们移动它们的旋转角度是0 [rad]和v5 = v6 = 0.1 [m / s]。 如图3(a)(b)所示,当P5继续移动其旋转角度和平移速度增加时,我们可以看到机器人车辆轨迹有三个部分:1)当最接近的障碍物是不动障碍物P6时,2)当最接近的障碍物移动障碍物P5时,3)当最接近的障碍物是P5并且机器人车辆平移速度快速增加时。正如我们预期的那样,MKBC算法能够解决一般的跟踪最近移动障碍物的问题。 但我们需要减少出现在机器人车辆的输出变量。

根据实验1、实验2设置不同的参数sigma;和alpha;,如表II所示sigma;= 1.0、alpha;= 80.2。移动速度控制变量等式(6)中的F,如指示示例集如表3所示。如上文所示实验2包含两个障碍物:P5和P6作为移动障碍物。开始时P5和P6同时移动,在T1 = 3.42 [s]时P6停止。在P5和P6移动它们的旋转角度为0 [rad]且v5 = v6 = 0.1 [m / s]。如图4所示,机器人车辆从位置S开始,考虑移动障碍物速度、旋转角度和与机器人车辆的距离,以此避免了两个移动障碍物。如图3所示当P6停止时P5继续移动,并且其旋转角度和平移速度增加。 如图4.b所示,机器人车辆

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[25883],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。