1.本公开涉及无人驾驶技术领域,尤其涉及一种基于传感器的感知结果的无人车运动决策方法及装置。
背景技术:
2.目前,在无人车智能行驶,需要根据无人车上的传感器感知到的信息控制无人车。比如无人车上的传感器感知到无人车前方有行人,那么无人车应该减速慢行或者停车。为了实现对无人车更加精确的运动决策,还应该对传感器感知到的信息进行验证,避免因为信息有漏或者错误造成的安全隐患,但是相关技术没有对传感器感知到的信息进行验证的方法。
3.在实现本公开构思的过程中,发明人发现相关技术中至少存在如下技术问题:无法对无人车上的传感器感知到的信息进行验证的问题。
技术实现要素:
4.有鉴于此,本公开实施例提供了一种基于传感器的感知结果的无人车运动决策方法、装置、电子设备和计算机可读存储介质,以解决现有技术中,无法对无人车上的传感器感知到的信息进行验证的问题。
5.本公开实施例的第一方面,提供了一种基于传感器的感知结果的无人车运动决策方法,包括:通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。
6.本公开实施例的第二方面,提供了一种基于传感器的感知结果的无人车运动决策装置,包括:获取模块,被配置为通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合模块,被配置为融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;模型模块,被配置为将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;第一决策模块,被配置为当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;第二决策模块,被配置为当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。
7.本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
8.本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
9.本公开实施例与现有技术相比存在的有益效果是:通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。采用上述技术手段,可以解决现有技术中,无法对无人车上的传感器感知到的信息进行验证的问题,进而实现对无人车更加精确的控制。
附图说明
10.为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
11.图1是本公开实施例的应用场景的场景示意图;图2是本公开实施例提供的一种基于传感器的感知结果的无人车运动决策方法的流程示意图;图3是本公开实施例提供的一种基于传感器的感知结果的无人车运动决策装置的结构示意图;图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
12.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
13.下面将结合附图详细说明根据本公开实施例的一种基于传感器的感知结果的无人车运动决策方法和装置。
14.图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备1和3,无人车2、服务器4以及网络5。
15.设备1和3可以是硬件,也可以是软件。当终端设备1和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便
携计算机和台式计算机等;当终端设备1和3为软件时,其可以安装在如上的电子设备中。终端设备1和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
16.服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
17.需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1和3,以及无人车2提供各种服务的各种电子设备。当服务器4为软件时,其可以是为终端设备1和3,以及无人车2提供各种服务的多个软件或软件模块,也可以是为终端设备1和3,以及无人车2提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
18.网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(bluetooth)、近场通信(near field communication,nfc)、红外(infrared)等,本公开实施例对此不作限制。
19.用户可以通过终端设备1和3,以及无人车2经由网络5与服务器4建立通信连接,以接收或发送信息等。需要说明的是,终端设备1和3、无人车2、服务器4以及网络5的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
20.图2是本公开实施例提供的一种基于传感器的感知结果的无人车运动决策方法的流程示意图。图2的基于传感器的感知结果的无人车运动决策方法可以由图1的终端设备、或无人车或服务器执行。如图2所示,该基于传感器的感知结果的无人车运动决策方法包括:s201,通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;感知结果s202,融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;s203,将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练感知结果;s204,当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;s205,当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。
21.质量监督模型和后文的标注模型均可以是任意一种常见的神经网络模型,比如均可以是卷积神经网络(cnn)和全连接神经网络(fcn)等(质量监督模型和标注模型可以是一种模型,也可以是两种模型)。多种感知结果可以包括:激光雷达获取到的激光雷达感知结果、摄像头获取到的感知结果(摄像头获取到的感知结果为图片)、毫米波雷达获取到的毫
米波雷达感知结果和超声波雷达获取到的超声波雷达感知结果。目标融合结果包括了多种感知结果所表达的信息,比如目标融合结果包括了摄像头获取到的目标对象的类型(目标对象的类型,包括:行人、机动车和非机动车等),激光雷达、毫米波雷达和超声波雷达获取到的目标对象与无人车的距离和速度等。
22.摄像头获取的感知结果和融合结果作为质量监督模型的输入,质量评价和置信度作为质量监督模型的输出。标注图片可以理解为标注后的摄像头获取的感知结果。质量评价可以理解为质量得分,目标质量评价满足预设条件,可以理解为目标质量得分大于一定的值。其中,本公开中的目标融合结果、目标质量评价和目标置信度等中的“目标”是为了和模型训练中的涉及到的融合结果、质量评价和置信度区分,并无其他含义。比如目标质量得分为9分(满分为10分,一定的值为8分),或者目标置信度为95%(预设阈值为90%),根据目标置信度大于预设阈值,目标质量得分为9分也大于8分。此时用目标融合结果进行运动决策。当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。其中,上一帧的融合结果是指目标融合结果的上一帧,也就是在目标融合结果上一个获取到的融合结果。进行运动决策可以理解为规划无人车的行驶路径,比如目标融合结果显示无人车左前方是学校,无人车右前方有障碍物,那么进行运动决策,就是控制无人车在学校前减速,同时避开障碍物。
23.根据本公开实施例提供的技术方案,通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。采用上述技术手段,可以解决现有技术中,无法对无人车上的传感器感知到的信息进行验证的问题,进而实现对无人车更加精确的控制。
24.在执行步骤s203之前,也就是将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度之前,方法还包括:获取训练数据集,其中,训练数据集,包括:多种场景下的多张图片以及每张图片对应的融合结果,训练数据集中预设比例的多张图片以及每张图片对应的融合结果被标注了对应的质量评价和置信度;基于训练数据集,利用半监督学习训练的方法训练质量监督模型。
25.半监督学习训练的方法可以是self-training(自训练算法),当然也可以是其他常用的半监督学习方法。因为实际操作中一个场景只需要一张图片就可以达到效果了,所以本公开实施例默认的是一个场景有一张图片,当然一个场景也可以多获取几张图片。场景是无人车可以到达的一个地方,比如无人车直行、无人车通过十字路口和学校等都可以是一个场景。一个融合结果实际上是包括其对应的图片的,但是因为图片包含的信息较其他的感知结果更多,所以需要单独再将图片作为一个信息(图片为摄像头获取到的感知结果)。
26.获取训练数据集之前,方法还包括:获取多种场景下的多种感知结果,其中,每种
场景下的多种感知结果包括每种场景对应的图片;融合每种场景下的多种感知结果,得到每种场景对应的融合结果;基于多张图片以及每张图片对应的融合结果,生成训练数据集。
27.每种场景有多种感知结果,其中包括该场景的图片,每种场景对应一个融合结果,一个场景的图片和该场景对应的融合结果也存在对应关系。
28.基于多张图片以及每张图片对应的融合结果,生成训练数据集,包括:对多张图片和多种融合结果进行时间戳对齐操作,得到每张图片和每种融合结果之间的对应关系,其中,每种场景下的多种感知结果和每种场景对应的融合结果均携带有对应的时间戳;基于多张图片以及每张图片对应的融合结果,生成训练数据集。
29.因为每种场景下的多种感知结果均携带有对应的时间戳,所以每种场景对应的融合结果携带有对应的时间戳。每种场景下的多种感知结果还可以是同一个时刻获取的,所以每种场景下的多种感知结果和每种场景对应的融合结果可以携带同一个时间戳。多种场景下的多种感知结果,可以是无人车在行驶中不同时刻获取到多种感知结果,一个时刻对应一个场景(因为无人车是运动的,所以不同时刻的无人车面对的场景不同)。对多张图片和多种融合结果进行时间戳对齐操作,可以找到每个场景下的一张图片和一种融合结果。
30.基于训练数据集,利用半监督学习训练的方法训练质量监督模型,包括:利用训练数据集中被标注了对应的质量评价和置信度的多张图片以及每张图片对应的融合结果训练标注模型;利用训练后的标注模型对训练数据集中没有被标注对应的质量评价和置信度的多张图片以及每张图片对应的融合结果进行标注处理;利用经过标注处理后的训练数据集训练质量监督模型。
31.每张图片以及每张图片对应的融合结果可以看作一个样本,每张图片以及每张图片对应的融合结果所对应的质量评价和置信度可以看作一个样本的标签。在训练数据集中被标注了对应的质量评价和置信度的每张图片以及每张图片对应的融合结果,可以看作是存在标签的样本,在训练数据集中没有被标注了对应的质量评价和置信度的每张图片以及每张图片对应的融合结果,可以看作是不存在标签的样本。利用训练后的标注模型对训练数据集中没有被标注对应的质量评价和置信度的每张图片以及每张图片对应的融合结果进行标注处理,可以理解为利用训练后的标注模型,获取没有被标注对应的质量评价和置信度的每张图片以及每张图片对应的融合结果的伪标签。然后利用存在标签的样本和被标注有伪标签的样本来训练质量监督模型。被标注了对应的质量评价和置信度的多张图片以及每张图片对应的融合结果的数量是训练数据集中样本总数量的预设比例。
32.在步骤s204中,将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度之前,方法还包括:如果质量监督模型被设置在云端上:对质量监督模型进行模型蒸馏处理,得到蒸馏模型;将蒸馏模型下载到无人车上。
33.为了使得质量监督模型提供的服务更加稳定,避免网络断连带来的服务中断的问题,本公开实施例通过模型蒸馏处理,得到场景识别模型对应的模型规模更小的蒸馏模型,将这个模型规模更小的蒸馏模型下载到无人车上,利用这个模型规模更小的蒸馏模型为无人车提供服务。
34.在步骤s204中,将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度之前,方法还包括:如果质量监督
模型被设置在云端上:将云端上的质量监督模型对应的模型调用接口加载到无人车上;利用模型调用接口调用质量监督模型。
35.在本公开实施例中可以通过调用质量监督模型对应的模型调用接口的方式,使得无人车获得云端上的质量监督模型所提供的服务。
36.在一个可选实施例中,根据目标质量得分和目标置信度判定目标融合结果可靠(也就是当目标质量评价满足预设条件或者目标置信度大于预设阈值时),目标融合结果表明无人车左侧前方有行人沿着路边沿行走,右侧路边有机动车停车,无人车右前方有机动车以60km/小时的速度驶来。那么进行运动决策应该满足无人车需要避开右侧路边的机动车、左侧前方的行人,还不需要与右前方的机动车会车。
37.上述所有可选技术方案,可以采用任意结合形成本技术的可选实施例,在此不再一一赘述。
38.下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
39.图3是本公开实施例提供的一种基于传感器的感知结果的无人车运动决策装置的示意图。如图3所示,该基于传感器的感知结果的无人车运动决策装置包括:获取模块301,被配置为通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合模块302,被配置为融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;模型模块303,被配置为将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;第一决策模块304,被配置为当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;第二决策模块305,被配置为当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。
40.质量监督模型和后文的标注模型均可以是任意一种常见的神经网络模型,比如均可以是卷积神经网络(cnn)和全连接神经网络(fcn)等(质量监督模型和标注模型可以是一种模型,也可以是两种模型)。多种感知结果可以包括:激光雷达获取到的激光雷达感知结果、摄像头获取到的感知结果(摄像头获取到的感知结果为图片)、毫米波雷达获取到的毫米波雷达感知结果和超声波雷达获取到的超声波雷达感知结果。目标融合结果包括了多种感知结果所表达的信息,比如目标融合结果包括了摄像头获取到的目标对象的类型(目标对象的类型,包括:行人、机动车和非机动车等),激光雷达、毫米波雷达和超声波雷达获取到的目标对象与无人车的距离和速度等。
41.摄像头获取的感知结果和融合结果作为质量监督模型的输入,质量评价和置信度作为质量监督模型的输出。标注图片可以理解为标注后的摄像头获取的感知结果。质量评价可以理解为质量得分,目标质量评价满足预设条件,可以理解为目标质量得分大于一定的值。其中,本公开中的目标融合结果、目标质量评价和目标置信度等中的“目标”是为了和
模型训练中的涉及到的融合结果、质量评价和置信度区分,并无其他含义。比如目标质量得分为9分(满分为10分,一定的值为8分),或者目标置信度为95%(预设阈值为90%),根据目标置信度大于预设阈值,目标质量得分为9分也大于8分。此时用目标融合结果进行运动决策。当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。其中,上一帧的融合结果是指目标融合结果的上一帧,也就是在目标融合结果上一个获取到的融合结果。进行运动决策可以理解为规划无人车的行驶路径,比如目标融合结果显示无人车左前方是学校,无人车右前方有障碍物,那么进行运动决策,就是控制无人车在学校前减速,同时避开障碍物。
42.根据本公开实施例提供的技术方案,通过多种传感器获取同一时刻同一目标的多种感知结果,其中,多种传感器设置在无人车上,多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合多种感知结果,得到目标融合结果,其中,多种感知结果包括摄像头获取的感知结果;将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。感知结果采用上述技术手段,可以解决现有技术中,无法对无人车上的传感器感知到的信息进行验证的问题,进而实现对无人车更加精确的控制。
43.可选地,模型模块303还被配置为获取训练数据集,其中,训练数据集,包括:多种场景下的多张图片以及每张图片对应的融合结果,训练数据集中预设比例的多张图片以及每张图片对应的融合结果被标注了对应的质量评价和置信度;基于训练数据集,利用半监督学习训练的方法训练质量监督模型。
44.半监督学习训练的方法可以是self-training(自训练算法),当然也可以是其他常用的半监督学习方法。因为实际操作中一个场景只需要一张图片就可以达到效果了,所以本公开实施例默认的是一个场景有一张图片,当然一个场景也可以多获取几张图片。场景是无人车可以到达的一个地方,比如无人车直行、无人车通过十字路口和学校等都可以是一个场景。一个融合结果实际上是包括其对应的图片的,但是因为图片包含的信息较其他的感知结果更多,所以需要单独再将图片作为一个信息(图片为摄像头获取到的感知结果)。获取训练数据集之前,方法还包括:获取多种场景下的多种感知结果,其中,每种场景下的多种感知结果包括每种场景对应的图片;融合每种场景下的多种感知结果,得到每种场景对应的融合结果;基于多张图片以及每张图片对应的融合结果,生成训练数据集。
45.每种场景有多种感知结果,其中包括该场景的图片,每种场景对应一个融合结果,一个场景的图片和该场景对应的融合结果也存在对应关系。
46.可选地,模型模块303还被配置为对多张图片和多种融合结果进行时间戳对齐操作,得到每张图片和每种融合结果之间的对应关系,其中,每种场景下的多种感知结果和每种场景对应的融合结果均携带有对应的时间戳;基于多张图片以及每张图片对应的融合结果,生成训练数据集。
47.因为每种场景下的多种感知结果均携带有对应的时间戳,所以每种场景对应的融合结果携带有对应的时间戳。每种场景下的多种感知结果还可以是同一个时刻获取的,所
以每种场景下的多种感知结果和每种场景对应的融合结果可以携带同一个时间戳。多种场景下的多种感知结果,可以是无人车在行驶中不同时刻获取到多种感知结果,一个时刻对应一个场景(因为无人车是运动的,所以不同时刻的无人车面对的场景不同)。对多张图片和多种融合结果进行时间戳对齐操作,可以找到每个场景下的一张图片和一种融合结果。
48.可选地,模型模块303还被配置为利用训练数据集中被标注了对应的质量评价和置信度的多张图片以及每张图片对应的融合结果训练标注模型;利用训练后的标注模型对训练数据集中没有被标注对应的质量评价和置信度的多张图片以及每张图片对应的融合结果进行标注处理;利用经过标注处理后的训练数据集训练质量监督模型。
49.每张图片以及每张图片对应的融合结果可以看作一个样本,每张图片以及每张图片对应的融合结果所对应的质量评价和置信度可以看作一个样本的标签。在训练数据集中被标注了对应的质量评价和置信度的每张图片以及每张图片对应的融合结果,可以看作是存在标签的样本,在训练数据集中没有被标注了对应的质量评价和置信度的每张图片以及每张图片对应的融合结果,可以看作是不存在标签的样本。利用训练后的标注模型对训练数据集中没有被标注对应的质量评价和置信度的每张图片以及每张图片对应的融合结果进行标注处理,可以理解为利用训练后的标注模型,获取没有被标注对应的质量评价和置信度的每张图片以及每张图片对应的融合结果的伪标签。然后利用存在标签的样本和被标注有伪标签的样本来训练质量监督模型。被标注了对应的质量评价和置信度的多张图片以及每张图片对应的融合结果的数量是训练数据集中样本总数量的预设比例。
50.可选地,模型模块303还被配置为如果质量监督模型被设置在云端上:对质量监督模型进行模型蒸馏处理,得到蒸馏模型;将蒸馏模型下载到无人车上。
51.为了使得质量监督模型提供的服务更加稳定,避免网络断连带来的服务中断的问题,本公开实施例通过模型蒸馏处理,得到场景识别模型对应的模型规模更小的蒸馏模型,将这个模型规模更小的蒸馏模型下载到无人车上,利用这个模型规模更小的蒸馏模型为无人车提供服务。
52.可选地,模型模块303还被配置为如果质量监督模型被设置在云端上:将云端上的质量监督模型对应的模型调用接口加载到无人车上;利用模型调用接口调用质量监督模型。
53.在本公开实施例中可以通过调用质量监督模型对应的模型调用接口的方式,使得无人车获得云端上的质量监督模型所提供的服务。
54.在一个可选实施例中,根据目标质量得分和目标置信度判定目标融合结果可靠(也就是当目标质量评价满足预设条件或者目标置信度大于预设阈值时),目标融合结果表明无人车左侧前方有行人沿着路边沿行走,右侧路边有机动车停车,无人车右前方有机动车以60km/小时的速度驶来。那么进行运动决策应该满足无人车需要避开右侧路边的机动车、左侧前方的行人,还不需要与右前方的机动车会车。
55.应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
56.图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算
机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
57.示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在电子设备4中的执行过程。
58.电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
59.处理器401可以是中央处理单元(central processing unit,cpu),也可以是其它通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
60.存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。进一步地,存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
61.所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本技术的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
62.在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
63.本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
64.在本公开所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以
通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
65.作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
66.另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
67.集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
68.以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
技术特征:
1.一种基于传感器的感知结果的无人车运动决策方法,其特征在于,包括:通过多种传感器获取同一时刻同一目标的多种感知结果,其中,所述多种传感器设置在无人车上,所述多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合所述多种感知结果,得到目标融合结果,其中,所述多种感知结果包括摄像头获取的感知结果;将摄像头获取的所述感知结果和所述目标融合结果输入质量监督模型,输出目标质量评价和/或与所述目标质量评价对应的目标置信度,感知结果所述质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当所述目标质量评价满足预设条件或者所述目标置信度大于预设阈值时,用所述目标融合结果进行运动决策;当所述目标质量评价不满足所述预设条件或者所述目标置信度小于等于所述预设阈值时,参考上一帧的融合结果进行所述运动决策。2.根据权利要求1所述的方法,其特征在于,所述将摄像头获取的所述感知结果和所述目标融合结果输入质量监督模型,输出目标质量评价和/或与所述目标质量评价对应的目标置信度之前,所述方法还包括:获取训练数据集,其中,所述训练数据集,包括:多种场景下的多张图片以及每张图片对应的融合结果,所述训练数据集中预设比例的多张图片以及每张图片对应的融合结果被标注了对应的质量评价和置信度;基于所述训练数据集,利用半监督学习训练的方法训练所述质量监督模型。3.根据权利要求2所述的方法,其特征在于,所述获取训练数据集之前,所述方法还包括:获取多种场景下的多种感知结果,其中,每种场景下的多种感知结果包括每种场景对应的图片;融合每种场景下的多种感知结果,得到每种场景对应的融合结果;基于多张图片以及每张图片对应的融合结果,生成所述训练数据集。4.根据权利要求3所述的方法,其特征在于,所述基于多张图片以及每张图片对应的融合结果,生成所述训练数据集,包括:对多张图片和多种融合结果进行时间戳对齐操作,得到每张图片和每种融合结果之间的对应关系,其中,每种场景下的多种感知结果和每种场景对应的融合结果均携带有对应的时间戳;基于多张图片以及每张图片对应的融合结果,生成所述训练数据集。5.根据权利要求2所述的方法,其特征在于,所述基于所述训练数据集,利用半监督学习训练的方法训练所述质量监督模型,包括:利用所述训练数据集中被标注了对应的质量评价和置信度的多张图片以及每张图片对应的融合结果训练标注模型;利用训练后的标注模型对所述训练数据集中没有被标注对应的质量评价和置信度的多张图片以及每张图片对应的融合结果进行标注处理;利用经过所述标注处理后的训练数据集训练所述质量监督模型。6.根据权利要求1所述的方法,其特征在于,所述将摄像头获取的所述感知结果和所述
目标融合结果输入质量监督模型,输出目标质量评价和/或与所述目标质量评价对应的目标置信度之前,所述方法还包括:如果所述质量监督模型被设置在云端上:对所述质量监督模型进行模型蒸馏处理,得到蒸馏模型;将所述蒸馏模型下载到所述无人车上。7.根据权利要求1所述的方法,其特征在于,所述将摄像头获取的所述感知结果和所述目标融合结果输入质量监督模型,输出目标质量评价和/或与所述目标质量评价对应的目标置信度之前,所述方法还包括:如果所述质量监督模型被设置在云端上:将所述云端上的所述质量监督模型对应的模型调用接口加载到所述无人车上;利用所述模型调用接口调用所述质量监督模型。8.一种基于传感器的感知结果的无人车运动决策装置,其特征在于,包括:获取模块,被配置为通过多种传感器获取同一时刻同一目标的多种感知结果,其中,所述多种传感器设置在无人车上,所述多种传感器,包括:激光雷达、摄像头、毫米波雷达和/或超声波雷达;融合模块,被配置为融合所述多种感知结果,得到目标融合结果,其中,所述多种感知结果包括摄像头获取的感知结果;模型模块,被配置为将摄像头获取的所述感知结果和所述目标融合结果输入质量监督模型,输出目标质量评价和/或与所述目标质量评价对应的目标置信度,所述质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;第一决策模块,被配置为当所述目标质量评价满足预设条件或者所述目标置信度大于预设阈值时,用所述目标融合结果进行运动决策;第二决策模块,被配置为当所述目标质量评价不满足所述预设条件或者所述目标置信度小于等于所述预设阈值时,参考上一帧的融合结果进行所述运动决策。9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
技术总结
本公开涉及无人驾驶技术领域,提供了基于传感器的感知结果的无人车运动决策方法及装置。该方法包括:通过多种传感器获取同一时刻同一目标的多种感知结果;融合多种感知结果,得到目标融合结果;将摄像头获取的感知结果和目标融合结果输入质量监督模型,输出目标质量评价和/或与目标质量评价对应的目标置信度,质量监督模型为半监督模型,其用有限的标注图片和感知结果的质量评价和置信度,进行训练;当目标质量评价满足预设条件或者目标置信度大于预设阈值时,用目标融合结果进行运动决策;当目标质量评价不满足预设条件或者目标置信度小于等于预设阈值时,参考上一帧的融合结果进行运动决策。果进行运动决策。果进行运动决策。
技术研发人员:张馨元
受保护的技术使用者:新石器慧通(北京)科技有限公司
技术研发日:2022.04.24
技术公布日:2022/5/25
转载请注明原文地址:https://tc.8miu.com/read-7569.html