1.本说明书涉及一种用于远程监视和控制自主运载工具的操作的计算机系统。
背景技术:
2.自主运载工具(av)可以用于将人和/或货物(例如,包裹、对象或其它物品)从一个地点运输到另一地点。作为示例,av可以导航到人的地点,等待人登上av,并且穿越到指定目的地(例如,由人选择的地点)。作为另一示例,av可以导航到货物的地点,等待货物被装载到av中,然后导航到指定目的地(例如,货物的交付地点)。
3.在一些实现中,可以远程监视和/或控制av的操作。例如,可以使用远离av的一个或多个计算机系统来实现命令中心。命令中心可以从av接收信息(例如,描述av的操作的数据),并且向av传输信息(例如,指示av进行某些任务的命令)。
技术实现要素:
4.本技术提供了一种用于增强现实的方法,包括:通过至少一个处理器确定为第一自主运载工具处于佩戴增强现实显示装置的用户的视场中;通过所述至少一个处理器确定与所述第一自主运载工具的操作有关的第一数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第一数据的至少一部分呈现给所述用户,其中,使所述第一数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使图形用户界面呈现在所述用户的视场中,以及使所述第一数据的该至少一部分包括在所述图形用户界面上,以使得所述第一数据的该至少一部分看起来在所述用户的视场中被布置成在空间上邻近所述第一自主运载工具。
5.另外,所述方法还包括:通过所述至少一个处理器确定为多个第二自主运载工具同时处于所述用户的视场中;通过所述至少一个处理器确定与所述第二自主运载工具中的各第二自主运载工具的操作有关的第二数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第二数据的至少一部分呈现给所述用户,其中,使所述第二数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使所述图形用户界面呈现在所述用户的视场中,以及使所述第二数据的至少一部分包括在所述图形用户界面上,以使得所述第一数据的至少第二部分看起来在所述用户的视场中被布置成在空间上邻近所述第二自主运载工具中的各第二自主运载工具。
6.本技术提供了一种用于增强现实的系统,包括:增强现实显示装置;至少一个处理器;以及至少一个非暂时性计算机可读介质,其存储有指令,所述指令在由所述至少一个处理器执行时使得所述至少一个处理器进行操作,所述操作包括:通过所述至少一个处理器确定为第一自主运载工具处于佩戴所述增强现实显示装置的用户的视场中;通过所述至少一个处理器确定与所述第一自主运载工具的操作有关的第一数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第一数据的至少一部分呈现给所述用户,其中,使所述第一数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使图形用
户界面呈现在所述用户的视场中,以及使所述第一数据的该至少一部分包括在所述图形用户界面上,以使得所述第一数据的该至少一部分看起来在所述用户的视场中被布置成在空间上邻近所述第一自主运载工具。
附图说明
7.图1示出具有自主能力的av的示例。
8.图2示出示例“云”计算环境。
9.图3示出计算机系统。
10.图4示出av的示例架构。
11.图5示出感知模块可以使用的输入和输出的示例。
12.图6示出lidar系统的示例。
13.图7示出操作中的lidar系统。
14.图8示出lidar系统的操作的附加细节。
15.图9示出规划模块的输入和输出之间的关系的框图。
16.图10示出路径规划中所使用的有向图。
17.图11示出控制模块的输入和输出的框图。
18.图12示出控制器的输入、输出和组件的框图。
19.图13示出包括用于监视和控制若干av的操作的增强现实系统的示例系统。
20.图14a示出示例增强现实系统。
21.图14b示出用于增强现实系统的示例头戴式部件。
22.图14c示出可以由增强现实系统呈现的示例图形用户界面gui。
23.图15a至15c示出可以由增强现实系统呈现的其它示例gui。
24.图16示出可以由增强现实系统呈现的另一示例gui。
25.图17a和17b示出增强现实系统的示例用例。
26.图18a和18b示出增强现实系统的另一示例用例。
27.图19a至19c示出增强现实系统的另一示例用例。
28.图20示出用于监视和控制一个或多个av的操作的示例处理的流程图。
具体实施方式
29.在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,本发明可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
30.在附图中,为了便于描述,示出了示意要素(诸如表示装置、模块、指令块和数据要素的那些要素)的具体排列或次序。然而,本领域技术人员应当理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
31.此外,在附图中,连接要素、诸如实线或虚线或箭头用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关
系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多个信号路径(例如,总线)。
32.现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
33.下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
34.1.总体概述
35.2.系统概述
36.3.av架构
37.4.av输入
38.5.av规划
39.6.av控制
40.7.启用了增强现实的av命令中心
41.总体概述
42.一个或多个计算机系统可以控制一个或多个av(例如,一队av)的操作。例如,计算机系统可以将av部署到一个或多个地点或区域,向各个av分配运输任务,向各个av提供导航指令,向各个av分配维护任务,以及/或者向各个av分配其它任务。
43.此外,可以使用一个或多个计算机系统来监视av的操作。例如,计算机系统可以从各个av收集信息,处理收集到的信息,并且将该信息呈现给一个或多个用户,使得保持向用户通知av的操作。
44.在一些实现中,用户可以使用增强现实系统来监视和控制一队av。例如,用户在一队av之间行走时佩戴增强现实显示装置(例如,头戴式部件)。当用户接近某些av时,显示装置呈现图形用户界面(gui),其将关于av的信息覆盖在用户的视场中(例如,使得与特定av相关的信息看起来悬停在该av附近)。例如,显示装置可以呈现关于av的部署状态、与av相关的维护或维修问题的信息、关于av的调度信息、或关于av的组织信息。此外,用户可以(例如,通过做出映射到特定命令的姿势)与图形用户界面交互以进行关于av的特定任务。
45.这些技术的一些优点包括提高用户可以与一队av交互的速度、准确性和效率。例如,增强现实系统使用户能够直观地检索有关特定av的信息(例如,通过接近和注视特定av),而无需用户手动输入选择。此外,用户可以执行关于av的任务,而无需重复将他们的视线转移到手持式装置。
46.作为示例,当与不利用增强现实的系统交互时,用户可能在一个或多个av与手持
式装置之间重复地转移他们的视线。例如,为了在他们的手持式装置上选择特定av,用户可能查看在他们的手持式装置的用户界面上呈现的av列表。此外,用户可能将他们的视线转移到av以确定av的标识特性(例如,av上的标识符、av的外观、av的地点等),并将他们的视线转移回手持式装置的用户界面以手动输入过滤标准(例如,根据av的特性对列表进行过滤)。此外,用户可能使用手持式装置从经过滤的列表中手动选择特定av。
47.此外,为了检索关于所选择的av的特定类型的信息,用户可能查看在他们的移动装置的用户界面上呈现的一个或多个选项(例如,各个选项与可以呈现的不同类型的信息相对应),并且手动选择选项之一来检索相应的数据。用户可能通过在av和用户界面之间转移他们的视线(例如,以识别可能的错误或不一致)来验证所检索到的信息与所选择的av相对应。
48.此外,为了命令所选择的av进行某个任务,用户可能查看在他们的移动装置的用户界面上呈现的一个或多个选项(例如,各个选项对应于可以由av进行的不同类型的任务),并且手动选择选项之一来指示av进行相应的任务。用户可能通过在av和用户界面之间转移他们的视线(例如,以识别可能的错误或不一致)来验证av正在进行所选择的任务。
49.相比之下,当与本文所述增强现实系统中的一个或多个交互时,用户可以通过注视av、接近av和/或允许av接近他来选择特定av,并且在保持他们的视线(例如,通过将他们的视线保持在av上,以及/或者通过针对av做出物理姿势)的同时选择av。此外,可以呈现关于av的信息,使得该信息看起来漂浮在av之上或周围,从而使得用户在查看信息时不需要转移他们的视线。此外,用户可以(例如,通过做出姿势)命令所选择的av进行特定任务而无需将他们的视线从av转移。因此,用户可以以更有效且直观的方式以及不太可能导致错误或疏忽的方式来监视和控制av的操作。
50.系统概述
51.图1示出具有自主能力的av 100的示例。
52.如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于完全av、高度av和有条件av。
53.如本文所使用的,自主运载工具(av)是一种具有自主能力的运载工具。
54.如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
55.如本文所使用的,“轨迹”是指将av从第一时空地点导航到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
56.如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(诸如,模数
转换器)、数据存储装置(诸如,ram和/或非易失性存储器)、软件或固件组件和数据处理组件(诸如,专用集成电路)、微处理器和/或微控制器。
57.如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由av运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由av外部的源提供的一个或多个分类或标记的对象。
58.如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村区域的污物通道等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(suv)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条通道的物理区域。
59.如本文所使用的,“车道”是道路的可被运载工具穿越的部分。有时基于车道标记来识别车道。例如,车道可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木、或者例如在欠发达地区应避免的自然障碍物)来定义车道。也可以独立于车道标记或物理特征来解释车道。例如,可以基于原本缺少将会被解释为车道边界的特征的在区域中无障碍物的任意路径来解释车道。在示例情景中,av可以解释通过田野或空地的无障碍物部分的车道。在另一示例情景中,av可以解释通过不具有车道标记的宽(例如,足够两个或更多个车道宽)道路的车道。在该情景中,av可以将与车道有关的信息通信至其它av,使得其它av可以使用相同的车道信息来协调av之间的路径规划。
60.如本文所使用的,“同伦”(homotopy)是指av在穿越特定路线时av可以遵循的av轨迹的约束集合的子集。
61.如本文所使用的,“可行”是指av在向目的地行驶时是否可以遵守同伦中的约束。
[0062]“一个或多个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
[0063]
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
[0064]
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或
多个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
[0065]
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
[0066]
如本文所使用的,av系统是指av以及支持av操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,av系统并入在av内。在实施例中,av系统跨若干地点分布。例如,av系统的一些软件是在类似于下面关于图3描述的云计算环境300的云计算环境中实现的。
[0067]
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全av、高度av和有条件av,诸如分别为所谓的第5级、第4级和第3级运载工具(见sae国际标准j3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容并入本文件,用于了解运载工具自主权等级的更多详细信息)。本文件所描述的技术也适用于部分av和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见sae国际标准j3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个第1级、第2级、第3级、第4级和第5级运载工具系统可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从完全av到人类操作的运载工具范围内的任何级别的运载工具受益。
[0068]
av与需要人类驾驶员的运载工具相比存在优势。一个优势是安全性。例如,在2016年,美国经历了600万起汽车事故、240万人受伤、40000人死亡和1300万辆运载工具碰撞事故,估计社会成本为9100亿美元多。从1965年到2015年,每行驶1亿英里的美国交通事故死亡人数已从约6人减少到约1人,部分是由于运载工具中所部署的附加安全措施。例如,认为与将发生碰撞有关的额外半秒的警告减轻了60%的前后碰撞。然而,被动安全特征(例如,安全带、安全气囊)在改进该数字方面有可能已达到它们的极限。因而,诸如运载工具的自动控制等的主动安全措施是改进这些统计数据的可能的下一步。由于在95%的碰撞中认为人类驾驶员是造成严重碰撞前事件的原因,因此自动驾驶系统例如通过以下操作,有可能实现更好的安全结果:比人类更好地可靠地识别和避免紧急情况;做出比人类更好的决策,比人类更好地遵守交通法规,并且比人类更好地预测将来事件;并且比人类更好地可靠地控制运载工具。
[0069]
参考图1,av系统120使av 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
[0070]
在实施例中,av系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。使用术语“操作命令”来表示使得运载工具进行动作(例如,驾驶机动动作)的可执行指令(或指令集)。操作命令可以非限制性地包括用于使运载工具开始向前移动、停止向前移动、开始向后移动、停止向后移动、加速、减速、进行左转和进行右转的指令。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
[0071]
在实施例中,av系统120包括用于测量或推断av 100的状态或条件的属性的传感器121,这些属性诸如是av的位置、线速度和角速度及线加速度和角加速度、以及航向(例如,av 100的前端的方向)。传感器121的示例是gps、测量运载工具线加速度和角速率两者的惯性测量单元(imu)、用于测量或估计轮滑移率的轮速率传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角度和角速率传感器。
[0072]
在实施例中,传感器121还包括用于感测或测量av的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122,lidar 123,radar,超声波传感器,飞行时间(tof)深度传感器,速率传感器,温度传感器,湿度传感器和降水传感器。
[0073]
在实施例中,av系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,数据存储单元142与以下关于图3描述的rom 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信信道传输到av 100。
[0074]
在实施例中,av系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向)测量或推断的属性传送到av 100。这些装置包括运载工具到运载工具(v2v)和运载工具到基础设施(v2i)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具对运载工具(v2v)、运载工具对基础设施(v2i)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(v2x)通信。v2x通信通常符合一个或多个通信标准,用于与av进行的和在av之间的通信。
[0075]
在实施例中,通信装置140包括通信接口。例如,有线、无线、wimax、wi-fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到av系统120。在实施例中,远程数据库134嵌入在如图2中所描述的云计算环境200中。通信接口140将从传感器121收集的数据或与av 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向av 100传输与遥操作有关的信息。在一些实施例中,av 100与其它远程(例如,“云”)服务器136通信。
[0076]
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点的数据)。这些数据存储在av 100上的存储器144中,或者通过通信信道从远程数据库134传输到av 100。
[0077]
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在av 100上的存储器144中,或者通过通信信道从远程数据库134传输到av 100。
[0078]
位于av 100上的计算装置146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许av系统120执行其自主驾驶能力。
[0079]
在实施例中,av系统120包括耦接到计算装置146的计算机外围设备132,用于向av 100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例
中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
[0080]
在实施例中,av系统120接收并强制执行例如由乘员指定的或者存储在与乘员相关联的简档中的乘员的隐私级别。乘员的隐私级别确定了如何许可使用存储在乘员简档中的以及/或者存储在云服务器136上且与乘员简档相关联的、与乘员相关联的特定信息(例如,乘员舒适度数据、生物测量数据等)。在实施例中,隐私级别指定了一旦接载完成则被删除的与乘员相关联的特定信息。在实施例中,隐私级别指定了与乘员相关联的特定信息,并且标识被授权访问该信息的一个或多个实体。被授权访问信息的所指定的实体的示例可以包括其它av、第三方av系统、或者可以潜在地访问该信息的任何实体。
[0081]
可以在一个或多个粒度级别指定乘员的隐私级别。在实施例中,隐私级别标识要存储或共享的特定信息。在实施例中,隐私级别适用于与乘员相关联的所有信息,使得乘员可以指定不存储或共享她的个人信息。被许可访问特定信息的实体的指定也可以在各种粒度级别指定。被许可访问特定信息的各种实体集例如可以包括其它av、云服务器136、特定第三方av系统等。
[0082]
在实施例中,av系统120或云服务器136确定av 100或另一实体是否可访问与乘员相关联的某些信息。例如,试图访问与特定时空地点有关的乘员输入的第三方av系统必须例如从av系统120或云服务器136获得授权,以访问与乘员相关联的信息。例如,av系统120使用乘员的指定隐私级别来确定是否可以将与时空地点有关的乘员输入呈现给第三方av系统、av 100或另一av。这使得乘员的隐私级别能够指定允许哪些其它实体接收与乘员的动作有关的数据或与乘员相关联的其它数据。
[0083]
图2例示示例“云”计算环境。云计算是一种服务交付模式,用于使得能够方便、按需地在网络上访问可配置计算资源(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)的共享池。在典型的云计算系统中,一个或多个大型云数据中心容纳用于交付云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
[0084]
云计算环境200包括一个或多个云数据中心。一般而言,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,并且每行包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器基于数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)被排列成若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
[0085]
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路耦接的网际网络的任意组合。通过网络交换的数据使用多种网络层协议(诸如,因特网协议(ip)、多协议标签交换(mpls)、异步
传输模式(atm)、帧中继(frame relay)等)进行传输。此外,在网络表示多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络表示一个或多个互连网际网络(诸如公共因特网等)。
[0086]
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(iot)装置、av(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
[0087]
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(asic)或现场可编程门阵列(fpga)的被持久编程为执行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、asic或fpga与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持式装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它装置。
[0088]
在实施例中,计算机系统300包括总线302或用于传达信息的其它通信机制、以及与总线302耦接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,诸如随机存取存储器(ram)或其它动态存储装置,该主存储器306耦接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
[0089]
在实施例中,计算机系统300还包括只读存储器(rom)308或耦接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器的存储装置310,并且该存储装置310耦接到总线302以存储信息和指令。
[0090]
在实施例中,计算机系统300通过总线302耦接到诸如阴极射线管(crt)、液晶显示器(lcd)、等离子体显示器、发光二极管(led)显示器或用于向计算机用户显示信息的有机发光二极管(oled)显示器的显示器312。包括字母数字键和其它键的输入装置314耦接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,诸如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
[0091]
根据一个实施例,本文的技术由计算机系统300响应于处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列而执行。这些指令从诸如存储装置310的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
[0092]
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性
介质。非易失性介质例如包括诸如存储装置310的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、cd-rom、任何其它光数据存储介质、任何具有孔型的物理介质、ram、prom和eprom、flash-eprom、nv-ram、或任何其它存储芯片或存储盒。
[0093]
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中产生的声波或光波。
[0094]
在实施例中,各种形式的介质涉及将一个或多个指令的一个或多个序列承载到处理器304以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以可选地在处理器304执行之前或之后存储在存储装置310上。
[0095]
计算机系统300还包括耦接到总线302的通信接口318。通信接口318提供耦接到连接至本地网络322的网络链路320的双向数据通信。例如,通信接口318是综合业务数字网(isdn)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(lan)卡,用于提供与兼容lan的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
[0096]
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(isp)326运营的云数据中心或设备的连接。isp 326又通过现在通常称为“因特网”328的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中这些信号承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
[0097]
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
[0098]
av架构
[0099]
图4示出用于av(例如,图1所示的av 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在av 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的av系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件
(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[asic]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。模块402、404、406、408和410各自有时被称为处理电路(例如,计算机硬件、计算机软件、或者这两者的组合)。模块402、404、406、408和410中的任何或全部的组合也是处理电路的示例。
[0100]
在使用中,规划模块404接收表示目的地412的数据,并且确定表示av100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
[0101]
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
[0102]
规划模块404还从定位模块408接收表示av位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定av位置。例如,定位模块408使用来自gnss(全球导航卫星系统)传感器的数据和地理数据来计算av的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。在实施例中,高精度地图是通过将数据经由自动或手动注释添加到低精度地图所构建的。
[0103]
控制模块406接收表示轨迹414的数据和表示av位置418的数据,并且以将使得av 100行驶轨迹414到达目的地412的方式来操作av的控制功能420a~420c(例如,转向、油门、制动、点火系统)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得av 100左转,并且油门和制动将使得av 100在进行转弯之前暂停并等待经过的行人或运载工具。
[0104]
av输入
[0105]
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a是lidar(光检测和测距)系统(例如,图1所示的lidar 123)。lidar是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。lidar系统产生lidar数据作为输出504a。例如,lidar数据是用于构造环境190的表示的3d或2d点(也称为点云)的集合。
[0106]
另一输入502b是radar(雷达)系统。radar是使用无线电波来获得与附近的物理对象有关的数据的技术。radar可以获得与不在lidar系统的视线内的对象有关的数据。radar系统产生radar数据作为输出504b。例如,radar数据是用于构造环境190的表示的一个或多个射频电磁信号。
[0107]
另一输入502c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦接器件[ccd]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出504c。照相机数据通常采用图像数据(例如,诸如raw、
jpeg、png等的图像数据格式的数据)的形式。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于av而言的。在一些实施例中,照相机系统被配置为“看见”远处的(例如,av前方的远至1公里或更远的)对象。因此,在一些实施例中,照相机系统具有为了感知遥远的对象而优化的诸如传感器和镜头等的特征。
[0108]
另一输入502d是交通灯检测(tld)系统。tld系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉导航信息的其它物理对象有关的信息。tld系统产生tld数据作为输出504d。tld数据经常采用图像数据(例如,诸如raw、jpeg、png等的图像数据格式的数据)的形式。tld系统与包含照相机的系统的不同之处在于:tld系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉导航信息的物理对象有关的信息,使得av 100能够访问这些对象所提供的所有相关导航信息。例如,tld系统的视角为约120度或更大。
[0109]
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至av 100的其它系统(例如,提供至如图4所示的规划模块404),或者可以采用相同类型的单个组合输出或多个组合输出(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型的单个组合输出或多个组合输出(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的形式,将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:在将一个或多个数据处理步骤应用到组合输出之前,将输出组合。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
[0110]
图6示出lidar系统602的示例(例如,图5所示的输入502a)。lidar系统602从发光器606(例如,激光发射器)发射光604a-604c。lidar系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到lidar系统602。(从lidar系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)lidar系统602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与lidar系统相关联的一个或多个数据处理系统生成表示lidar系统的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定av附近的一个或多个物理对象的边界616。
[0111]
图7示出操作中的lidar系统602。在该图所示的情境中,av 100接收采用图像702的形式的照相机系统输出504c和采用lidar数据点704的形式的lidar系统输出504a两者。在使用中,av 100的数据处理系统将图像702与数据点704进行比较。特别地,在数据点704中也识别在图像702中识别出的物理对象706。这样,av 100基于数据点704的轮廓和密度来感知物理对象的边界。
[0112]
图8示出lidar系统602的操作的附加细节。如上所述,av 100基于lidar系统602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从lidar系统602发射的光804a-804d。换句话说,由于lidar系统602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到lidar系统602。在av 100在地面802上行驶时,在没有东西阻挡道路的情况下,lidar系统602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则lidar系统602所发射的光
804e-804f将以与预期一致方式不一致的方式从点810a-810b反射。根据该信息,av 100可以确定存在对象808。
[0113]
路径规划
[0114]
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。一般而言,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要在街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分上行驶的距离。在一些示例中,例如,如果av 100是诸如四轮驱动(4wd)或全轮驱动(awd)小汽车、suv或小卡车等的能够越野的运载工具,则路线902包括诸如未铺面路径或开阔田野等的“越野”路段。
[0115]
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中av 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个或多个车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素来从这多个车道中选择某车道。类似地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将av 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
[0116]
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的av位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则,也称为“规则手册”。规则是使用形式语言(例如,使用布尔逻辑或线性时间逻辑(ltl))指定的。在av 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于av 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
[0117]
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。一般而言,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
[0118]
在实施例中,有向图1000具有表示起点1002和终点1004之间的av 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括用于该有向图中的表示av 100的视场中的物理地点的一部分的一些高粒度信息。
[0119]
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能穿过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示av 100的视场中的物理对象,例如其它汽车、行人、或av 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
[0120]
节点1006a-1006d通过边1010a-1010c连接。如果两个节点1006a-1006b通过边1010a连接,则av 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(即av 100在由相应节点表示的两个物理位置之间行驶。)边1010a-1010c通常是双向的,从某种意义上,av 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边1010a-1010c是单向的,从某种意义上,av 100可以从第一节点行驶到第二节点,然而av 100不能从第二节点行驶到第一节点。在边1010a-1010c表示例如单向街道,街道、道路或公路的单独车道,或者由于法律或地图约束因而仅能沿一个方向穿过的其它特征的情况下,边1010a-1010c是单向的。
[0121]
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边组成的路径1012。
[0122]
边1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在av 100选择该边的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边1010a所表示的物理距离是另一边1010b所表示的物理距离的两倍,则第一边1010a的关联成本1014a可以是第二边1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边1010a与另一边1010b相比需要更多的燃料。
[0123]
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边的个体成本相加到一起时具有最小总成本的路径。
[0124]
av控制
[0125]
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而操作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、rom 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器,随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
[0126]
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合av 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合av 100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如av的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望
输出1104的角度。
[0127]
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果av 100遇到诸如山丘等的干扰1110,则av 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和av 100的传感器可测量的其它输出。
[0128]
在实施例中,例如通过诸如照相机或lidar传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果av 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
[0129]
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
[0130]
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
[0131]
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的若干输入。规划模块404提供控制器1102例如选择av 100开始操作时的航向并确定在av 100到达十字交叉路口时穿过哪个道路路段所使用的信息。定位模块408例如将描述av 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定av 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
[0132]
启用了增强现实的自主运载工具命令中心
[0133]
一个或多个计算机系统(例如,如图1至3所示的云服务器136、计算环境200和/或计算机系统300)可以控制一个或多个av的操作。例如,一个或多个计算机系统可以将av部署到一个或多个地点或区域,将运输任务分配给各个av(例如,接载和运输乘客、接载和运输货物等),将导航指令提供给各个av(例如,提供两个地点之间的路线或路径,提供穿过av附近的对象的指令等),将维护任务分配给各个av(例如,在充电站对其电池充电,在服务站接收维修等),和/或将其它任务分配给各个av。
[0134]
此外,一个或多个计算机系统可用于监视av的操作。例如,一个或多个计算机系统可从各个av收集信息(例如,运载工具遥测数据,诸如本文所述的关于运载工具的速率、航向、加速度、地点、燃料或电池水平、传感器测量结果、状态或运载工具的操作的其它方面的数据等),处理所收集到的信息,并将信息呈现给一个或多个用户(例如,以交互式图形用户界面的形式),使得可以保持向用户通知av的操作。
[0135]
在一些实现中,用户可以使用至少部分地由一个或多个计算机系统实现的增强现实系统来监视和控制一队av。作为示例,用户可以在一队av之间行走的同时佩戴增强现实显示装置(例如,头戴式部件)。当用户接近特定av时,显示装置呈现图形用户界面(gui),该
gui将关于av的信息覆盖在用户的视场中(例如,使得与特定av相关的信息看起来正悬停在该av附近)。例如,显示装置可呈现关于av的部署状态的信息、与av有关的维护或维修问题、关于av的调度信息、或关于av的组织信息。此外,用户可以(例如,通过做出映射到特定命令的姿势)与图形用户界面交互以进行关于av的特定任务。
[0136]
在一些实现中,增强现实系统的使用可以提高用户可以与一队av交互的速率、准确性和效率。例如,增强现实系统使得用户能够直观地检索关于特定av的信息(例如,通过接近和注视特定av),而不需要用户手动输入选择。此外,用户可在不重复地将其注视转移到手持式装置的情况下进行关于av的任务。
[0137]
图13示出包括用于监视和控制若干av 1304a-1304n的操作的增强现实系统1302的示例系统1300。增强现实系统1302通过网络1306通信耦接到av 1304a-1304n。
[0138]
在一些实现中,增强现实系统1302可以至少部分地使用一个或多个计算机系统(例如,如图1至3所示的一个或多个云服务器136、一个或多个计算环境200以及/或者一个或多个计算机系统300)来实现。此外,在一些实现中,av 1304a-1304n中的一个或多个可类似于av 100(例如,如图1所示)。此外,网络1306可以至少部分地使用一个或多个本地网络(例如,图3中所示的本地网络332)和/或因特网(例如,图3中所示的因特网328)来实现。
[0139]
在系统1300的示例使用期间,增强现实系统1302接收关于av 1304a-1304n的信息(例如,经由网络1306),并向用户1308呈现该信息中的至少一些信息。例如,该信息可包括关于av 1304a-1304n的运载工具遥测数据、关于av 1304a-1304n的部署状态的数据、关于与av 1304a-1304n有关的维护或维修问题的数据、关于av 1304a-1304n的调度信息、关于av 1304a-1304n的组织信息、和/或本文描述的任何其它信息。
[0140]
可以使用增强现实gui将该信息中的至少一些信息可视地呈现给用户1308。例如,可使用增强现实显示装置(例如,用户佩戴的头戴式部件)将gui呈现给用户1308,该gui在用户的视场中呈现计算机生成的信息,使得该信息看起来驻留在用户1308的物理环境中。例如,可以呈现信息,使得信息看起来与一个或多个物理对象一起在空间上定位在物理环境中。作为示例,增强现实显示装置可在用户1308的视场中覆盖一个或多个图形用户界面元素,使得与特定av 1304a-1304n相关的信息看起来被布置成在空间上接近av 1304a-1304n(例如,悬停或漂浮在该av附近)。
[0141]
此外,增强现实系统1302将信息传输到av 1304a-1304n(例如,经由网络1306)。例如,该信息可包括从用户1308到av 1304a-1304n中的一个或多个的命令,诸如进行某些任务的命令等。示例任务包括部署到一个或多个地点或区域、接载和运输乘客、接载和运输货物、穿过两个地点之间的特定路线或路径、穿过av附近的对象、进行维护活动(例如,在充电站对av的电池充电、在服务站接收维修等)和/或本文描述的任何其它任务。
[0142]
至少一些命令可以由用户1308使用一个或多个输入装置和/或通过做出一个或多个物理姿势来通信到增强现实系统1302。例如,用户1308可经由键盘、鼠标、轨迹板、触敏显示装置(例如,触摸屏)、操纵杆、游戏手柄、按钮、控制杆和/或其它输入装置来输入一个或多个命令。作为另一示例,用户1308可移动其身体的一个或多个部位(例如,手指、手、臂、脚、腿、头等)以做出物理姿势。增强现实系统1302可以检测姿势(例如,使用一个或多个传感器),确定与姿势相关联的一个或多个命令,确定姿势所指向的一个或多个av 1304a-1304n,以及将命令传输到适当的av 1304a-1304n以用于执行。
[0143]
在一些实现中,增强现实系统1302可以通过确定姿势所指向的方向或朝向并且识别av中的与该方向或朝向相对应的一个或多个av来识别姿势所指向的一个或多个av 1304a-1304n。例如,如果姿势是用户1308的指点运动,则增强现实系统1302可以确定av 1304a-1304n中的在用户所指的方向上的一个或多个av。作为另一示例,如果姿势是用户1308的捏合运动,则增强现实系统1302可以确定av 1304a-1034n中的在用户捏合的方向上的一个或多个av。作为另一示例,如果姿势是用户1308的挥动运动,则增强现实系统1302可以确定av 1304a-1034n中的在用户正挥动的方向上的一个或多个av。
[0144]
在一些实现中,增强现实系统1302可以通过确定用户正在注视的方向和/或用户做出姿势时用户的朝向(例如,用户的头部)并且识别av中的与该方向或朝向相对应的一个或多个av来识别姿势所指向的一个或多个av 1304a-1304n。在一些实现中,增强现实系统1302可以通过检测用户的头部相对于用户环境的朝向(例如,使用固定到用户的头部的一个或多个传感器)和/或跟踪用户的眼睛(例如,使用指向用户的眼睛的一个或多个跟踪传感器)来进行这种确定。
[0145]
图14a中更详细地示出示例增强现实系统1302。增强现实系统1302a包括一个或多个计算机系统1402、一个或多个增强现实显示装置1404、一个或多个传感器1406以及一个或多个输入装置1408。
[0146]
一个或多个计算机系统1402(例如,从av 1304a-1304n、用户1308和/或本文描述的其它系统)接收信息、处理信息、并(例如,向av 1304a-1304n、用户1308和/或本文描述的其它系统)传输信息。在一些实现中,计算机系统1402可以至少部分地使用一个或多个云服务器136、一个或多个计算环境200以及/或者一个或多个计算机系统300(例如,如图1至3所示)来实现。
[0147]
各个增强现实显示装置1404从一个或多个计算机系统1402接收信息,并使用gui 1410来呈现该信息中的至少一些信息。如上所述,在一些实现中,增强现实显示装置1404可以包括用于促进gui 1410的呈现的头戴式部件。例如,如图14b所示,增强现实显示装置1404可以包括具有两个目镜1422a和1422b的头戴式部件1420。当头戴式部件1420由用户1308佩戴时,目镜1422a和1422b定位在用户1308的眼睛(例如,分别为用户的左眼1424a和右眼1424b)上,并且向用户提供视觉信息(例如,通过将光投射到用户的眼睛1424a和1424b中)。在一些实施例中,目镜1422a、1422b可以包括显示器上的两个区域(例如,显示器上的两个重叠区域、显示器的两个不同区域等)。
[0148]
在该示例中,目镜1422a包括一个或多个透镜1426a,一个或多个透镜1426a从用户的物理环境1428接收光并且将所接收的光中的至少一些提供给显示器1430a。显示器1430a将从物理环境1428接收的光与由光源1432a生成的光组合,并将组合的光提供到一个或多个透镜1434a。一个或多个透镜1434a将光引导并聚焦到用户的眼睛1424a上(例如,使得用户可以同时感知从光源1432a和物理环境1428接收的光)。
[0149]
此外,目镜1422a和光源1432a可被配置成使得gui 1410的一个或多个元素被覆盖在用户的视场中(例如,使得gui 1410的元素看起来与物理环境1428中的一个或多个物理对象1436一起在空间上被定位在物理环境中)。例如,光源1432a可被配置成生成表示gui 1410的空间变化的光图案。此外,目镜1422a可被配置成将由光源1432a生成的光与从物理环境1428接收的光组合,使得gui 1410看起来被定位在相对于用户的特定空间位置处。该
组合的光可被提供给用户的眼睛1424a,使得用户可以同时查看gui 1410和物理环境1428这两者。
[0150]
此外,头戴式部件1420可以包括多个目镜以根据相对于用户的特定感知深度来呈现信息。例如,目镜1422b可以以与目镜1422a类似的方式进行向用户的眼睛1424b提供光。例如,目镜1422b可以包括从物理环境1428接收光并且将所接收的光中的至少一些提供给显示器1430b的一个或多个透镜1426b。显示器1430b将从物理环境1428接收的光与由光源1432b生成的光组合,并将组合的光提供给一个或多个透镜1434b。一个或多个透镜1434b将光引导并聚焦到用户的眼睛1424b上(例如,使得用户可以同时感知从光源1432b和物理环境1428接收的光)。
[0151]
此外,由光源1432a生成的光和由光源1432b生成的光可以彼此不同,使得gui 1410根据相对于用户的特定深度来呈现。例如,当从第一视角(例如,左眼1424a)查看时,光源1432a可生成表示gui 1410的第一光空间图案,而当从第二视角(例如,右眼1424b)查看时,光源1432b可生成表示gui 1410的第二光空间图案。当用户同时查看来自目镜1422a和1422b的光时,由用户的各眼睛1424a和1424b所接收的光对应于gui 1410在三维中的不同相应视角。因此,gui 1410看起来具有相对于用户和物理环境1428的特定深度。
[0152]
在一些实现中,目镜1422a和1422b可以包括显示器上的两个区域(例如,显示器上的两个重叠区域、显示器的两个不同区域等)。此外,头戴式部件1420可以被配置为使得显示器的各个区域被呈现给用户的眼睛1424a和1424b中的不同的眼睛。例如,目镜1422a和1422b可以包括移动装置(例如,智能电话)的显示器上的两个区域。例如,头戴式部件1420可被配置成使得当用户佩戴头戴式部件时,显示器的第一区域对用户的眼睛1424a可见且对用户的眼睛1424b不可见,并且显示器的第二区域对用户的眼睛1424b可见且对用户的眼睛142a不可见。此外,在一些实现中,目镜1422a和1422b不包括透镜1434a、1434b、1426和1426b中的一个或多个。
[0153]
图14c示出由增强现实系统1302呈现的示例gui 1410。在该示例中,佩戴增强现实系统1302的头戴式部件1420的用户1308在其视场1412中同时感知用户的物理环境1428(例如,包括av 1304a)和gui 1410。此外,gui 1410包括看上去位于用户的物理环境1428内的若干图形元素1414(例如,图标、符号、图像、文本和/或颜色的模式),使得图形元素1414悬停或漂浮在av 1304a附近。图形元素1414可包括(例如,表示)关于av 1304a的信息(例如,如本文所述)。
[0154]
当用户移动其头部时,增强现实系统1302可以调整gui 1410以考虑用户的移动。例如,返回参考图14a,增强现实系统1302可以包括一个或多个传感器1406,其检测用户的头部和/或用户身体的其它部位相对于物理环境1428的位置、朝向和/或移动。传感器1406可包括例如一个或多个加速度计、陀螺仪、深度传感器、radar传感器、lidar传感器、摄像机、静态照相机、光电检测器、地点传感器(例如,gps或gnss传感器)或其它传感器。传感器1406可以被配置为确定用户的头部、用户身体的一个或多个其它部位、用户的物理环境1428中的一个或多个对象或其组合的地点、朝向和/或移动。
[0155]
当用户移动其头部时,增强现实系统1302可以调整gui 1410,使得图形元素1414看起来与用户的视场1412中的对象一起移动。例如,参考图14c,如果用户向左旋转其头部,则用户感知到av 1304a在其视场1412中已向右转移。相应地,增强现实系统1302可以调整
1304a的数据存储单元142的物理地点处或附近(例如,在特定距离内)。在一些实现中,可以显示图形元素1502c和1502d,使得图形元素1502c和1502d指示av 1304a的数据存储单元的物理地点(例如,使用指示线)。
[0163]
作为另一示例,如图15b所示,图形元素1502e可显示关于相对于av 1304a的数据传输(例如,使用通信接口318来与网络322、328和/或1306通信)的信息。例如,图形元素1502e可以显示av 1304a当前是否连接到网络(例如,通过显示“实况”标签)。此外,图形元素1502e可显示向和/或从av 1304a传输的数据的量(例如,以字节和/或包为单位)。此外,图形元素1502e可以显示在向和/或从av 1304a传输数据时经历的多个错误。此外,图形元素1502e可显示在向和/或从av 1304a传输数据时被“丢弃”的多个包(例如,诸如由于数据传输中的错误或网络拥塞而未能到达预期目的地的包)。此外,图形元素1502e可以显示av 1304a与网络之间的网络链路(例如,网络链路320)的带宽或数据吞吐量。此外,图形元素1502e可以显示可以用于使用网络链路来传输数据的最大传输单元(mtu)。此外,图形元素1502e可以显示网络链路是被配置用于双工通信(例如,使得网络链路的各个端上的各方可以同时彼此通信)还是半双工(例如,使得各方可以彼此通信,但不是同时通信)的指示。在一些实现中,可以显示图形元素1502e,使得图形元素1502e看起来位于av 1304a的通信接口的物理地点处或附近。在一些实现中,可以显示图形元素1502e,使得图形元素1502e指示av 1304a的通信接口的物理地点(例如,使用指示线)。
[0164]
作为另一示例,如图15b所示,图形元素1502f可以显示关于av 1304a的轮胎的信息。例如,图形元素1502f可以显示av 1304a的各个轮胎的气压(例如,如使用胎压监视系统(tpms)获得的)。在一些实现中,可以显示图形元素1502f,使得图形元素1502f看起来位于av 1304a的轮胎的物理地点处或附近。在一些实现中,可以显示图形元素1502f,使得图形元素1502f指示av 1304a的轮胎的物理地点(例如,使用指示线)。
[0165]
作为另一示例,如图15b所示,图形元素1502g可以显示关于av 1304a的电池系统和/或燃料系统的信息。例如,图形元素1502g可以显示av 1304a的电池系统的总容量,以及电池系统的剩余电池水平(例如,作为总容量的百分比)。作为另一示例,图形元素1502g可以显示av 1304a的燃料系统的总容量,以及电池系统的剩余燃料水平(例如,作为总容量的百分比)。在一些实现中,可以显示图形元素1502g,使得图形元素1502g看起来位于av 1304a的电池系统和/或燃料系统的物理地点处或附近。在一些实现中,可以显示图形元素1502g,使得图形元素1502g指示av 1304a的电池系统和/或燃料系统的物理地点(例如,使用指示线)。
[0166]
在一些实现中,gui可以同时显示关于多个av的信息。此外,关于各个av的信息可被定位在gui中,使得该信息看起来被布置成在空间上接近该av。这可能是有用的,例如,因为gui使得用户能够以直观的方式确定哪个信息对应于哪个av。
[0167]
例如,在图15b所示的示例中,两个av 1304a和1304b位于用户1308的视场1412中。增强现实系统1302可以生成gui 1500,使得关于av 1304a和1304b各自的信息被同时呈现给用户。例如,图形元素1502a可以呈现关于av 1304b的处理器的信息,并且图形元素1502e-1502g可以呈现关于向和/或从av 1304a的数据传输、av 1304a的轮胎以及av 1304a的电池系统和/或燃料系统的信息。此外,图形元素1502a和1502e-1502g各自可以位于gui 1500中,使得图形元素1502a和1502e-1502g看起来被布置为在空间上接近相应的av 1304a
或1304b(例如,使得用户可以容易地确定哪个图形元素对应于哪个av)。
[0168]
作为另一示例,如图15c所示,五个av 1304a-1304e位于用户1308的视场1412中。增强现实系统1302可以生成gui 1500,使得关于av 1304a-1304e各自的信息被同时呈现给用户。例如,图形元素1502h可以呈现关于av 1304a-1304e中的一个或多个的电池系统和/或燃料系统的信息。
[0169]
在一些实现中,gui可以在用户的视场中显示关于av中的每一个的信息。在一些实现中,gui可以仅在用户的视场中显示关于av的第一子集的信息。在一些实现中,可以基于av与用户之间的距离来选择av的子集(例如,gui可以显示关于在距用户的特定阈值距离内的av的信息,并且避免显示关于超过阈值距离的av的信息)。在一些实现中,可以基于来自用户的输入(例如,指定应当向用户呈现信息的一个或多个av的输入)来选择av的子集。在一些实现中,可以通过识别最接近用户的n个av来选择av的子集。n可以由例如用户或另一用户(例如,管理用户或开发者)指定。
[0170]
在一些实现中,gui可以显示关于av 1304a-1304n中的一个或多个的通知。通知可以包括例如某些任务已由av进行或要由av进行的指示、av的条件(例如,“健康”)或状态的指示、与av相关联的错误或故障的指示、由用户向av和/或本文所述的任何其它系统提供的命令或请求的指示、以及/或者本文所述的任何信息的指示。
[0171]
在一些实现中,可以显示通知中的至少一些,使得它们呈现在用户的视场中。例如,图16示出由增强现实系统1302呈现的示例gui 1600。在该示例中,佩戴增强现实系统1302的头戴式部件1420的用户1308在其视场1412中同时感知其物理环境1428和gui 1600。此外,gui 1600包括看起来位于用户的物理环境1428内若干个图形元素1602(例如,图标、符号、图像、文本和/或颜色的图案),使得图形元素1602悬停或漂浮在其前面。图形元素1602可以包括例如特定用户已经请求乘坐av的指示、特定av已经接载乘客的指示和/或特定av已经放下乘客的指示。作为其它示例,图形元素1602可以包括特定av的特定组件正在经历错误或故障的指示、以及/或者av和/或其组件中的一个或多个的状态的指示。
[0172]
在一些实现中,用户1308可以过滤图形元素1602,使得仅图形元素1602的子集被呈现在其视场1412中。作为示例,gui 1600可以包括与多个不同信息类别有关的图形元素1602集合。用户1308可以选择这些类别中的一个或多个(例如,使得关于这些类别的信息在其视场1412中呈现),并且避免选择一个或多个其它类别(例如,使得关于这些类别的信息不在其视场1412中呈现)。
[0173]
在一些实现中,用户1308可以经由输入装置(例如,输入装置1408)通过gui导航。在一些实现中,用户1308可以通过做出一个或多个姿势(例如,由传感器1406检测到的姿势)来通过gui导航。作为示例,用户可以向上或向下移动他们的手以滚动通过gui上的元素列表。作为另一示例,用户可以向左或向右挥动他们的手以从他们的视场中移除gui的特定元素。作为另一示例,用户可以伸出并模仿触摸gui的特定元素以选择或启用该元素。
[0174]
增强现实系统1302可以用于针对一个或多个av 1304a-1304n的各种使用情况。
[0175]
作为示例,增强现实系统1302可以用于促进部署av 1304a-1304n中的一个或多个。这可以包括例如向用户显示信息和/或从用户接收关于准备好av以从空闲状态(例如,其中av被保持在仓库中以用于存储或维护)转变到操作或活动状态(例如,其中av正在穿越到某个地点、接载乘客或货物、运输乘客或货物等)的命令。这还可以包括例如向用户显示
信息以及/或者从用户接收关于启动或启用av、校准av的一个或多个组件(例如,一个或多个传感器)以及验证这些组件的校准的命令。在一些限制中,增强现实系统1302可以指示特定组件已经被启用、校准和/或验证(例如,如果组件已经被启用、校准和/或验证,则通过在组件旁边显示“复选”指示符,或者如果组件尚未被启用、校准和/或验证,则在组件旁边显示“交叉”指示符)。
[0176]
作为另一示例,增强现实系统1302可以用于促进av 1304a-1304n中的一个或多个的维护和维修。这可以包括例如向用户显示信息以及/或者从用户接收关于av的一个或多个组件的错误或故障的命令,以及用于校正错误或故障的步骤或过程。这也可以包括例如向用户显示信息以及/或者从用户接收关于例行或预防性维护的命令(例如,在av经历错误或故障之前)。这也可以包括例如向用户显示信息和/或从用户接收关于补充燃料或再充电av的命令。
[0177]
作为另一示例,增强现实系统1302可以用于促进对av 1304a-1304n中的一个或多个的组织和管理。这可以包括例如向用户显示消息以及/或者从用户接收关于av划分成不同逻辑组或逻辑子组(例如,队或子队)、av部署和/或存储的调度、av进行特定任务的调度、av到特定地点或区域的分配、以及av在不同地点或区域之间的重新分布的命令。
[0178]
图17a和17b示出增强现实系统1302促进从仓库部署av的示例使用情况。
[0179]
图17a示出由增强现实系统1302呈现的示例gui 1700。在该示例中,佩戴增强现实系统1302的头戴式部件1420的用户1308在其视场1412中同时感知其物理环境1428(例如,包括若干av 1304a-1304n)和gui 1700。
[0180]
当用户1308接近av 1304a-1304n中的一个或多个时,增强现实系统1302更新gui 1700以示出关于接近用户1308(例如,在距用户的特定阈值距离内)的av 1304a-1304n的信息。例如,如图17b所示,增强现实系统1302可以更新gui 1700以包括av 1304a-1304n的相应图形元素1702a-1702n(例如,图标、符号、图像、文本和/或颜色的图案)。图形元素1702a-1702n各自可以显示与部署av 1304a-1304n中的相应一个有关的信息。例如,图形元素1702a-1702n各自可以显示特定av是否通信地耦接到网络(例如,网络322、328或1306中的一个或多个)的指示、av的电池系统的剩余电池水平的指示(例如,作为总容量的百分比)、av是否已经通过部署前检查的指示(例如,复选标记可以指示av已经通过检查,并且“x”可以指示av尚未通过检查)等。此外,图形元素1702a-1702n各自可以位于gui 1700中,使得图形元素1702a-1702n看起来被布置成在空间上接近其相应的av(例如,悬停或漂浮在该av附近)。
[0181]
此外,用户1308可以与增强现实系统1302交互以发出针对av 1304a-1304n的一个或多个命令。例如,如上所述,增强现实系统1302可以包括用于从用户1308接收输入的一个或多个输入装置1408。由输入装置1408接收的输入可以被提供给一个或多个计算机系统1402用于解释。例如,一个或多个计算机系统1402可以识别与输入相关联的一个或多个命令,并将命令传输到av 1304a-1304n中的一个或多个以供执行。作为另一示例,用户1308可以移动其身体的一个或多个部位以做出物理姿势。增强现实系统1302可以检测姿势(例如,使用传感器1406中的一个或多个),确定与姿势相关联的一个或多个命令,并且将命令传输到av 1304a-1304n中的一个或多个以供执行。
[0182]
图18a和18b示出增强现实系统1302促进对av 1304a上的传感器进行校准的另一
示例使用情况。
[0183]
图18a示出由增强现实系统1302呈现的示例gui 1800。在该示例中,佩戴增强现实系统1302的头戴式部件1420的用户1308坐在av 1304a中,并且在其视场1412中同时感知其物理环境1428和gui 1800。
[0184]
在一些实现中,用户1308可以手动地指示av 1304a校准其传感器中的一个或多个。在一些实现中,av 1304a可以自动启动其传感器中的一个或多个的校准。在校准处理期间,增强现实系统1302更新gui 1800以示出关于av 1304a的传感器的信息。例如,如图18a所示,增强现实系统1302可以更新gui 1800以包括用于正在被校准的传感器的图形元素1802a-1802n(例如,图标、符号、图像、文本和/或颜色的图案)。
[0185]
图形元素1802a-1802n各自可以显示与特定传感器(或传感器组)相关的信息。例如,图形元素1802a-1802n各自可以显示传感器是否已经完成校准处理的指示(例如,复选标记可以指示传感器已经完成校准处理,并且“x”可以指示传感器尚未完成校准处理)。作为另一示例,如果特定传感器是电池供电的,则相应的图形元素1802a-1802n可以包括电池的剩余电池水平的指示(例如,作为总容量的百分比)。
[0186]
此外,增强现实系统可以更新gui 1800以指示av 1304a的所分配的分段地点。例如,如图18a所示,增强现实系统可以更新gui 1800以包括指示分段地点(例如,av 1304a可以被定位以准备部署到现场中的地点)的图形元素1804。在一些实现中,图形元素1804a可以被定位成使得图形元素1804a看起来勾勒出地面上的特定区域的轮廓(例如,模仿已经被绘制到地面上的边界线)。当听到头戴式部件1420时,用户1308可以手动地将av 1304a引导到所指示的地点并且离开运载工具。在一些实现中,av 1304a可以自动将其自身引导到所指示的地点,并且向用户1308指示(例如,使用头戴式部件1420)离开av 1304a是安全的。
[0187]
在一些实施例中,增强现实系统1302可以根据用户是在av内部还是外部来更新gui。例如,增强现实系统1302可以检测用户1308何时在av 1304a内部(例如,使用传感器1406),并且作为响应,显示gui 1800的第一视图(例如,图18a中所示的gui 1800)。作为另一示例,增强现实系统1302可以检测用户1308何时离开av 1304a(例如,使用传感器1406),并且作为响应,显示gui 1800的第二视图(例如,图18b中所示的gui 1800)。
[0188]
如图18b所示,当用户已经离开av 1304a时,增强现实系统1302可以更新gui 1800,使得gui 1800示出表示关于av 1304a的信息的图形元素1806(例如,图标、符号、图像、文本和/或颜色的图案)。图形元素1806可以显示与部署av 1304a相关的信息。例如,图形元素1806可以显示av 1304a是否通信地耦接到网络(例如,网络322、328或1306中的一个或多个)的指示、av 1304a的电池系统的剩余电池水平的指示(例如,作为总容量的百分比)、av1304a是否已通过部署前检查的指示(例如,复选标记可以指示av已通过检查,而“x”可以指示av未通过检查)等。此外,图形元素1806可以位于gui 1800中,使得图形元素1806看起来被布置为在空间上接近av 1304a(例如,悬停或漂浮在av 1304a附近)。
[0189]
此外,用户1308可以与增强现实系统1302交互以发出针对av 1304a的一个或多个命令。例如,如上所述,增强现实系统1302可以包括用于从用户1308接收输入的一个或多个输入装置1408。由输入装置1408接收的输入可被提供给一个或多个计算机系统1402用于解释。例如,一个或多个计算机系统1402可以识别与输入相关联的一个或多个命令,并将命令传输到av 1304a以供执行。作为另一示例,用户1308可以移动其身体的一个或多个部位以
做出物理姿势。增强现实系统1302可以检测姿势(例如,使用传感器1406中的一个或多个),确定与姿势相关联的一个或多个命令,并且将命令传输到av 1304a以供执行。示例命令包括将自主运载工具从空闲状态转变到活动状态的命令、将任务分配给自主运载工具以供执行的命令、将地理区域分配给自主运载工具以供操作的命令、给自主运载工具补充燃料或再充电的命令、校准自主运载工具的组件的命令、进行自主运载工具的维护处理的命令、以及/或者将自主运载工具分配给多个逻辑组中的逻辑组的命令。在一些实现中,命令可以包括用于进行本文描述的任何操作的指令。
[0190]
图19a-19c示出增强现实系统1302促进从仓库部署av的另一示例使用情况。
[0191]
图19a示出由增强现实系统1302呈现的示例gui 1900。在该示例中,佩戴增强现实系统1302的头戴式部件1420的用户1308在其视场1412中同时感知其物理环境1428和gui 1900。
[0192]
如上所述,增强现实系统1302可以更新gui 1900以显示关于av 1304a-1304n中的一个或多个的通知。例如,如图19a所示,增强现实系统1302可以更新gui 1900以包括指示av 1304a的特定传感器正在经历错误或故障的图形元素1902a、以及指示av 1304a的特定处理器正在经历异常高的使用的图形元素1902b。图形元素1920a和1902b还可以指示av 1304a的标识(例如,av 1304a的标识符、序列号或名称)。此外,图形元素1920a和1902b还可以指示生成通知的时间、将通知转发给其它的选项(例如,经由文本消息、聊天消息、电子邮件等)、以及撤消通知的选项。
[0193]
基于该信息,用户1308可以定位并接近通知中所标识的av 1304a。当用户1308接近av 1304a时,增强现实系统1302可以更新gui 1900以显示关于av 1304a的信息。例如,如图19b所示,增强现实系统1302可以更新gui 1900以包括呈现关于正在经历错误或故障的av 1304a的各个组件的附加信息的图形元素1904。例如,gui 1900可以被更新以包括显示关于av 1304a的一个或多个处理器的信息(例如,处理器的温度、处理器的使用或利用率百分比、处理器的频率或时钟速率等)的图形元素1904a。作为另一示例,gui 1900可以被更新以包括指示某些传感器正经历错误或故障的图形元素1904b。在一些实现中,经历故障的av 1304a的组件可以在视觉上被强调或突出显示(例如,使用不同的颜色、不同的亮度、不同的大小和/或不同的图标),使得用户1308可以容易地识别该组件。
[0194]
此外,用户1308可以与增强现实系统1302交互以发出关于av 1304a的一个或多个命令。例如,如图19c所示,用户1308可以选择av 1304a的组件之一(例如,使用输入装置1408和/或做出物理姿势,诸如朝向组件伸出或指向组件)。作为响应,增强现实系统1302可以更新gui 1900以显示可以针对所选择的组件进行的选项列表1906。作为示例,如果组件是lidar传感器,则选项列表1906可以包括清洁传感器、替换传感器(或订购替换传感器)以及重置传感器。用户可以选择选项之一(例如,使用输入装置1408和/或做出物理姿势,诸如朝向选项或指向选项)。作为响应,增强现实系统1302可以指示av 1304a进行所选择的选项(例如,如果所选择的选项可以由av 1304a进行),以及/或者向另一系统或用户传输请求进行所选择的选项(例如,如果所选择的选项要由另一系统和/或另一用户进行)。
[0195]
如果解决了错误或故障,则增强现实系统1302可以相应地更新gui 1900。
[0196]
尽管本文描述了示例使用情况,但是仅存在说明性示例。实际上,增强现实系统1302可以用于显示关于一个或多个av的操作的任何信息,以及/或者使得用户能够以任何
方式与一个或多个av交互。
[0197]
示例处理
[0198]
图20示出用于监视和控制一个或多个av的操作的示例处理2000。可以至少部分地使用图1至12所示的一个或多个系统(例如,根据关于图13至19描述的技术)进行处理2000。作为示例,可以至少部分地使用增强现实系统1302(例如,如图13、14a和14b所示)以及一个或多个处理器304(例如,如图3所示)来进行处理2000。
[0199]
根据处理2000,至少一个处理器确定为第一自主运载工具处于佩戴增强现实显示装置的用户的视场中(框2002)。作为示例,至少一个处理器可确定av 1304a-1304n之一(例如,如图13所示)处于佩戴增强现实显示装置104的用户的视场中(例如,如图14a和14b所示)。
[0200]
至少一个处理器确定关于第一自主运载工具的操作的第一数据(框2004)。第一数据可以包括本文描述的信息中的至少一些信息。
[0201]
例如,在一些实现中,第一数据可以包括关于第一自主运载工具的部署状态的信息。该信息可以包括例如第一自主运载工具处于空闲状态或活动状态的指示、分配给第一自主运载工具以供执行的任务的指示、分配给第一自主运载工具以供操作的地理区域的指示、分配给第一自主运载工具以供穿越的路线的指示、第一自主运载工具先前穿越的一个或多个路线的指示、第一自主运载工具的一个或多个先前地点的指示、第一自主运载工具的条件或状态的指示、以及/或者关于第一自主运载工具的警报或通知的指示。
[0202]
作为另一示例,在一些实现中,第一数据可以包括关于第一自主运载工具的维护或维修状态的信息。该信息可以包括例如第一自主运载工具的组件的故障的指示、第一自主运载工具的燃料水平的指示、第一自主运载工具的电池水平的指示、第一自主运载工具的组件的校准的指示、第一自主运载工具的损坏的指示、第一自主运载工具的清洁状态的指示、要对第一自主运载工具进行的维护的指示、第一自主运载工具的里程或燃料效率的指示、第一自主运载工具的要被检查故障的组件的指示、以及/或者第一自主运载工具的维护或维修历史的指示。
[0203]
作为另一示例,在一些实现中,第一数据可以包括关于第一自主运载工具的组织状态的信息。该信息可以包括例如第一自主运载工具被分配到多个逻辑组中的第一逻辑组的指示、以及/或者第一操作者已经被分配到第一自主运载工具的指示。
[0204]
至少一个处理器使用增强现实显示装置使第一数据的至少一部分呈现给用户(框2006)。使第一数据的至少一部分呈现给用户包括使用增强现实显示装置使图形用户界面呈现在用户的视场中,并且使第一数据的至少一部分被包括在图形用户界面上,以使得第一数据的至少一部分看起来在用户的视场中被布置成在空间上接近第一自主运载工具。
[0205]
在一些实现中,使第一数据的至少一部分被呈现给用户可以包括确定为用户的视场已经被改变,并且作为响应,修改图形用户界面,使得第一数据的至少第一部分看起来在用户的改变后的视场中被布置成在空间上接近第一自主运载工具。在一些实现中,至少一个处理连续地确定用户的视场是否已经被改变,并且如果是,则作为响应修改图形用户界面。
[0206]
在一些实现中,可以同时呈现关于多个自主运载工具的信息。例如,至少一个处理器可以确定为多个第二自主运载工具同时在用户的视场中,确定关于第二自主运载工具各
自的操作的第二数据,并且使用增强现实显示装置使第二数据的至少一部分呈现给用户。使第二数据的至少一部分呈现给用户可以包括使用增强现实显示装置使图形用户界面被呈现在用户的视场中,并且使第二数据的至少一部分被包括在图形用户界面上,以使得第一数据的至少第二部分看起来在用户的视场中被布置成在空间上接近各个第二自主运载工具。
[0207]
在一些实现中,至少一个处理器可以确定为用户针对图形用户界面做出了物理姿势。此外,至少一个处理器可以确定为物理姿势与命令相关联,并且使命令针对第一自主运载工具被执行。在一些实现中,物理姿势可以包括用户的臂和用户的手中的至少一个的移动。
[0208]
在先前描述中,已经参考许多具体细节描述了若干实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本技术发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
技术特征:
1.一种用于增强现实的方法,包括:通过至少一个处理器确定为第一自主运载工具处于佩戴增强现实显示装置的用户的视场中;通过所述至少一个处理器确定与所述第一自主运载工具的操作有关的第一数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第一数据的至少一部分呈现给所述用户,其中,使所述第一数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使图形用户界面呈现在所述用户的视场中,以及使所述第一数据的该至少一部分包括在所述图形用户界面上,以使得所述第一数据的该至少一部分看起来在所述用户的视场中被布置成在空间上邻近所述第一自主运载工具。2.根据权利要求1所述的方法,其中,使所述第一数据的至少一部分呈现给所述用户还包括:确定为所述用户的视场已改变,以及响应于确定为所述用户的视场已改变,修改所述图形用户界面,以使得所述第一数据的至少第一部分看起来在所述用户的改变后的视场中被布置成在空间上邻近所述第一自主运载工具。3.根据权利要求2所述的方法,其中,确定为所述用户的视场已改变以及修改所述图形用户界面是连续地进行的。4.根据权利要求1所述的方法,还包括:通过所述至少一个处理器确定为多个第二自主运载工具同时处于所述用户的视场中;通过所述至少一个处理器确定与所述第二自主运载工具中的各第二自主运载工具的操作有关的第二数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第二数据的至少一部分呈现给所述用户,其中,使所述第二数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使所述图形用户界面呈现在所述用户的视场中,以及使所述第二数据的至少一部分包括在所述图形用户界面上,以使得所述第二数据的至少一部分看起来在所述用户的视场中被布置成在空间上邻近所述第二自主运载工具中的各第二自主运载工具。5.根据权利要求1所述的方法,其中,所述第一数据包括:与所述第一自主运载工具的部署状态有关的信息。6.根据权利要求5所述的方法,其中,与所述第一自主运载工具的部署状态有关的信息包括以下各项至少之一:所述第一自主运载工具处于空闲状态或活动状态的指示;分配给所述第一自主运载工具以供执行的任务的指示;分配给所述第一自主运载工具以供运行的地理区域的指示;分配给所述第一自主运载工具以供穿越的路线的指示;所述第一自主运载工具先前穿越的一个或多个路线的指示;所述第一自主运载工具的一个或多个先前地点的指示;所述第一自主运载工具的条件或状态的指示;以及与所述第一自主运载工具有关的警报或通知的指示。
7.根据权利要求1所述的方法,其中,所述第一数据包括:与所述第一自主运载工具的维护或维修状态有关的信息。8.根据权利要求7所述的方法,其中,与所述第一自主运载工具的维护或维修状态有关的信息包括以下各项至少之一:所述第一自主运载工具的组件的故障的指示;所述第一自主运载工具的燃料水平的指示;所述第一自主运载工具的电池水平的指示;所述第一自主运载工具的组件的校准的指示;对所述第一自主运载工具的损坏的指示;所述第一自主运载工具的清洁状态的指示;要对所述第一自主运载工具进行的维护的指示;所述第一自主运载工具的里程或燃料效率的指示;所述第一自主运载工具的要被检查故障的组件的指示,以及所述第一自主运载工具的维护或维修历史的指示。9.根据权利要求1所述的方法,其中,所述第一数据包括:与所述第一自主运载工具的组织状态有关的信息。10.根据权利要求9所述的方法,其中,与所述第一自主运载工具的组织状态有关的信息包括:所述第一自主运载工具被分配给多个逻辑组中的第一逻辑组的指示,或者第一操作者已被分配给所述第一自主运载工具的指示。11.根据权利要求1所述的方法,还包括:通过所述至少一个处理器确定为用户针对所述图形用户界面做出了物理姿势,通过所述至少一个处理器确定为所述物理姿势与命令相关联,以及通过所述至少一个处理器使所述命令针对所述第一自主运载工具得到执行。12.根据权利要求11所述的方法,其中,所述物理姿势包括所述用户的臂和所述用户的手至少之一的移动。13.根据权利要求11所述的方法,其中,所述命令包括以下各项至少之一:将所述第一自主运载工具从空闲状态转变到活动状态的命令;将任务分配给所述第一自主运载工具以供执行的命令;将地理区域分配给所述第一自主运载工具以供运行的命令;对所述第一自主运载工具补充燃料或再充电的命令;校准所述第一自主运载工具的组件的命令;对所述第一自主运载工具进行维护处理的命令;以及将所述第一自主运载工具分配给多个逻辑组中的逻辑组的命令。14.一种用于增强现实的系统,包括:增强现实显示装置;至少一个处理器;以及至少一个非暂时性计算机可读介质,其存储有指令,所述指令在由所述至少一个处理器执行时使得所述至少一个处理器进行操作,所述操作包括:
通过所述至少一个处理器确定为第一自主运载工具处于佩戴所述增强现实显示装置的用户的视场中;通过所述至少一个处理器确定与所述第一自主运载工具的操作有关的第一数据;以及通过所述至少一个处理器使用所述增强现实显示装置使所述第一数据的至少一部分呈现给所述用户,其中,使所述第一数据的至少一部分呈现给所述用户包括:使用所述增强现实显示装置使图形用户界面呈现在所述用户的视场中,以及使所述第一数据的该至少一部分包括在所述图形用户界面上,以使得所述第一数据的该至少一部分看起来在所述用户的视场中被布置成在空间上邻近所述第一自主运载工具。
技术总结
本申请提供一种用于增强现实的方法和系统。描述了用于监视和控制自主运载工具(AV)的技术等。作为示例,至少一个处理器确定第一自主运载工具处于佩戴增强现实显示装置的用户的视场中,确定与所述第一自主运载工具的操作有关的第一数据,以及使用所述增强现实显示装置使所述第一数据的至少一部分呈现给用户。例如,使用所述增强现实显示装置使所述图形用户界面呈现在用户的视场中,以及使所述第一数据的至少一部分包括在所述图形用户界面上,以使得所述第一数据的至少一部分看起来在用户的视场中被布置成在空间上邻近所述第一自主运载工具。载工具。载工具。
技术研发人员:T
受保护的技术使用者:动态AD有限责任公司
技术研发日:2021.07.23
技术公布日:2022/5/25
转载请注明原文地址:https://tc.8miu.com/read-12524.html