谷歌无人汽车幕后的技术:激光扫描整个城市

无人汽车使用的地图由激光扫描和摄像合成,包含了大量数据。

谷歌无人汽车幕后的技术:激光扫描整个城市

氧分子网  5月16日报道

谷歌(微博)的无人驾驶汽车现在能够带你在美国加利福尼亚州山景城的大街小巷里兜风了。

本周,笔者有幸坐谷歌的无人驾驶汽车体验了一把。我看到汽车驾驶员将手从方向盘上拿开,电脑就自动挑起了驾驶的重任。“现在开始自动驾驶。”电脑里传出一名女性的声音。变道、遵守红绿灯指示、监测路边骑自行车的人和步行者、转弯,汽车自己完成了所有这些任务。

它运行得如此顺畅,以至于《纽约时报》的一名试乘记者不禁感叹,“坐在上面太无聊了。”他的言外之意就是谷歌无人驾驶汽车的表现太赞了,几近完美!

机器人司机可以减少交通事故、提高全美道路网络的承载能力以及解放上班族,让他们在上下班途中可以盯着自己的手机屏幕,随心所欲地使用谷歌的各种服务。

但是,你现在还不能将谷歌无人驾驶汽车放到奥兰多或奥克兰或阿克伦的街道上,并期待它像在硅谷一样具有出色的表现。

其原因在于,谷歌已建立了虚拟的山景城路况地图,而其他地方的虚拟地图尚未建立。

无人驾驶汽车成功的关键

谷歌无人驾驶汽车成功的关键是,这些汽车并不需要从零开始处理所有道路交通情况。相反,它的团队早已走过了该汽车将要走的各条道路,并绘制了详细的虚拟地图。这可不是普通的地图,甚至也不是详尽的消费者版谷歌地图。

谷歌无人汽车幕后的技术:激光扫描整个城市

谷歌绘制了湾区的虚拟地形图

它是描绘现实路况的极其精确的数字化地图,它精确到了每一个人行道镶边的位置和高度。一般的数字地图仅会大致显示道路交叉口的位置,而这种虚拟地图展示的路况精确到了英寸。

这种虚拟地图也超过了我们通常对地图的概念。“我们的虚拟地图一览无遗地展示出了各种地理位置信息,从而能够提前告知汽车,为其自动行驶提供帮助。”谷歌无人驾驶汽车地图绘制主管安德鲁-查塔姆(Andrew Chatham)说。

“我们会告诉它交通信号灯距离地面多高、人行道镶边的准确位置,从而让汽车清楚地知道哪些地方不能走。”他说,“我们甚至还纳入了你看不到的信息,例如速度限制。”

谷歌工程师们驾车实地考察路况,并据此绘制出了虚拟的城市地图。他们会在汽车启动前将路线数据上传到汽车中,从而在汽车行驶过程中,不断地给予指引。

“汽车软件不用每次从零开始分析现实路况,并做出判断。相反,它在出发前就已明了前方的路况是怎样的。”查塔姆说,“现在,汽车软件的工作只是分析现实情况与预期数据的差别。这就使得汽车自动驾驶的问题大大简化了。”

“爬地球”收集数据

虽然它简化了汽车驾驶的问题,但是它需要处理的数据却并没有减少。要知道,它可是要基于整个道路网络来开发虚拟地图。

很少有公司——也许只有谷歌——会想到让美国路面交通的数字化成为无人驾驶汽车的解决方案之一。汽车公司会想到用这种数据收集和整合的方法提高其核心竞争力吗?

在谈及谷歌为其汽车绘制每一条街道的做法时,卡内基梅隆大学前教授、谷歌无人驾驶汽车项目负责人克里斯-厄姆森(Chris Urmson)流露出了无比的信心。“这是谷歌利用地图和街景服务尝试的众多新鲜事之一。”厄姆森说,“我们到处行走,并收集非常详实的数据,这为无人驾驶汽车提供了强大的导航信息。”

迄今为止,谷歌已绘制了2000英里的道路地图。美国的全部道路网络约有400万英里。

“这就是我们的工作。”他说着,耸了耸肩。“但这并不是令人望而却步的工作。”这就是谷歌考虑的这个项目的规模。

事实上,我们最好别把谷歌正在做的这件事称之为“绘制地图”,而应该想出一个新的动词来显示它与传统地图概念的差别。要我说,他们就是在“爬地球”,他们获得的数据才是真正有效的、适合电脑读取的。

除了无人驾驶汽车,谷歌还推出了Tango项目,旨在“让移动设备对空间和运动建立人类级别的理解力。”此外,谷歌最近还掀起了收购机器人公司的狂欢。Tango项目是为了让机器人理解人类的世界,而机器人公司则是为了让机器人在人类世界中行动自如。

卓尔不凡的谷歌

你越想就会越觉得谷歌的卓尔不凡:他们的远大梦想、大手笔运作以及解决这个棘手问题的解决方案都令人称奇。由于谷歌这样大规模的、史无前例的、难以想象的数据收集工作,曾经十分棘手的“机器视觉”问题变得简单多了。

去年秋季,另一位研制无人驾驶汽车的谷歌员工安东尼-莱万多斯基(Anthony Levandowski)到硅谷日产汽车公司做演讲。在问答阶段,日产汽车公司的工程师们不停地抛出汽车之间互动的概念,他们似乎认为这就是无人驾驶汽车解决方案的重要组成部分。

莱万多斯基自信地、敏捷地回应了所有这些问题。“我们用其他汽车的感应器能够看到前方道路的更多信息吗?我需要明确说明的是,汽车之间共享信息是可能的,但这不是我们优先考虑的事项。”

汽车公司的员工们无法理解或不愿理解的是,谷歌认为,汽车之间的交流互动是可能的,但是无法做到实时互动。

毕竟,每辆汽车的数据都来自于地图。有了这些地图数据,所有汽车要做的就是根据超级精确的虚拟地图明确自己的准确位置。这样一来,它们就可以省下所有数据分析和计算(以及汽车之间互动)的时间。

有趣的是,谷歌无人驾驶汽车的做法与风投公司Andreesen Horowitz支持的创业公司Anki对其玩具赛车游戏的做法具有惊人的相似性。在你购买Anki Drive的时候,他们还会附带销售这些赛车比赛的跑道。这些跑道内置有很多地理位置数据,实际上是虚拟赛车地图的物理形式。

去年,Anki CEO鲍里斯-索夫曼(Boris Sofman)(他与厄姆森一样,也是卡内基梅隆大学的高材生)说,提前了解赛道更有助于他们同步软件所运行的虚拟世界和汽车飞驰的物理世界。

“我们能够将物理世界变成虚拟世界。”索夫曼说,“我们能够将这些真实的人物进行抽象处理,把他们当成是手机视频游戏中的虚拟人物。”

机器学习算法

当然,在有步行者和骑行者的情况下,要在虚拟和现实结合的山景城道路上行驶就不是那么容易的事了:汽车需要在道路上不断地规划路线,避免发生交通事故。

谷歌无人汽车幕后的技术:激光扫描整个城市

 

无人驾驶汽车顶上的摄像头和激光记录仪

谷歌汽车并不是傻瓜。它们有自己的感应设备:雷达、雷克萨斯SUV车顶的激光旋转装置以及一系列摄像头。它们的车载系统会分析数据并决定采取哪条路线,以避免撞车。

这是一个非常棘手的问题,但是谷歌使用了“台式电脑”级别的计算能力。(大型计算和数据处理工作由谷歌服务器中心团队完成。)

车载电脑首先要做的事情就是整合传感器数据。它会从激光装置、摄像头那里收集数据,并将它们整合形成周围环境的实况图,并据此在虚拟山景城地图中确定自己的位置。

“我们能够将我们看到的周围景象与地图中说明的路况进行对比,从而精确地确定我们在地图中的位置——精确到几厘米。”无人驾驶汽车的软件主管迪米特里-多尔戈夫(Dmitri Dolgov)说,“一旦我们知道自己的确切位置,我们就会把地图中存储的相关路况信息提供给汽车。”

一旦了解自己的位置所在,无人驾驶汽车就能够监测和模拟周围动态物体(如其他车辆、自行车和行人)的行为。

这里,谷歌用到了另一个方法。多尔戈夫的团队利用机器学习算法来创造路上行人的模型。无人驾驶汽车行驶的每一英里路程的情况都会被记录下来,汽车电脑就会保持这些数据,并分析各种不同的对象在不同的环境中如何表现。有些司机的行为可能会被设置为固定变量(如“绿灯亮,汽车行”),但是汽车电脑不会死搬硬套这种逻辑,而是从实际的司机行为中进行学习。

这样一来,跟在一辆垃圾运输卡车后面行驶的汽车,如果卡车停止行进,那么汽车可能会选择变道绕过去,而不是也跟着停下来。谷歌已建立了70万英里的行驶数据,这有助于谷歌汽车根据自己的学习经验来调整自己的行为。

非理性效用

大多数驾驶情况并不难理解,但是如果出现少数棘手的或意外的情况如何处置呢?在当前的情况下,谷歌会让人类司机代劳,以确保汽车行驶安全。但有意思的是,在人类司机代劳的情况下,无人驾驶汽车也会记下自己自动处置这种棘手情况的可能做法。这样一来,工程师们就可以测试在极端情况下汽车需要怎么做才不会伤及无辜。

每一辆谷歌汽车既记录有以前驾驶的数据——在真实道路上行驶获得的数据,又记录有电脑输出的驾驶数据——主要是其他汽车司机如何处置各种情况的模型。

通过这种方式,谷歌汽车的工作方式与我们人脑反应的方式之间就建立了联系和类比。我们大脑的反应方式是接受来自感官传来的信息,并采取相应的行动。事实上,我们的大脑无时无刻不在进行各种预测,它引导着我们的认知。实际驾驶过程中的感官输入信息——灯光映照在我们的视网膜细胞上——会与我们大脑多年来在现实世界中习得的经验相互印证。

谷歌的无人驾驶汽车也运用了这一原理,这不足为奇;他们通过这种方法已取得了很大的成功,这也不足为奇。

谷歌人工智能主管彼得-诺维格(Peter Norvig)及其两名同事,在一篇论文中用“数据的非理性效用”来描述庞大数据对于极端复杂人工智能问题的影响。一幅漫画中的话可以用来总结诺维格的论文观点,“走出去,收集数据,看看它能做什么。”

即使这意味着要持续不断地、永无止境地行驶完400万英里的路程,并录入和整合这些庞大的数据,谷歌也会坚持不懈地做下去。

这就是谷歌的非理性效用。

您可能还喜欢…

发表评论

邮箱地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>