深度学习助力无人驾驶汽车,效果好过GPS

最近,剑桥大学的研究者用深度学习开发出两个可以用在普通照相机和手机上的技术,能识别用户的位置和环境,可以在GPS失效的地方代替其发挥作用,这一发明可极大推进无人驾驶汽车和自动机器人的发展。

最近,剑桥大学的研究者用深度学习开发出两个可以用在普通照相机和手机上的技术,能识别用户的位置和环境,可极大推进无人驾驶汽车和自动机器人的发展。这两项技术在智利举行的计算机视觉国际会议上公布。

在GPS失效的地方,这两个新系统可以帮助无人驾驶汽车确定位置和方向,实时识别出各种不同的路况,并可以在普通照相机或智能手机上实现,而这一切在以前需要几万英镑的昂贵传感器才能完成。

这两个互补的系统是由剑桥大学的研究者设计的。尽管它们目前还不能控制无人驾驶汽车,但是它们能让机器「看见」,精确定位和识别所看之物,这种能力是开发自动驾驶汽车和机器人的关键因素。

SegNet

第一个系统叫做SegNet,它能拍下街景照片,实时将照片中的物体分成12个类别,例如路面、路标、行人、建筑物和骑自行车的人等。它能应对不同的光照和阴影条件,以及夜间环境,标记像素的准确度达到90%以上。过去的系统使用的传感器都是以昂贵的雷达或激光技术为基础,并且无法达到SegNet的精度和实时性。

你可以访问SegNet的网站(http://mi.eng.cam.ac.uk/projects/segnet/)。

你可以上传照片或搜寻世界上任意一座城市,这个系统会在街景照片中用不同颜色标出不同的组成部分。

下面,我用一张西直门的照片试了一下,大约对它还有点困难。

目前的无人驾驶汽车通常使用雷达传感器,或雷达与LIDAR(一种遥感技术)相结合的设备,它们都十分昂贵,有时价格比整辆车还贵。相比之下,SegNet则能从例子中进行学习。剑桥大学的一组本科生手工标记了5000张图片中的所有像素,每张大约需要30分钟才能标记完成。然后,研究者在两天时间内用这5000张图片训练了SegNet,再进行测试,效果很不错。工程系博士生 Alex Kendall说:「它非常擅长于识别图片中的物体,因为它有过很多练习。但依然有几百万个节点需要微调,才能让它变得更好。」

SegNet训练的数据大多是高速公路或城市环境,而对乡村、雪天和沙漠还缺乏足够的训练——不过它在测试中对这些环境的成绩也不错。

这个系统目前还不能直接用于无人驾驶汽车或卡车,但是它可以用于警示系统,与目前一些轿车上所使用的防撞技术相类似。

孩童时期,我们通过例子来学习识别物体——在看过一辆玩具车几次后,我们就学会了识别那种特定的车型以及同样类型的其他汽车。但是对机器来说,光看一辆车没法让它学会识别不同的汽车。如今的机器需要监督式学习,并需要成千上万带有标记的例子。

定位系统

在设计无人驾驶汽车时,有三个重要的技术问题需要回答:我在哪里,周围有什么,以及下一步要做什么。SegNet主要解决第二个问题,另外还有一个互补的系统来回答第一个问题——它可以用图像来精确定位和识别方向。

第二个系统是一个定位系统,是由Kendall 和 Cipolla在一个与 SegNet相类似的结构上开发出来的,它能从一张彩色的城市图片中识别出用户的位置和方向。这个系统的精确度比GPS高多了,并且可以在GPS失效的地方工作,例如室内、隧道或GPS信号不好的城市。研究者在一公里长的剑桥国王街测试了该系统,发现它的定位误差只有几米,方向误差只有几度,比目前无人驾驶汽车所使用的GPS精确太多了。你可以在右边的网址试试这个系统:http://mi.eng.cam.ac.uk/projects/relocalisation/

这个定位系统使用场景的几何特征来确定自己的准确位置,并确定自己面向的方向,例如它能确定自己面对的是建筑物的东面还是西面,即使这两面看起来完全一样。

Kendall说:「近年来,人工智能和机器人的发展非常迅速。而我们团队最酷的地方就在于开发了一个使用深度学习的技术来识别你的位置和周围的物品——这是深度学习第一次被用来做这样的事。」

Cipolla说:「在短期,我们更有可能把这样的系统用在家用机器人上,例如扫地机器人。要让人们完全信任无人驾驶汽车,我们还有很长的路要走。但如果我们能让技术变得更有效和更精确,就能推广无人驾驶汽车和其他类型自动机器人的使用范围。」

机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。