人车不会撞到骑自行车的,” Dolgov 的回答非常干脆:“如果我们能给对向的车更多空间并且尽量不让它撞到我们,我们会这么做并且用例踩刹车把碰撞程度减到最少。” 这种决定听起来似乎挺合理的,但是很容易就可以设想出难以做出正确选择的场景。如果无人车必须在要么剐蹭闯入自己车道的车,要么撞上路边的树之间做出选择的话—你真的想让无人车的算法来做出抉择吗?“这些选择部分属于有趣的哲学问题,” 他说:“所以你要在更大的背景下审视这个问题,在今天,人类司机在全球杀死的人超过了 100 万。”
车载摄像头捕捉到的视频(左下)与无人车解析出来的可视化数据(大屏)
的确,大部分情况下无人车要安全得多。它们不会酒驾、不会路怒、不会边开车边发短信(注:实际上会,只是它可以一心二用,但人这么做会很危险)。但这项技术并非毫无瑕疵,而且永远也无法实现这一点。这几年Google 无人车跟若干轻微交通事故都有牵连,但是都不是事故责任方。不过上个月一辆 Google 无人车首次导致了一次轻微事故,原因是变道闯入了一辆公交车所在车道(没人在事故中受伤)。“什么时候无人车要是撞死了人那会是一个大新闻,” Danny Shapiro 这样评价道。Shapiro 是 Nvidia 负责汽车方面的资深总监,许多无人车的视频处理芯片都是他们开发的。哪怕无人车更安全了,但是把自己的生命托付给机器这个问题,或者更准确地说,托付给 Google(或者苹果、Tesla)写的计算机代码这个问题却要严重得多。谁来确定写进控制汽车的算法的风险有多少呢?在《我们的机器人,我们自己》中,Mindell 设想有个渠道可以告诉机器提升或降低风险(开快点或者慢点)。但谁来保证这种风险是精确的呢?如果大众可以在排放问题上造假的话,谁能保证它在安全测试中就不会呢?
类似这样的问题正是机器人学先驱 Rodney Brooks 认为 Google 对无人车的信任过高的原因。这不仅是因为这项技术尚未就绪,也因为归根结底人喜欢有人在场来控制局面,尤其是在自己生命处于危急情况下。Brooks 指出火车史上有过类似简单得多的控制问题:“尽管机场无人驾驶列车已有多年,但大家也只有对无人驾驶地铁感到 OK。” 他提到了发生在 2009年 的华盛顿地铁事故,一辆计算机控制的地铁撞上了另一列地铁,造成 9 人死亡,80 多人受伤。这次碰撞发生后,乘客要求恢复由人来控制地铁。“人开地铁后地铁的运行表现开始下降,因为人类司机并不擅长把地铁停靠在标志线上,但大家的回应是 ‘不行,你们得有人来接管。’” Brooks 指出。后来花了 1800 万美元进行调查并升级后第一代的计算机驱动列车才又重返轨道。
微软研究院 AI 实验室的负责人 Eric Horvitz 认为,现在给这一切会如何发展下结论还为时尚早,但他认为我们很快就将看到至少有一座大城市会被一批公共微型交通工具覆盖。“你可以想象城市颇为不同的样子,” Horvitz 说:“你要去巴黎郊外,但是你不能开自己的车去那里,不过不用担心,那里已经被非常灵活的微型交通覆盖。什么时候想走你只需叫一辆就会有车过来接你去到那个地方。对我来说这听起来挺不错的。”
2023-09-10 08:01
2023-09-02 10:25
2022-09-14 09:46
2022-09-13 10:12
2022-02-02 05:12
2022-02-02 05:10
2016-04-16 06:03
2016-04-16 06:02
2016-04-16 06:00