Quantcast
智能/自动驾驶系统到底是人类救星?还是杀人工具? – 洛杉矶周报 – 亚洲版

2019 年的 12 月 29 日午夜,一辆 Honda Civic 正开过加州 Gardena 的一个十字路口。这时,一台 2016 年的 Model S 从交流道下来,闯过红灯,在丝毫没有减速的情况下直接撞上这台 Honda Civic。车上的两名乘客当场死亡,而这台 Model S 当时正在自动驾驶系统(Autopilot)上。

两年后的今日,洛杉矶县的检察官以两项驾驶杀人重罪起诉这位 27岁的驾驶人。专家指出,这是美国境内第一起 “使用半自动驾驶系统造成严重事故” 而起诉驾驶的重大杀人案件。

智能驾驶系统推出之后似乎屡屡出大包,一篇篇新闻触目惊心的下著 “自动驾驶辗过测试障碍物”、”特斯拉造成死亡车祸”等标题,特斯拉也是大动作招回 2014 至 2021 年间推出的 765,000 辆特斯拉,准备进行调查。

是人类救星?还是杀人工具?

这个案件是今日自动驾驶技术的 “反面” 里程碑,提醒著高科技背后的丑陋面。这些无辜生命也警示著驾驶人,如果要使用它,同时必须对这项技术负起全责。

首先,误导。当车商在行销的目的上大张旗鼓使用 “Autopilot”、 “SuperCruise” 或是 “ProPilot” 这些 “超智能”的字眼时,往往会误导消费者,让他们误认为这些技术 “无所不能”。

今日,没有商用汽车可以配备完全自动驾驶。特斯拉的 Autopilot 功能被归类为 “2级” 车辆自主性,意味著车辆可以控制转向、换道和加速,但驾驶座上的人可以随时拿回控制权。

再来,误把道路测试当实际车况。没错,就算是全自动驾驶技术也是经过道路测试,被各种机构反复测试研究才开发出来的。但是,测试环境通常是在有人员或仪器监视的情况之下,加上自动驾驶技术在科技历史上相对较新,等于目前所有使用自动驾驶技术的消费者都是车商的“测试员”,在没有正确宣导消费者这些科技的不足面,或是告知不当操作之下的法规条例等,悲剧只会一再上演。

这起案件,可以说是尖端科技和基本人为操作失误的交会点。使用得宜可以带来方便,但如果完全仰赖便有机会成为杀人工具。

自动驾驶技术背黑锅?

我本人是特斯拉的使用者,驾驶年龄为三年。由于是特斯拉车主,我当然会对任何特斯拉的事故报导高度关注。但是说真的,我每次都会对这些新闻感到不可思议,不是我不相信新闻,是我不敢相信这些出事的驾驶对于自动驾驶的超信任度。

以我来说,在高速公路塞车的情况之下使用自动驾驶是非常没有效率的,因为自动驾驶的反应时间绝对没有人脑快,如果必须快速换道跟加速超车,人开绝对比电脑开来得方便(以现阶段科技来说)。我只会在需要远程的状况,或是高速公路畅通的状况之下开自动驾驶系统,一是因为车流顺畅无需换道,二是就算想换道,由于车距宽反应时间长,车子换道也较为平顺。美国高速公路的车速较快,没有把握我是不会开自动驾驶系统,把生命交给一个新科技手上的。

当准备下交流道的时候,特斯拉在自动驾驶导航模式下都会在之前告知车主 “自动驾驶准备要关闭了”,要下交流道之前甚至会自己关掉自动驾驶系统,强迫驾驶手动开车。回头看这个案子,我觉得更奇怪,驾驶是耳朵灌水了,还是神智不清,让车子直接闯过红灯撞上其他车辆?

很多情况,如果驾驶眼睛盯著前方,不管有没有在使用自动驾驶技术,驾驶都可以立刻踩下煞车急停。我再想著之前新闻报导的许多案件,难道开特斯拉眼睛大脑就放空了吗?

如果负责任的方式开车(开任何车不都应该负责任吗),“自动驾驶技术杀人” 这般的新闻标题只会让我觉得媒体炒作,无故加深民众对于新科技的不信任度。未来的车子只会越来越进步,不会原地踏地的。正确使用新科技,而不是把人为失误让科技背黑锅,我们才是驾驭科技的真正一方。