软件BUG是智能汽车的最大威胁,亟待制定智能汽
关注「黑洞科技观察」
传递科技背后的思考
大家好,今天和大家说一个科技思考的话题。
最近特斯拉刹车失灵的问题对公众舆论的触动很大,我也陆续写了几篇文章试图从技术角度对特斯拉的刹车系统进行科普。
然而不管技术上说得多么清楚,仍然有很多读者在评论区留言:特斯拉魔改了博世刹车系统,软件会死机,问题根本找不出来。
虽然特斯拉的刹车并没有魔改,特斯拉的软件也无法让刹车硬到踩不下去,但是读者的心情是可以理解的。
就算现在的特斯拉还无法通过软件完全控制汽车,但也不能保证将来不会发生这种情况。随着智能座舱、无人驾驶的发展,软件在智能汽车中的作用也会越来越大。当软件的重要性超过一定阈值时,这种情况一定会发生。小到车机死机,大到无人驾驶算法严重误判。总之只要车里面有人或者车外面有人,威胁就永远存在。
智能汽车属于人工智能,人类对于人工智能的警惕和思考一直在进行,尤其是关于人工智能伦理的思考。
今天我们就对智能汽车的软件安全性进行一次科技思考。
机器人三大法则
很多读者应该看过一部好莱坞科幻电影《我,机器人》,又叫《机械公敌》。
电影改编自一部1950年出版的小说《I,Robot》,讲述了一个人工智能阴谋消灭人类的故事。小说创造了适用于机器人的三大法则:
第一法则:机器人不得伤害人类个体,或者目睹人类个体遭受危险而袖手不管
第二法则:机器人必须服从人给予它的命令,当该命令与第一法则冲突时例外
第三法则:机器人在不违反第一、第二法则的情况下要尽可能保护自己的生存
这三个法则的核心目的就是保证机器人对人类没有威胁。
智能汽车的“安全法则”
智能汽车,作为人工智能软件的最终载体,也急需制定一套类似的安全法则。
这里所指的智能汽车,是指有驾驶员的智能汽车。对于完全无人驾驶的车辆,需要制定另一套规则。
接下来我们就说一说需要哪些安全法则。
第一法则:智能汽车的动力系统、转向系统和刹车系统必须和人工智能软件完全解耦。
这一法则保证了智能汽车首先是汽车,即使在全部智能软件失效的情况下,也依然能够安全驾驶。
第二法则:驾驶员有权随时接管人工智能的一切行为。
这一法则保证了驾驶员是智能汽车的第一责任人。
第三法则:所有对硬件的操作动作都应该被详细记录。
这一法则保证了一旦发生事故,整个过程是可以回溯的。
这三个法则的核心目的是保证智能汽车是为人类服务的。驾驶员一旦坐进智能汽车,就能感觉到对车辆的全部控制权。
软件不可怕,软件的BUG也一定会存在。只有制定合理的安全法则,才能像防火墙一样将软件BUG和汽车隔离开。