位置: 首页 常识

影子模式的危害(如何看待自动驾驶中的shadow mode)

2024-10-03 10:15:20 100




1 影子模式是什么

一旦影子模式开启,系统就会进入到一种特殊的“观察”状态。在用户驾驶车辆时,系统会针对传感器传来的数据,也生成一种驾驶逻辑,然后用这个驾驶逻辑与用户的操作方式进行比对。

如果系统算出来的驾驶方式与用户驾驶方式相同,就会认为这个算法是有效的。如果系统算出来的方式与用户的处理不一致,系统则会上传数据到后台,通过大数据分析产生不一致的原因。然后通过学习,达到“更符合人们预期”的输出结果。

它的核心其实就两点,记录用户的驾驶行为,记录走过的路况数据,然后把收集到的信息传到数据中心进行神经网络训练。最后得出新的算法,通过OTA的方式推送给用户,然后开始新一轮的循环。


2 影子模式有什么用

对于自动驾驶的落地起推动作用吗?答案是必然的。

在2016年特斯拉首次推出FSD时,就提出了这样一个说法。那就是在实现真正的自动驾驶之前,需要收集大量数据,官方说法是需要“在现实世界行驶数百万英里的距离来校准这个新系统”,这样才能证明该技术是安全可靠的。

1英里=1.609344千米(公里)


值得一提的是,“影子模式(shadow-mode)”功能可在后台默默运行,将摄像头、毫米波雷达等传感器收集起来的数据源源不断地传输给特斯拉。

这也意味着,特斯拉绝大部分自动行驶数据是通过特斯拉汽车来收集的,只有很小一部分来源于测试车队。

早在2018年11月,特斯拉车主在启用Autopilot智能驾驶系统时已经行驶超过10亿英里(约合16亿公里),而现在该数据已经突破30亿英里(超过48亿公里),相当于绕地球跑了12万圈。

众所周知,行驶里程是衡量自动驾驶技术成熟的一项重要指标,而特斯拉的厉害之处在于,其30亿英里是来源于实际道路,不是计算机模拟出来的。


自动驾驶巨头Waymo开放道路测试也已超2000万英里。

添加图片注释,不超过 140 字(可选)

特斯拉不仅希望利用这些数据来改进其Autopilot系统,而且希望这些数据能帮助监管机构发现其系统可改善道路安全。

添加图片注释,不超过 140 字(可选)

特斯拉的Autopilot系统一直以来都很引人注目,但也引起了不少的争议。此前,特斯拉汽车在Autopilot开启状态下发生过多起撞车事故。

特斯拉曾表示,它的Autopilot系统只是部分实现了自动化,比如,使汽车保持在车道上,与前方车辆保持安全距离。这只是为了辅助司机,司机必须随时准备干预。

特斯拉致力于使用高度依赖视觉的方式来实现全自动驾驶,该公司可以利用电动汽车上的摄像头和人工智能,来训练自己的神经网络,使其能够对道路上的情况做出反应。相比之下,其他主流的自动驾驶公司却没有采用这种方法。

Alphabet旗下的自动驾驶部门Waymo和通用汽车旗下的自动驾驶子公司Cruise被认为是自动驾驶领域的领导者,他们都依赖激光雷达,而特斯拉的CEO埃隆·马斯克(Elon Musk)认为这是徒劳的。


3 数据隐私/数据安全问题

那影子模式是否涉及数据安全呢?

既然说到安全,就说明数据有危险。数据可能有哪些危险,通常比如数据泄露、篡改、滥用。

数据泄露- 隐私泄露。

数据滥用- 用户个人信息被第三方获取后用于广告推送等。

保障数据安全是说,数据如果泄露或损坏了会不安全,有不好的后果,我们如何去预防这些危害。

(一)数据泄露

对于数据泄露其实需要确认隐私的范围。

不同人对于自己隐私的定义是不一样的。

哪怕当你使用高德地图导航的时候,你已经将你在某一个时段的出行轨迹暴露给社会的一部分。

不可否认未来汽车会收集更多驾驶员相关信息,智能驾驶的智能一部分提现在驾驶意图和驾驶习惯的预测,要做到这一点,必然需要信息的收集。

还是要指出,这些东西仍然不是只有智能汽车才会带来的。

如果留意的话,会发现iPhone会在下班时间提示“下班了,现在回家?”类似信息,其实已经在日常收集信息。

综上,可能讨论为当今如何保护用户个人隐私更为实际。

(二)数据滥用

要防止用户个人信息被第三方获取后用于广告推送等,需要相关部门加强监管,提高违法门槛。