不要相信马斯克关于AutoPilot的说明,因为可能是假的!
(资料图)
这是特斯拉在AutoPilot致死案审讯中发表的立场。
这起和特斯拉自动驾驶有关、导致意外致命的事故,死者的家人们认为马斯克关于特斯拉自动驾驶功能的言论存在误导性。
但特斯拉方面表示,不应该质疑这些言论,因为马斯克常年是Deepfake的受害者。
不过根据法官裁定,马斯克必须要出庭对自己的言论作证了。
特斯拉:马斯克的话都是深度伪造的
特斯拉之所以会发表这个立场,是因为在特斯拉AutoPilot致死案中,原告律师想要让马斯克出庭作证。
死者家属认为,死者过于相信AutoPilot原因之一就是马斯克对AutoPilot和FSD发表的言论。
比如在2016年,马斯克就说过,“目前,Model S和Model X可以实现比人更安全的自动驾驶。”
但特斯拉反对让马斯克出庭作证的要求,因为他们认为马斯克的这些话很可能是Deepfake合成的。
Deepfake,一种由机器学习带来的AI技术,可以生成完全虚拟的视频或者音频。比如换脸视频,或者伪造的音频。
△左:马斯克;右:Deepfake生成的马斯克
所以很多人都会用Deepfake来让一些名人说他们没说过的话,或者在视频里做他们没做过的事。
特斯拉方面表示,马斯克无法回忆起那些言论的细节,因为马斯克和很多公众人物一样,是许多Deepfake视频和录音的素材,所以也不必自证。
但审理该案件的法官表示,特斯拉的这种论点“令人深感不安”。
特斯拉的立场是,由于马斯克很有名,而且更容易成为Deepfake的目标,因此他的公开声明不受约束。
这意味着马斯克等这类名人可以在公共场合想说啥就说啥,还不用对自己的言行负责。因为即使后来有人追究,也能用Deepfake开脱。
至于原告具体会引用马斯克说过的什么,有待后续报道。但至少特斯拉和马斯克,确实造假过。
FSD宣传视频造假
本次事件的核心,还是2018年那起华人苹果工程师的车祸。
这位工程师因为入职苹果,买了一辆当时最好的Model X,从特斯拉的宣传到销售,都给他强调特斯拉的不同之处就是领先的自动驾驶能力。
而在某天驾车回家过程中,他放心于AutoPilot模式,进入高速公路后车辆却径直撞上了路障。车辆损毁严重,他在送往医院中不治身亡。
虽然后续调查中显示,事故发生时,死者在玩手机并没有及时接管,因此这场事故的最终责任人是死者,而不是特斯拉。
但死者的家属还是将特斯拉告上法庭,认为特斯拉存在产品设计缺陷、未发出警告、违反保证、故意和疏忽的虚假陈述以及虚假广告。
特斯拉当时的回应称这起事故是用户使用不当、未能及时接管导致的车祸,和自己的AutoPilot没有关系。
不过在这起案件审理过程中,却发现了一个惊人的事实:特斯拉FSD宣传视频造假。
视频中车辆顺畅地从私人住宅开到特斯拉总部,其实是因为系统里有提前做好的环境建模。
系统早就知道自己要走什么样的路线、怎么走,并不是视频暗示的那样,特斯拉的驾驶系统具备实时感知、决策的能力。
另外,视频开头展示的“驾驶员仅因为法规要求坐在驾驶位,没有操作汽车”也是假的,原视频中司机有过紧急干预接管,不过被剪掉了。
最后自动泊车场景下,车辆也没有能自己找空余车位,拍摄时车辆其实撞到了停车场的护栏。
一句话总结,宣传视频里展示的特斯拉驾驶系统具备的三域贯通驾驶能力,其实都是视频剪辑、拼凑后得到的,系统的真实能力存疑。
那这个视频是谁要求的呢?马斯克。
他亲自布置任务,让AutoPilot团队做出这个视频,并且全程参与、指导剪辑效果。
而特斯拉方面对这个视频的解释是,这并非向用户承诺当时交付的功能,而是展示特斯拉在未来研发中会给车辆搭载什么功能。
毕竟当时这个视频的标题是“Full self-driving hardware on all Teslas”,所有特斯拉车辆上的自动驾驶硬件,的确没有陈述这是交付即用。
特斯拉和马斯克很会玩文字游戏。
而这次,当证据从特斯拉的宣传视频变为马斯克说过的话时,特斯拉也试图用“名气大容易被Deepfake,因此不必自证”来开脱。
但法官和听证会都不买账,已经勒令马斯克在诉讼中出庭作证。
法官表示,马斯克可能会接受长达三个小时的讯问,关于他曾对AutoPilot和FSD发表的言论。
对此,马斯克和特斯拉没有回应。
新闻传送门:
https://www.reuters.com/legal/elon-or-deepfake-musk-must-face-questions-autopilot-statements-2023-04-26/
标签: