特斯拉Autopilot到底安全吗?特斯拉专题

2021-09-23

【智能汽车网】

“人们关注的重点一直是创新,而不是平安”

编译 | 杨玉科

编辑 | Jane

出品 | 帮宁事情室(gbngzs)

2017年购置特斯拉Model S(设置|询价)时,罗宾·吉乌拉(Robin Geoulla)着实有些挂念,他对这辆车的自动驾驶手艺有些嫌疑。

“完全依赖它,让它自己驾驶,有点恐怖,你懂的。”罗宾这样对一名美国考察职员形貌其对特斯拉Autopilot系统的最初感受。2018年1月,揭晓上述感伤几天前,罗宾那辆Model S在Autopilot启动状态下,撞上一辆停在加州州际公路上的消防车后部。

随着时间推移,罗宾改变了对Autopilot的嫌疑态度。他发现,一样平常情形下,Autopilot在跟踪前面车辆时基本可靠,但劈面临阳光直射或前面车辆突然改变车道,Autopilot系统似乎就会泛起杂乱状态。在接受美国国家运输平安委员会(NTSB)考察职员问询时,罗宾回覆道。

他告诉考察职员,在与消防车追尾之前,他正朝着太阳行驶——这似乎也印证了上述看法。NTSB发现,特斯拉Autopilot设计允许罗宾在行驶中脱离驾驶,当Autopilot启动时,他的手险些约30分钟都不在偏向盘上。

NTSB此前曾敦促美国国家公路交通平安治理局(NHTSA)考察Autopilot的局限性、司机滥用的可能性,以及一系列涉及Autopilot事故(其中有部门致命事故)后可能存在的平安风险。

NTSB新任主席詹妮弗·霍曼迪(Jennifer Homendy)告诉路透社:“事实注释,人们关注的重点一直是创新,而不是平安。我希望当下就是发生转变的最先。”她说,特斯拉Autopilot与航空领域使用的更严酷自动驾驶系统没有可比性,后者配有训练有素的航行员,而且匹配应对疲劳、药物和酒精测试的相关规则。

特斯拉网站显示,Autopilot是一种先进的驾驶员辅助功效,当前版本无法实现自动驾驶。启用该系统前,司机必须把手放在偏向盘上,并保持对车辆的控制。

罗宾的事故是NHTSA正在考察的12起(包罗9月13日弗罗里达事故)涉及Autopilot事故之一,这是该机构自特斯拉 2015年引入Autopilot系统以来最深入的考察的一部门。

经路透社查阅NHTSA声明、NTSB文件和警方讲述显示,正在考察的这些事故中,大多数发生在天黑后,或阳光耀眼等能见度有限的条件下。自动驾驶专家示意,这引发了人们对Autopilot在特殊驾驶条件下应变能力的质疑。

NHTSA谈话人在发给路透社的一份声明中写道:“当我们发现对公共平安组成不合理风险时,我们将接纳行动。”

▍考察Autopilot

考察行动早已睁开。

自2016年以来,美国汽车平安羁系机构已陆续放置33个稀奇事故考察小组,对涉嫌使用先进驾驶辅助系统的特斯拉事故举行考察。NHTSA已经清扫其中3起非致命事故中使用Autopilot的可能性。

NHTSA当下对Autopilot的考察,重新引出一个问题——Autopilot系统到底是否平安?这也是特斯拉首席执行官埃隆·马斯克(Elon Musk)面临的重大挑战。

对于换道等高级驾驶辅助功效,特斯拉向客户收取1万美元用度,准许最终只使用摄像头和高级软件就能实现自动驾驶。而其他汽车制造商和自动驾驶公司不仅使用摄像头,还使用更昂贵的硬件,包罗雷达和激光雷达。

马斯克曾示意,配备8个摄像头的特斯拉比人类驾驶还要平安。但专家和业内高管则示意,摄像头手艺会受到漆黑、阳光,以及暴雨、雪和雾等恶劣天气条件的影响。

卡耐基梅隆大学电子与盘算机工程教授拉吉·拉基库马尔(Raj Rajkumar)以为,现今盘算机视觉远未到达完善,在可预见的未来也将云云。

2016年,特斯拉在佛罗里达州威利斯顿西部发生美国首起涉及Autopilot的致命事故。在明亮的天空下,司机和Autopilot都没能识别一辆重型卡车的白色挡板。那时,特斯拉没有刹车,而是直直地撞上了那辆重型卡车。

路透社查阅文件显示,2017年1月NHTSA竣事对那次致命事故的考察,在与特斯拉相关职员举行一些有争议的交流后,发现Autopilot性能没有缺陷。

凭证羁系机构发给特斯拉的一份稀奇下令,2016年12月,作为考察的一部门,羁系机构要求特斯拉提供对Autopilot引发的任何内部平安担忧的细节,包罗司机误用或滥用的可能性。

一位NHTSA状师发现,特斯拉的最初回应不够充实。时任特斯拉总执法照料托德·马龙(Todd Maron)再次举行弥补,他告诉羁系机构,对方要求“过于宽泛”,他不能能将Autopilot在开发历程中涉及的所有问题逐一枚举出来。

只管云云,马龙以为特斯拉自始至终都持相助态度。在Autopilot开发历程中,特斯拉员工曾谈到他们的担忧——特斯拉有时会刹车失灵或加速,或转向失败,以及司机某些误用和滥用,但没有提供更多细节。

NHTSA文件显示,羁系机构想知道,特斯拉是若何识别应急车辆上闪灼的灯,或检测蹊径上的消防车、救护车和警车的存在?该机构从12家竞争对手那里获得了类似信息。“特斯拉被要求天生并验证数据,以及他们对这些数据的注释,NHTSA将对所有信息举行自力验证和剖析。”

作为电动汽车先驱,马斯克一直在指斥人士和羁系机构眼前勉力为Autopilot辩护。而且,特斯拉还行使Autopilot无线更新汽车软件,逾越并绕开传统汽车召回程序。

马斯克多次宣传Autopilot功效。在一些指斥人士眼中,一些宣传方式会误导消费者,后者信托特斯拉可以做到自动驾驶——事实恰恰相反,车主手册告诉司隐秘保持专注,并说明晰这项手艺的局限性。

霍曼迪说:“为了销售汽车,一些制造商会根据他们的态度做他们想做的事情,这就需要政府羁系控制。”

▍2秒钟的分界线

就在联邦官员审查特斯拉Autopilot平安性之际,有一项研究注释该系统若何影响驾驶员行为。

麻省理工学院研究职员称,与单纯人类驾驶相比,当Autopilot系统开启时,驾驶员的眼睛偏离蹊径频率更高,时间更长。

这项研究被以为是首次使用真实驾驶数据来权衡Autopilot驾驶员注重力集中度,以及其视线到底在前方蹊径的哪一边。

麻省理工学院研究科学家、该研究的作者之一皮尼娜·格森(Pnina Gershon)说:“这是我们第一次将Autopilot对司机注重力的影响举行量化。从本质上讲,数据注释,当Autopilot启用时,我们看到,驾驶员视线偏离蹊径的时间更长。”

NHTSA正在考察11起事故,其中多起涉及Autopilot车辆与住手的应急车辆相撞。特斯拉必须在2021年10月22日前,提交联邦羁系机构要求的书面回复和数据。

这项考察只是Autopilot更普遍平安问题的一小部门。NTSB在对多起涉及Autopilot车辆的致命车祸考察中示意,驾驶员羁系不力,以及Autopilot缺乏平安保障。NTSB为此忠言道,这种Level 2系统可能导致人类过分依赖,被称为“自动化自满”。

与特斯拉有关的滥用情形在YouTube上被详尽纪录。纪录显示,有司机读着报纸或直接坐在后排,显示出对驾驶义务的果然无视。

麻省理工学院研究职员试图通太过析特斯拉司机手动排除Autopilot系统,并重新控制车辆时代的眼神来量化注重力水平。

研究职员通过车内摄像头考察290个这种切换实例,区分与驾驶义务相关的、朝向后视镜和仪表板的眼光,以及与驾驶无关的眼光,如向下和朝向中央区域的眼光。研究发现,与单纯人类驾驶员相比,Autopilot模式下,与驾驶相关的眼光会削减。与驾驶无关的眼光次数增多,其中有22%的眼光扫视跨越2秒,而单纯人类驾驶员这一比例为4%。

这2秒钟的分界线很主要。为防止分心驾驶,NHTSA建议工程师设计一种系统,确保驾驶者视线远离蹊径时间不跨越2秒钟。格森透露,在研究历程中发现了几回跨越5秒的非驾驶眼神。

当驾驶员辅助系统处置驾驶义务时,驾驶员是否平安地将视线移开,这是特斯拉和其他汽车制造商需要思量的一个主要问题。研究效果注释,是时刻思量这个问题了。

2015年,特斯拉推出第一代Autopilot。2017年,通用汽车于推出超级巡航驾驶员辅助系统。自那以后,众多汽车制造商纷纷跟进,推出更先进的功效。

最新研究注释,只管这些Level 2系统多年来一直在路上,但司机使用它们或某些系统效果若何,汽车制造商们并没有深入考量对比。

格森郁闷系统开发的伶仃性子,以及这些系统若何影响操作车辆的人类。“若是各厂商继续单打独斗,我们最终将发现,两种车辆并排行驶在路上,然而它们的开发基于差其余设计理念和政策方式,无法在一个生态系统中有用相助。”格森说,“因此,我们需要拿出政策,系统设计者应该传输给消费者什么信息,而消费者凭证直观信息做出一些驾驶决议。”

▍先解决平安问题

美国首席事故考察员敦促特斯拉在扩大其自动驾驶功效之前,先解决平安问题。

霍曼迪在接受《华尔街日报》采访时说,“完全自动驾驶”这个词是“误导和不卖力任的”。《华尔街日报》则以为,与汽车手册上的忠言相比,市场营销可能会吸引更多关注。

8月13日,霍曼迪宣誓就职后,首次接受彭博社采访时示意:“无论是特斯拉,照样其他公司,这些制造商都有责任老实地说出他们的手艺能做什么,不能做什么。”接着,她赞扬特斯拉在此前多次NTSB考察中的相助,示意并不想把特斯拉单独拎出来说事。

她举例道,种种汽车的电视广告给人一种错误印象,即汽车可以自动转向和制动。“我惊呆了。”霍曼迪说。

解决这些驾驶辅助系统的平安问题是霍曼迪设计的“一长串”行动之一。“我们有一个伟大的已往,但我们必须着眼于未来。”她说,“我们正处在一个转型转变时代,我听说了许多关于创新和投资的事情,但没怎么听说过平安问题。这就是切入点,平安必须是重点。”

只管Autopilot名字(英文直译为自动驾驶)和马斯克的全心表述,但事实是,Autopilot在手艺上并不具备“完全自动驾驶”能力。不停发生的事故和失去的生命继续证实了这一点。

“NHTSA提醒民众,现在市面上没有一辆天真车能够自动驾驶。”该机构谈话人在一份考察声明中说。

现在尚不清晰,NHTSA能否纠正特斯拉的行为。这位谈话人弥补道,所有州的执法都要求人类司机对车辆操作卖力。

由于云云多的危险源自特斯拉过分宣传驾驶辅助系统能力,更有用的约束可能来自联邦商业委员会(Federal Trade Commission)等实体。上周,两名参议员呼吁联邦商业委员会考察特斯拉是否行使敲诈营销,使民众处于危险之中。

8月13日,美国汽车平安羁系机构启动对特斯拉Autopilot劈头考察。凭证NHTSA提交文件,考察涉及Model Y、Model S、Model X(设置|询价)和Model 3(设置|询价)车型2014款至2021款,估量有76.5万辆汽车受影响。

该机构ODI办公室示意,自2018年1月以来,已经确认11起事故。这些事故中,种种特斯拉车型在第一反映现场四周驾驶,随后撞上现场的一辆或多辆汽车。除11起事故外,该机构讲述还提到17人受伤和1人殒命。

(本文部门内容综合Automotive News、Reuters、Bloomberg报道,部门图片来自网络)

智车派-专业有趣的说车新势力
1
联系我们