特斯拉自动驾驶事故率-特斯拉自动驾驶撞车

tamoadmin 0
  1. 特斯拉在“失控”,而广汽埃安在“起火”
  2. 特斯拉又出事故,自动驾驶到底安全不安全?
  3. 开电动车更容易出事故吗?
  4. 特斯拉的“完全自动驾驶”到底靠不靠谱?
  5. 特斯拉model 3有主动刹车吗
  6. 中国本土特斯拉事故率

特斯拉可以无人驾驶,根据汽车自动驾驶等级的定义,特斯拉的Autopilot自动驾驶属于部分自动化和有条件自动化。不过值得一提的是,国内所有特斯拉车型均配备了“***版”Autopilot,车辆只能能够根据其他车辆与行人在行驶车道内自动实施转向、加速和制动。

作为新能源汽车行业的佼佼者,特斯拉旗下车型包括Model X 、Model S以及Model 3都能实现Autopilot自动驾驶功能。不过要想体验真正的Autopilot自动驾驶,你还得掏钱购买完全自动驾驶能力,从而你的特斯拉才能实现自动泊车、自动变道、自动导航驾驶。

在过去的2019年里,涉及特斯拉汽车的交通事故中,一共有50多人因事故身亡,其中有一小部分是因为驾乘人员过度依赖Autopilot自动驾驶而造成。

特斯拉自动驾驶事故率-特斯拉自动驾驶撞车
(图片来源网络,侵删)

特斯拉官方也表明,目前Autopilot 自动驾驶功能仍需要驾驶员进行主动监控,车辆尚未实现完全自动驾驶。

特斯拉Autopilot自动驾驶中,目前最吻合无人驾驶的功能,那便是“智能召唤”。如果你要去开车,走到停车场负极,手机点一下,即可让车辆自动开到你的身边。

不过该功能在刚推出时,也遭遇了不少尴尬,因为很多车主在使用该功能发生了多起事故,有的车辆碰到***墙,有的被其他车辆倒车撞到。

结论:现阶段的科技水平,特斯拉还没有做到真正意义上的无人驾驶。Autopilot 自动驾驶是一个先进的驾驶系统,旨在提升驾车操控性与便捷性,但不意味驾驶员可以完全放任不管,Autopilot可以降低事故发生的概率,不能防止事故的发生。

相关“特斯拉”文章推荐阅读

_ 特斯拉自动驾驶怎么开启

_ 特斯拉自动泊车使用方法

_ 特斯拉自动驾驶事故分析

特斯拉在“失控”,而广汽埃安在“起火”

“自动驾驶”成为汽车行业竞相争夺的制高点是由于美国豪华电动汽车品牌Tesla(特斯拉)的巨大成功。

截止目前,特斯拉市值达到2767.51亿美元成为远超丰田汽车1726.36亿美元市值的世界第一大汽车品牌。

特斯拉的市值效应不仅反映了投资者对电动汽车未来的无限看好,也在于其对家庭清洁能源的追求。

正如特斯拉所言,“Tesla?正在通过电动汽车、太阳能电池板以及适用于家庭和企业的综合可再生能源解决方案,加速世界向可持续能源的转变。”

“大屏”创造智能

目前,特斯拉在售的车型有特斯拉Model?S、Model?3、Model?X和Model?Y,售价从29万元到100万元人民币不等,其时尚的外观、简洁的内饰等似乎都在表达这个时代的特征。

当然,电动汽车仍是它最具价值的核心。而最具个性的就是它创造性地将“大屏幕”引入汽车当中,开创了属于特斯拉的“智能汽车时代”。

特斯拉将汽车植入大屏幕,通过车身携带的众多传感器、控制器、软件等,将汽车控制按键高度集成在一起,通过大屏幕像触碰手机一样操控,把汽车变成了智能手机,带来了传统汽车所不具备的“前所未有”的驾驶体验。

大屏幕开启了汽车“智能化控制”时代,然而谈起特斯拉的智能化,它还有一项令人称赞的系统就是一套名叫“Autopilot?自动驾驶”的功能:启用?Autopilot?自动驾驶功能后,车辆能够在行驶车道内自动实施转向、加速和制动。

具体功能包括,自动导航驾驶、召唤功能、自动泊车、自动变道和搭载支持完全自动驾驶功能的硬件。

然而,正是特斯拉宣传的自动驾驶功能却频发意外事故,致使多名驾驶员伤亡。

自动驾驶事故***不断

6月1日,省嘉义县,一辆特斯拉Model?3在开启特Autopilot功能,将车速固定在了110km/h高速行驶时,竟径直撞向一辆翻倒在公路上的大卡车,当时天气晴朗,Model?3没有任何刹车

2016年佛罗里达的高速公路上,几乎是同样的情景,一辆Model?S直接撞上一辆拐弯中的货车结果如出一辙。

7月14日,美国亚利桑那州,一辆黑色特斯拉Model?S在本森附近的10号州际公路上与警车相撞,继而导致警车与一辆救护车发生连环追尾,车辆发生碰撞时,他正在使用特斯拉的Autopilot功能。

6月24日,深圳市南坪快速东行方向,一辆Model?3在开启Autopilot状态下跟车,与试图并道的渣土车发生碰撞,车辆未能识别到侧前方并线的渣土车。

特斯拉对事故车辆进行调取分析后表示,事发时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。最后判定为车主操作不当,而非Autopilot的问题。

今年7月30日,特斯拉对发生在日本Model?X诉讼做出回应,否认“特斯拉的自动驾驶技术和驾驶员功能套件的专利缺陷。”有望将Model?X在启用Autopilot的情况下发生的归咎于个人操作不当。

但是,接二连三的均牵涉特斯拉Autopilot系统而导致的事故,却直指特斯拉宣传的这套自动导航驾驶存在鲜为人知的问题。

特斯拉Autopilot自动驾驶系统真的可以“自动”?

目前其处于什么级别呢?到底在何种情况下使用才能不因“Autopilot”发生事故呢?

特斯拉是否虚宣传?

按照SAE?International(国际汽车工程师协会)在2014年提出的自动驾驶汽车分级标准中对Level?2级的定义“车辆对方向盘和加减速中的多项操作提供驾驶,人类驾驶员负责其余的驾驶动作”和Level?4级的定义“由车辆完成所有驾驶操作,人类驾驶员无需保持注意力,但限定道路和环境条件”来看,特斯拉Autopilot系统仍处在Level?2级别。

Level?2级,主要是减少驾驶员的操作负担,驾驶员还是要接管方向盘,并像驾驶普通汽车一样驾驶。

可以看到,特斯拉在功能描述中也强调“”这个词,所以特斯拉并没有实现“完全自动驾驶”的能力。

但是,其官方又将其定义为“完全自动驾驶”能力下的功能,以特斯拉Model?S为例,其在官方宣传中称“每辆新款?Model?S?均标配先进的完全自动驾驶硬件,目前已实现?Autopilot?自动驾驶功能,”就容易让人产生歧义。

同时,根据自动驾驶等级分类的定义来看,目前任何宣称的“自动驾驶”都需要特定场景,并仅能实现自动驾驶系统中算法所适用的情况。

众所周知,人为算法都是有局限性和边界的。

所以,在一系列超出特斯拉Autopilot系统算法之外的情况,驾驶员如果还想依靠它来自动驾驶汽车,就避免不了导致出现意外事故。

而在以上的事故中,驾驶员都存在过度相信和依靠特斯拉Autopilot驾驶的行为,最终因超出“特斯拉Autopilot系统场景范围”而酿成悲剧。特斯拉也靠此项条件,否认了有设计上的错误,把事故归咎于司机操作不当。

不过从这一点看,足以证明特斯拉宣称的“Autopilot?自动驾驶”并不可靠。

在实际使用中,驾驶员仍需像平时驾车一样,注意力集中并随时准备进行人为干预,只有这样才不会因“技术误判”而导致无法挽回的损失。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉又出事故,自动驾驶到底安全不安全?

日前,一则特斯拉“失控”撞楼体的消息再度意料之中的引爆全网。最为值得关注的是,作为自动驾驶系统研发先驱者,特斯拉已经有着数不胜数的车辆“失控”现象发生,无论国内国外。而另一边,还有一家新能源汽车企业,他们家旗下车型却一直在“起火”。

8个月内6起“起火”事故?概率比特斯拉“失控”还高

这家车企就是刚刚完成独立的“广汽埃安”。进入2020年后,广汽埃安首款车型?Aion?S就开始接二连三的发生“起火”事故,造成了很大的社会性影响。其中的几次自燃还导致了大面积“伤及无辜”,除车主外,对其它社会车辆造成了很大的财产损失。

细细算来,广汽埃安Aion?S车型起火至最近一次发生(12月17日,太原),在8个月的时间内起火事故已经有6起之多。根据广汽埃安方面官方回复,起火车辆为营运车辆,原因尚未查明,但厂家方面认为该车辆可能进行过改装。

根据起火来看,这辆于太原起火的Aion?S在起火时属于停泊状态,并未充电。另外,和之前的几起起火事故相同的是,这辆Aion?S起火车辆也是从起火到爆炸。最终,车辆燃烧至几近空壳。从网络上曝光的来看,新车起火燃烧点位于车尾附近底部,不排除仍旧是电池故障导致。

刚才我们也已经提到过,广汽埃安旗下的Aion?S车型在8个月的时间内共有6起起火事故,硬要说成是偶然现象,恐怕已经不足以取信于公众。而网络上针对前几起Aion?S的分析倒是颇有意思,网路上均认为Aion?S电池起火或与宁德提供的811电池有关。

而编辑发现,针对前几起事故,无论是位于广州、惠州,还是深圳、海口的事故,广汽埃安一直没有正面回复,另外也并未向公众公布,起火车辆所搭载的动力电池品牌。而后续的处理结果,也均不了了之。

事故发生共计6起,而始终没有承认旗下Aion?S的缺陷,这让许多消费者对Aion?S乃至广汽埃安品牌产生了动摇。值得注意的是,广汽埃安旗下共计3款车型,分别是最先出现的Aion?S以及Aion?LX、Aion?V。而Aion?S一直以来均是广汽埃安销量的绝对支柱。

绝对支柱Aion?S接连发生起火事故,而厂家方面一直取避讳的态度,恐怕也会使Aion?S在C端用户中的口碑降低。经过我们调查,我们发现广汽埃安Aion?S的销量终端目前以网约车公司为主,而在这6起事故之中,也有至少2起事故是营运车辆。

编辑点评:

作为电动汽车品牌,对上市销售的车辆应该起到负责的态度,而不是避重就轻,任由旗下车型发展。广汽埃安在2020年广州车展上正式宣布了品牌独立,向冲击高端品牌市场,受到了广泛关注。而无穷无尽的起火,广汽埃安到底应该如何收场?我们拭目以待。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

开电动车更容易出事故吗?

特斯拉车辆出事故不是第一次了,之前很早就传闻其自动驾驶无法识别前方白色故障物,并且因此发生过多起事故。特斯拉尚且如此,其它电动车厂商的自动驾驶又是否能让人放心呢?

我们知道,自动驾驶划分为以下几个等级,自动化程度由低到高分别为L0到L5:

L0级-自动驾驶:无自动驾驶能力,油门、煞车、方向盘等全程皆由驾驶者掌控,也是目前主流的驾驶方式。

L1级-自动驾驶:驾驶操控为主,系统适时。

L2级-自动驾驶:部份自动化,驾驶者仍然需要专心于路况。

L3级-自动驾驶:有条件的部分自动控制,该系统可自动控制车辆在大多数路况下形式,驾驶员的注意力不需专注于路况。

L4级-自动驾驶:高度自动化驾驶,不过还是具有方向盘等界面提供给驾驶员适时操控。

可以看到,L3、L4、L5级别,驾驶员已经不需要完全关心、甚至一点都不需要关心路况,对一个非常谨慎的人来说,已经会开始担心自动驾驶靠谱不靠谱了。我个人认为,L3往后的级别,都必须在特定道路上才能放开,在路况复杂地区或者速度过高区域,一定不能放开。否则一旦碰到紧急或者意外情况,总有一定几率发生事故。我对自动驾驶的算法也有一定了解,比如强化学习。从算法本身出发,就没有能覆盖100%场景的算法。

况且自动驾驶还有一个很难解决的问题,那就是问题。当真的到了避无可避、一定会发生事故的情况下,到底作出有利于谁的决策?是要有利于本方驾驶员,还是要有利于本方车辆副驾驶,还是要有利于行人或者对方车辆?不管做出任何决定,相信都会遭到很多人的反对,算法在这种情况下如何抉择,完全取决于算法设计者如何设置算法的各种冷冰冰的参数,不管什么决策结果都是冷酷无情的。

特斯拉的“完全自动驾驶”到底靠不靠谱?

9月5日,四川南充双福街,一辆?特斯拉Model?X失控,撞上多辆车和众多行人,造成2人死亡6人受伤。警方通报,司机刘某经检测排除酒驾、毒驾嫌疑,事故原因还在进一步调查当中。发生5小时后,特斯拉官方微博发表声明,称据对车辆数据的分析显示车辆没有发生故障,会尽全力配合警方的调查工作。

8月12日,浙江温州某小区,一辆特斯拉Model?3高速冲撞停车场的拦截杆,连撞多辆车后,车辆倒翻、受损严重,车主送医抢救7小时,最终脱离危险。该车主发朋友圈称,车辆突然加速,他取了紧急制动措施,但并未起到任何作用。

8月9日,上海杨思路,一辆特斯拉Model?3突然失控冲入一座加油站内。除撞了撞坏防撞杆等设施外,还撞坏了站内3辆机动车,撞伤一名工作人员和一名车主。肇事车主称,事故发生时,自己正驾车沿着杨思路西向东行驶,为防止撞击前方土方车,试图撞击绿化带来强制减速,但车辆失去控制,径直撞入加油站。

6月16日,江西南昌,一辆特斯拉Model?3行驶过程中,车辆时速突然从50~60km自动提速至127km,车辆失控开出约8公里后,最终撞上土堆翻车起火。驾驶员表示,事故原因是车辆“失控”且刹车失灵导致。

但是特斯拉方面表示,后台调取车辆行驶数据及现场勘查情况:系统检测到事故发生前几分钟及碰撞时,有踩下加速踏板的信号,无踩下制动踏板信号;勘查现场,事故路段未见刹车痕迹等。

——————————

电动车真的更容易出事故吗?

这一系列事故,让许多网友产生质疑,是不是电动车更容易出事故呢?听到这个问题时,笔者的第一个反应是否定的,无论是电动车还是燃油车,制动系统都是安全设计的最高优先级,不通过安全测试根本没法投入市场。

但是笔者又不禁思考起来,为什么电动车会给人造成这样的印象呢?难道电动车的动力结构,导致车辆真的更容易发生事故?还是开电动车容易误操作,容易错把电门当刹车?

因为车内踏板位置不会有监控,只能根据行车电脑的信号来做判断,而车企身为当事人,给出的调查结果也难以令人完全信服,这就陷入一个罗生门的困境。车主认为是车的故障,车企认为车主的误操作。

那么,我们不妨就从『电动车』和『驾驶员』两个角度来讨论一下这个问题。

车辆故障?

首先,我们来看车辆的制动设计。虽然汽车工业已经发展了数百年,各项工艺都在不断引入新技术,但是为了确保可靠性,车辆的制动系统到今天为止仍是以纯机械结构为主,并且都配备了相应的冗余设计。

其中,每个轮的制动力都由单独的油路控制,互不影响,油路的总泵内部通常也有两个腔,分别控制一对车轮(或前后、或对角),尽可能的独立设计,目的就是保证不会同时丢失的四个轮的制动力。

与此同时,刹车使用的液压系统本身也是很可靠的力学结构(工业大型器械都多用液压),即使出现故障,液压泄露也是需要时间的,不会瞬间失去制动力,而刹车助力系统(如真空泵或电子助力)失效,只要你用力踩踏踏板,液压也可以起到制动效果,虽然没有助力后会弱一点。

具体到车型中,特斯拉用的是来自博世的iBooster电动助力刹车系统。相比传统的真空助力泵,电动助力刹车可以通过软件定义刹车曲线来调节刹车踏板脚感,同时由于电驱的高效特性,实现了更高的能效,并且整合了动能回收

根据博世提供的资料显示,这套系统提供了两道在极端情况下的安全失效模式。在第一道模式中有两种极端情况:一是车载电源系统故障不能满负载运行,此时iBooster将以节能模式运行;二是iBooster本身出现了故障,这时候车辆的电子稳定系统将接替刹车系统发挥作用。

上述两种情况下车辆仍能够提供0.4g的减速度(大约为普通车型全力刹车的40%效果),前提是驾驶员大力踩下刹车踏板(约合20千克)。

第二道模式是最极端的情况,即车辆完全断电,这时驾驶员踩下刹车踏板,iBooster将不会提供电子助力,但是仍然能够触发刹车的液压结构,来对车辆四轮产生制动力。

从原理上来说,特斯拉使用的电子助力与传统的真空助力泵系统,区别仅限于刹车助力来源不同,因此在任何情况下,只要大力踩下刹车踏板,这两种系统都会提供相应的制动力令车辆减速。除非制动系统的机械结构发生损坏,否则刹车失灵发生的概率非常低。

用车贴士:如刹车系统完全失效,我们也不必恐慌,车辆还有一套备份的刹车系统——电子手刹。通过长按电子手刹按键,车辆能够通过启动ABS系统对车辆进行制动直至刹停。

在特斯拉的车主手册中,也说明在紧急情况下通过电子手刹进行刹车的操作方法:长按方向盘后方换挡杆的末端,车辆即可紧急刹车。

再说说优先级的问题。

在车辆的动力结构中,加速和刹车时两套相对独立的系统,无论是燃油车还是电动车,制动系统在车辆指令中都是最高优先级。刹车踏板本身会触发制动系统,与此同时,它的信号传入行车电脑后,车辆会直接切断动力输出,无论你是踩着油门不放还是开启自动驾驶都一样。

在上面提到事故中,车辆没有减速反而继续加速,那么应该是车辆的制动系统和加速系统同时出现了严重的问题。比如多根刹车油管同时断裂,液压结构瞬间失效,并且刹车踏板的传感器也发生了故障,无法发出优先信号给行车电脑,于此同时,加速系统本身也发生了故障,持续为车辆提供动力输出而无法停止。从汽车结构上去分析,只能解释到这里了。

多个小概率事故在同一时间点发生。有可能吗?确实有可能,但是相比之下,另一个种可能性更高。

人为失误?

相信很多人在学车的时候,都有过“错把油门当刹车踩”的经验,这是很多新手会犯的错误,但是有一些老司机,在紧急情况下或者走神的情况下,同样会犯这样的低级错误。

2019年4月23日,西安,一辆灰色比亚迪唐DM,从文兴巷自东向西行驶。监控显示,车辆刚发动就突然加速,期间车速不断加快,车辆多次躲避来车和行人后,在一路口与一对向来车相撞,随后又撞上电动车和摩托车,事故造成1死5伤的惨剧。事故发生后,比亚迪车主发微博称,自己已有11年驾龄,当日车辆启动后突然失控,自己连续踩刹车均没有反应,质疑自己所驾驶的比亚迪唐DM型号车辆存在质量问题,才导致事故发生。

然而比亚迪方面经过技术鉴定,认为车辆并不存在故障,并且根据现场的监控画面,车辆的刹车灯全程没有亮起,而事故发生以后,现场查看车辆的刹车灯是可以正常点亮的。

后续,西安市公安局交通警察支队高新大队出具道路交通事故认定书,认定2019年4月23日因比亚迪驾驶员周某操作不当、超速行驶,未能按照操作规范做到安全驾驶,驶入对向车道是造成事故的直接原因,按照《道路交通安全法》相关规定,周某负事故全部责任

诸如“错把油门当刹车踩”的事故屡见不鲜,而且犯错的司机往往会下意识地认为是车辆刹车失灵。

那这跟电动车有什么关系呢?

问得好。目前,还没有权威的数据证明“电动车发生交通事故的概率要大于燃油车”这个论点,但是,我们从电动车的几个特性上去看待问题,确实有几个地方需要驾驶员注意。

(1)起步扭矩大,加速响应快

许多电动车一脚下去就能起飞,车主更容易慌神。

燃油车中,发动机让汽油和空气混合点燃,释放热量推动活塞运动,然后再驱动曲轴做旋转从而带动车轮。发动机需要达到一定转速区间,扭矩才会达到峰值,这是一个渐进的过程,并且要通过变速箱改变与发动机衔接的齿轮,缩小齿比使得发动机保持在最大扭矩的转速区间,为车辆加速。除非超跑的大排量双涡轮增压,不然这个过程要花不少时间。

而电动车就不一样了,无论是无论是同步电机还是异步电机,都是通过定子产生的磁场力影响转子的磁场力,从而驱动转子旋转的。其中,磁场跟电流大小成正比,而电流的变化可以非常快,通电瞬间就可以形成最大电流。此时,磁场直接带动转子高速运转,让电动车可以很快达到高转速,即达到扭矩的峰值区间。

同时,电动车都是单速变速箱(或者说只有一个减速器),不像燃油车需要有换挡的过程,反应直接。并且,电机可以在很长的一个转速区间内呈现最大扭矩,而且电机的最高转速通常能够达到万转/分,这就是为什么电动车的加速往往让人产生眩晕感。

那么问题就出来了:同样是一脚油门,燃油车的加速是一个慢慢变快的过程,会给你足够的反应时间,即使踩错了还能即使纠正;但是电动车的响应迅猛,瞬间车速就已被提上来了,踩错踏板的驾驶员非常容易惊慌,如果没回过神来,可能就出事故了。

那这个问题要怎么解决呢,养成温柔起步的习惯咯。

(2)单踏板驾驶习惯

单踏板驾驶的方法要酌情使用。

电动车有一点很特别,它拥有动能回收这个功能,可以将行驶时多余的机械能通过再生制动,回收到电池中。重点是动能回收自带减速力矩,由此也引申出了电动车独有的『单踏板驾驶』模式,譬如日产的e-Pedal——通过电门的踩下与抬起,就可以直接控制车速。

但是,开燃油车的时候有一个很好的习惯,就是在不需要加速的时候,习惯性把脚放在刹车踏板上,以便于在紧急情况下能够及时反应刹车。而电动车的单踏板驾驶方式,就和这个习惯相悖了。

右脚一直放在电门踏板上,虽然可以很轻易的控制车辆的加减速,但是面对紧急情况时,往往会下意识地踩踏板,这个时候脚如果在电门/加速踏板上,反而容易造成事故;而从电门挪到制动踏板的过程,十分考验驾驶员的反应速度,同样也容易出事故。

(3)容易开快车

这一点,来自笔者的亲身经验。开电动车确实要比燃油车更容易超速。

因为电动车的NVH都非常出色,没有发动机和传动结构的噪音,加速又快,明明感觉自己开车很温柔,但是不知不觉时速就80km/h多了;又或者因为车内过于安静而分神。许多车型为了解决这一点,还加入了模拟声浪。

这也是一个需要适应的地方。

(4)过分依赖自动驾驶

最后一个,我们有时过于依赖智能。

因为电动车的科技属性,它的智能配置往往更加丰富,许多车型都搭载了所谓的“智能驾驶系统”,譬如特斯拉的Autopilot就是典型的例子。

这些功能的加入,确实让我们日常开车放松很多,但是有不少的司机会过于依赖它们,似乎认为有了系统就不需要自己。

然而现实是,目前市面上还没有一种“智能驾驶系统”能够彻底脱离人类驾驶员的控制。它们在功能演示时也都会注明『务必请驾驶员保持对道路的注意力』,而不是放松警惕。用习惯了,就过于相信自动驾驶功能,这就是为什么特斯拉的Autopilot容易出事故的原因。

关于自动驾驶引申出的问题,可以点击阅读笔者的另一篇文章《为何自动驾驶事故频发?》详细了解。

自动驾驶确实是未来的技术发展方向,但就目前而言,市面上能够使用的“自动驾驶”或“驾驶”功能都脱离不了驾驶员的操作,大家在驾驶时仍需集中注意力,切勿过分相信某些功能。道路千万条,安全第一条。

总结:电动车更容易出事故?

为什么我们感觉电动车容易出事故?四个字,就是认知偏差。

这其实是部分媒体的责任,新闻报道都是有取向的,什么样的新闻容易吸引更多的流量,那就优先报道什么。燃油车发展了近百年,出什么事都司空见惯,但是新能源车,尤其是电动车,在最近十年才开始在国内普及,而且在推广的路上还存在很多争议,/自燃/自动驾驶都是热点。

举个简单的例子,一提到自燃的例子,大家脑海中是不是都第一时间想到电动车?然而,在中国电动汽车百人会论坛(2020)上,中国工程院院士、北京理工大学教授孙逢春做了“新能源汽车与大数据安全”的报告。报告中提到,新能源汽车国家监测与管理平台的数据显示,新能源汽车的起火事故率为0.9-1.2/万辆,低于燃油车2-4/万辆的水平,新能源车的起火事故是燃油车的二分之一。孙逢春教授同时担任电动车辆国家工程实验室主任,而电动车辆国家工程实验室,负责新能源汽车国家平台的建设和运行工作。他给出的数据还是很有参考力的。

为什么我们的认知和事实会出现偏差呢?因为群众接受的信息其实是经过媒体筛选过的信息,很容易就形成了片面的认识。而电动车这个新鲜玩意儿,尤其是挑战了旧规则的新鲜玩意儿,必然会受到更多的质疑目光,一点一滴都会被拿放大镜来看。偏见和误解就是这么产生的。

——————————

最后总结一下,电动车更容易出事故是个伪命题。但是,因为动力结构的不同,电动机与燃油车的产品特性确实存在一些区别,在驾驶习惯上也需要有一个转变的适应期。排除驾驶水平的原因,人们主要也是在这个适应的过程中发生事故。

但是这样的差别,有必要重考驾照吗?或者说有必要补考电动车的新科目吗?读者们,你们觉得呢。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉model 3有主动刹车吗

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个***的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的。

这些中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的中清楚地看到这一点,该向左转弯并带有分隔线。

在这个中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

中国本土特斯拉事故率

特斯拉model 3有主动刹车。特斯拉作为智能驾驶的领先者,引以为傲的是Autopilot高级驾驶系统,甚至很多国内消费者为了体验Autopilot这个功能而购买特斯拉入门版车型。

几天前,在汽车厂商公开举行汽车智能挑战赛活动中,有关Model3在AEB测试环节翻车的火了。

随着智能驾驶功能的普及,AEB自动紧急制动功能也成了不少高端品牌和高端车型的主要配置之一。根据市场验证数据显示,AEB能有效降低44%的追尾事故发生率。

根据报道,当时Model3以正常的测试速度行驶,然后前方的人开始横穿Model3的行车道。

虽然Model3发出了警告,但还是没有进行有效的刹车制动,直接撞了上去,把人也撞成稀烂。而这也再次将特斯拉送到了舆论风口。

特斯拉作为智能驾驶的领先者,引以为傲的是Autopilot高级驾驶系统,甚至很多国内消费者为了体验Autopilot这个功能而购买特斯拉入门版车型。

这个系统中,AEB是一个非常重要的功能。如今却在模拟行人横穿马路的测试中翻船,这令网友们大跌眼镜。

这已经不是特斯拉自动驾驶测试第一次翻车,此前另一家媒体做过一次将蔚来ES6性能版、理想ONE、广汽新能源AionLX和特斯拉Model3标准续航升级版的四车对比测试。

同样是在“移动人横穿”测试项目中,人以5km/h的速度移动并横穿马路,四辆车则分别以40km/h的速度通过。其余三辆车都避让成功,只有Model3发出预警后依旧将人撞飞。

客观地讲,现在也没有哪家企业敢宣称AEB功能能做到任何场景下完全可靠,这是技术条件、软硬件、工况场景等等所决定的。不过Model3这样的表现已经让许多消费者感到失望了。

AEB功能的实现,不能简单的理解为如人一样眼睛看到,然后大脑做出反应,手脚开始刹车等动作。

对一辆车来说,要实现智能的每一小步,都是非常复杂的工作。

首先和人类一样,AEB有一双“眼睛”,被称为感知系统,有视觉感知(通过摄像头)和雷达感知(目前主要是毫米波雷达)。现在都用两种传感器融合搭配方案来实现。

毫米波雷达能针对稍远距离侦测出车辆与障碍物之间的相对距离、相对速度、相对角度。通过摄像头等视觉方案能将障碍物的外观轮廓勾勒出来,并与数据库里的信息进行比较,判断“这是一个行人,还是动物还是自行车”。

只有在识别成功,进入做决策的过程,最后才是执行,指令刹车等等。这其中的每一个环节都存在不确定性因素太多。

(图/文/摄: 问答叫兽) 小鹏汽车P7 Model Y AION V 理想ONE 蔚来EC6 Model X @2019

Tesladeaths的数据显示,在中国内地,有15人在特斯拉事故中丧生。最新一起发生在7月8日,重庆的一辆蓝色Model Y失控撞上路边行人,导致2死4伤。

两周后的7月22日,艺人林志颖驾驶白色特斯拉Model X在台湾桃园市中正北路发生,引发大火。林志颖被拖出时满脸鲜血,他的儿子脸部擦伤。这起事故的原因有待进一步调查。

和死亡事故相比,***在国内引发的反响似乎更大,尤其是安阳女车主因为刹车失灵而进行的车顶***案。特斯拉与该车主先是大打口水仗,然后又对簿公堂。

自动驾驶是罪魁祸首?

特斯拉的事故备受关注,尤其是涉及Autopilot的事故,这是因为该公司是在其车主身上测试新软件。新的技术一旦应用在道路上,其他人就成了这项技术的间接接触者。特斯拉是一家与众不同的公司,它在向世界推出先进技术时要承担风险,同时也在走捷径。从2014年10月起,Autopilot的硬件就默认搭载在每一辆出厂的Model S、Model X和Model 3上。

当一项特别的技术涉及到致命事故时,例如Autopilot,它就应该被仔细检查,以确定是什么决定导致了这个特别故障。特斯拉坚称,Autopilot让驾驶更安全,但有证据表明,结果似乎要复杂得多。

根据特斯拉发布的最新事故报告,2021年第四季度,在Autopilot(自动转向和主动安全功能)参与的驾驶活动中,每431万英里才会发生一起碰撞事故。而在没有启用Autopilot的驾驶活动中,每159万英里就会发生一起碰撞事故。相比之下,NHTSA的最新数据显示,美国境内车辆每48.4万英里就发生一起碰撞事故。

标签: #特斯拉

上一篇温州汽车城有哪些4s店一览表-温州汽车城服务站电话

下一篇当前文章已是最新一篇了