特斯拉自动驾驶的技术原理是什么-特斯拉汽车的自动驾驶技术

tamoadmin 0
  1. 特斯拉会自动驾驶吗
  2. 特斯拉自动驾驶用的什么技术
  3. 华为:我们的自动驾驶技术比特斯拉牛,自动驾驶的原理是啥?
  4. V2X技术是什么鬼 竟可以让特斯拉自动驾驶避免车祸惨案

此前,在国产版特斯拉车主发现,自己新买的特斯拉随车环保信息清单上的整车控制器型号与车辆实际装载的硬件型号不匹配——清单标注的整车控制器型号为HW3.0(代码为1462554),亦即去年4月份发布的那款"史上最佳自动驾驶芯片",而车辆实际搭载的硬件型号却是HW2.5(代码为1483112)。遂将这一情况发到了微博上。当时就引发了一波对于特斯拉国产减配的质疑。那么特斯拉的HW3.0和HW2.5究竟有什么区别呢?

近年来,车载芯片的地位开始变得越发重要,因为其算力是支撑驾驶员***、自动驾驶和主动安全功能的中流砥柱。因此许多OEM商与一级供应商开始用摄像头、雷达、LiDAR等传感器武装车辆,帮它们获知周边环境信息。传感器***集的所有信息都要汇集到一起,这时就需要一个算力强大的控制单元。HW2.5硬件使用的是英伟达定制的DrivePX2计算平台,而HW3.0则是特斯拉自己专门为FSD打造的新计算平台,就性能而言,HW3.0的自动驾驶芯片拥有每秒2300帧的图像处理能力,是HW2.5的21倍,计算能力提升了大约7倍。同时,HW3.0的能耗只有HW2.5的1.25倍。可以说HW3.0强大的性能为之后自动驾驶的升级打下了坚实的基础。

在Model3上,特斯拉标配了8颗摄像头,1颗雷达和12颗超声波传感器。至于激光雷达LiDAR,出于成本原因,特斯拉并不打算***用。8颗摄像头,能为Model3提供360度视野,探测半径250米。12颗超声波传感器则是视觉系统的补充。两套传感器相结合,相对于此前系统精确度大幅提高。除此之外,Model3的传感器套装还整合了处理能力增强版的前视雷达系统。它能为车辆提供额外的环境数据,同时在雨雾、沙尘等天气充当安全冗余。车头3颗摄像头负责前方视野,与雷达形成互补。这3颗摄像头技术特性并不相同,其中充当主摄那颗探测距离达到250米,但视场很窄,其他2颗探测距离分别为150和60米,但视场要宽上不少。另外5颗摄像头则负责监控车辆侧面和后方,其探测距离可达100米。12颗超声波传感器能在任何速度下稳定工作,控制车辆盲区。这些数据还可以被用于Autopilot的车道变线。

特斯拉自动驾驶的技术原理是什么-特斯拉汽车的自动驾驶技术
(图片来源网络,侵删)

这8颗摄像头均为120万像素,均是2015年的产品。他们分辨率不算高,但优点是价格便宜。特斯拉的三摄系统用了OnSemiconductor的120万像素AR0136ACMOS传感器,单个像素尺寸为3.75μ。类似的***埃孚的S-Cam4三摄系统搭载了Omnivision的COMS传感器与Mobileye的EyeQ4视觉处理器。特斯拉的前视三摄模组则将所有CMOS放在了一块PCB上,而***埃孚则分置于不同PCB。因此不考虑效果,单从成本上来说,特斯拉的方案要更低。

特斯拉Autopilot系统的信息处理是在自研的液冷双核计算平台上进行的,它们被安置在两块PCB上,但整合进了一个模组。新的计算平台整合了负责中控信息***的ECU与AutopilotECU,而在HW2.5时代,Autopilot用的还是英伟达的SoC与GPU。尽管自研了FSD,特斯拉还是要用到英伟达的GPU,英特尔的处理器,恩智浦与英飞凌的微控器,镁光、三星的闪存以及意法半导体的音频放大器。在HW2.5时代,特斯拉整合了两块英伟达SoC,一块英伟达PascalGPU和一块英飞凌的TriCoreCPU。到了HW3.0时代,特斯拉则用上了两块自研SoC,两块GPU,两块神经网络处理器和一块锁步CPU。同样的体积下,特斯拉在HW3.0里塞进了4746个零部件,比HW2.5多了65个零部件。制程方面,特斯拉的自研SoC为14nm,与HW2.5时代英伟达的16nm相比稍有改进,但基本处于同一代水平。

目前在汽车行业,自行设计芯片搭载在自家车上的做法已经很少见了。因为这样做的风险太大了。现在的汽车市场并不像从前那样火热,如果没有足够的销量支撑,自掏腰包设计芯片只用于自己的车就会得不偿失。但同时,花大价钱自己定制芯片也有一个好处,那就是能将成本压到非常低。这样整车成本也会更低,而利润会更高。比如手机行业中的苹果华为,凭借自己设计的芯片能在同行的激烈竞争中获得更大的收益。过去几年里,车辆整合的电子元器件越来越多,而英伟达和英特尔这样的领军厂商并没有薄利多销。如果不愿将利润拱手让人,恐怕自行研发芯片才是将命运掌握在自己手中的最好方法。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉会自动驾驶吗

特斯拉又发生了一次事故!

据国外媒体报道,几天前,美国底特律的一辆白色Y型轿车在T型路口撞上一辆大型卡车。 Y型车的前部很低,直接进入卡车底部,车辆严重受损。

事故发生在当地时间上午3:20左右。事发时,一男一女在车上受重伤,被送往当地医院救治。卡车司机没有受伤。

发生四起事故,两人亡,两人受伤。为什么特斯拉总是撞上一辆白色卡车?

特斯拉最近在底特律撞上一辆白色卡车

在2016年和2019年,特斯拉在美国发生了两次致命事故。在打开L2级自动驾驶系统的同时,车辆在垂直方向撞到一辆大型卡车,最终导致车辆上人员丧生。

2020年,台湾的Model 3也撞上了一辆以高速翻转的卡车。

在2019年的特斯拉事故车中,驾驶员不幸亡

发生四起事故,两人亡,两人受伤。特斯拉为什么总是撞上一辆白色卡车?

2020年事故现场监控画面

这三起事故具有高度相似性。因此,在特斯拉发生另一起类似的事故后,它也引起了极大的关注,与此同时,它继续引发了一个令人深思的问题:

为什么L2自动驾驶系统被称为最强大的量产汽车,却无法避免白色卡车?

答案不是特斯拉的技术不强,也不是特斯拉的白色卡车或“天敌”。

这是因为在当前以“相机+毫米波雷达”为主要传感器的L2自动驾驶方案中,检测静态车辆是一个世界性的问题。每个系统对于固定式车辆来说都是令人头疼的问题。

例如,今年2月,一台蔚来ES8打开L2自动驾驶系统进行巡航时,撞到了行人和静止的五菱宏光。 (请参阅商品《蔚来ES8开L2撞人又撞车,为啥装24个传感器都躲不开?》)

1.尚未确认特斯拉是否已打开L2

如前一篇文章所述,该事故引起了一些中外媒体关注的根本原因在于,特斯拉的车型经历了严重事故,导致L2撞上卡车并杀了驾驶员。

但是,从当前的外国媒体报道和Twitter上知情网民的新闻来看,事故发生时尚无法确认车辆是否开启了L2自动驾驶系统。

事故现场

因此,此事故的原因与特斯拉的L2自动驾驶系统无关。

当然,就责任分工而言,即使是2016年和2019年发生的两次致命卡车撞车事故也是驾驶员的问题。

2016年类似的事故现场因为特斯拉的AutoPilot系统属于L2级自动驾驶,所以其中一个仅在有限的场景下工作,而另一个则是监视路况并准备接管。

例如,当在垂直方向上有一辆大卡车时,这是一个不在系统中工作的场景,驾驶员需要及时接管车辆。

去年3月23日,美国国家运输安全委员会(NTSB)发布了有关两个Tesla AutoPilot L2自动驾驶系统的最终报告。报告显示,在这两次事故中,驾驶员过度依赖Titla L2级自动驾驶,从而出现了意外现象,最终导致了事故。

特斯拉有2伤2伤,总是撞上白色卡车吗?

NTSB在其网站上发布了最终调查报告

NTSB认为,卡车司机在十字路口不设停车位,而是直接驶入高速公路,属于危险的驾驶行为。特斯拉Model 3驾驶员过分依赖Testla L2自动驾驶技术,导致无法集中注意力。 NTSB最终确定了事故原因,原因是特斯拉AutoPilot L2自动驾驶系统在驾驶员下车时没有及时提醒,并且设计条件不一致,最终导致了撞车事故。

其中,事故是2019年3月1日MODEL 3撞上卡车导致驾驶员亡的事故。

即使没有L2,Nasla的AEB自动紧急制动系统为什么会出现故障?

特斯拉的自动包围曝光系统可以手动关闭,因此,如果驾驶员关闭自动包围曝光,那么该系统自然将无***常工作。

二,事故可能性分析传感器的配置

从美国监管机构的报告中可以看出,卡车的垂直碰撞显然超出了特斯拉L2系统的工作范围,加上驾驶员未能及时接手。

因此,问题是,为什么自动驾驶仪系统(被公认为“量产汽车中功能最强大的L2”)不能避开一辆大型卡车?

这与车东关于威来ES8事故的先前报告的结论是一致的:事故的根本原因是“摄像头+毫米波雷达”的传感器配置,很难识别静止的车辆或行驶缓慢的车辆。

与Model 3一样,Tesla Model Y配备有8个摄像头,1个大陆毫米波雷达和12个超声波雷达。

特斯拉传感器配置

当打开L2级自动驾驶系统(自动驾驶仪,NOA或EAP系统)时,车辆主要依靠前视摄像头和毫米波雷达来检测前方的物体。

尽管特斯拉目前有3个摄像头,但它不使用立体视觉。这三个相机主要具有不同的焦距和不同的视场。因此,总的来说,特斯拉与大多数当前的L2自动驾驶系统相同,都是视觉+毫米波雷达传感器解决方案。

无论是使用基于规则的视觉算法还是深度学习技术,在感知外部物体时视觉都永远不可能100%准确,甚至经常会出错。

例如,当作者自己的特斯拉走出地下室时,他会莫名其妙地将隔离墙识别为公共汽车。另一个例子是最近流行的Douyin***,其***斯拉莫名其妙地识别了空墓地中的行人。

特斯拉在无人墓地认出行人

另外,还存在将公交车上的人的照片识别为行人并将路侧广告屏幕上的停车标志识别为真实停车标志的情况。

依靠反射的毫米波来检测目标的雷达不会被“听到”,如果前方有东西,就会有回声,如果什么都没有,就不会有回声。

正是由于视觉错误的可能性较高,雷达才更加“可靠”,因此大多数L2系统将在视觉的基础上引入毫米波雷达的检测结果以进行验证。

如果摄像头检测到前方车辆,并且雷达也确认了前方车辆的位置和速度,则可以执行制动操作。

如果将这些错误识别的结果用于做出驾驶决策,则显然会出现更多问题。特斯拉很自然地知道这一点,因此在实践中他不会对纯粹的视觉感知结果做出反应。

因此,这起事故的原因非常清楚。不管视觉上是否能识别前方的车辆,毫米波雷达都不能给出结果,因此最终系统没有响应。

第三,毫米波雷达天生就有缺陷,害怕固定式车辆

毫米波雷达不是“闻所未闻”的,那么为什么它不能识别前方的卡车呢?

东南大学毫米波国家重点实验室的毫米波雷达技术专家,毫米波雷达公司的Falcon Eye Technology的首席技术官张辉反复分析了背后的原因。

从工作原理的底部开始,毫米波雷达主要依靠多普勒效应来感知运动目标。多普勒效应的特征在于,动力学是最容易感知到的动力学,动力学更难以感知到静力学,而静力学则极其难以感知到静力学。

这是因为如果前面的车辆是静止的,则目标信息容易与地面杂波混合,并且需要某种算法来将目标与目标区分开。如果它是一辆正在行驶的汽车,则根据其多普勒信息,最好检测目标。

因此,如果卡车静止不动或行驶缓慢,则雷达算法无法知道前方有物体。

但是这种可能性并不大,因为主要的雷达公司已经制定了一些可以识别静态物体的感知算法。

真正的困难是当前的雷达没有海拔信息,空间分辨率也不足。

没有高度信息,这意味着雷达很难区分横穿道路的路标和桥下的汽车。空间分辨率不足意味着两个非常接近的物体的回波将混合在一起,并且很难知道有多少个目标。因此,在雷达公司和一些汽车公司获得雷达反射数据之后,它们将通过算法直接过滤掉一些静止的物体或怀疑是静止的物体,以避免错误的反应。

例如,在这种事故情况下,由于卡车沿模型Y的垂直方向行驶,如果同时行驶速度非常慢,则由于缺少径向多普勒分量,雷达识别算法可以轻松对其进行过滤列为静态目标。

如果毫米波雷达能够滤除目标,则无论是否可以看见卡车都无***常工作。

结论:汽车公司仍在优化L2自动驾驶

回到这次事故,尚未确定特斯拉是否开启自动驾驶系统,事故原因仍需当地警察和特斯拉官员调查。实际上,即使打开了L2级自动驾驶仪系统,白色卡车的场景还是有些极端。对于当前量产的L2自动驾驶系统,仍然存在许多无法处理的情况。

鉴于L2级自动驾驶系统中存在的各种问题,汽车公司也给出了自己的解决方案。一方面,通过“阴影模式”和道路测试等方法对自动驾驶算法进行了持续优化,从而使自动驾驶系统继续趋于成熟,同时不断提高了L2自动驾驶的功能。另一方面,随着硬件成本的下降,许多型号都***搭载Lidar以避免类似事故的发生。

特斯拉自动驾驶用的什么技术

太平洋汽车***斯拉是可以实现自动驾驶的,特斯拉的自动驾驶技术其实是l2级自动驾驶。自动驾驶是特斯拉的灵魂配置,然而特斯拉并没有实现全自动驾驶,其搭载的自动驾驶系统准确说是驾驶***系统。

第一场发布会上仅仅展示了Model3的外观,并没有透露内饰信息和相关使用功能。

原定于10月17日举行的特斯拉新品发布会被推迟到19号,Model3的粉丝们以为可以看到更加真实的Model3,结果却是得到了一个更加梦幻的承诺——即日起,特斯拉生产的全部车型都将装备具有全自动驾驶功能的硬件。

不要管这套硬件系统“硬不硬”,先来段特斯拉全自动驾驶测试***过过瘾。

对于自动驾驶的等级划分,美国国家公路交通安全管理局(NHTSA)和美国汽车工程师协会(SAE)做出了详细规定。

从***中展现出的几个细节可以看出特斯拉确实能够实现完全自动驾驶,而且非常智能。

试验道路选在完全开放道路,全程驾驶员没有进行任何干预。在行至路口时,车辆能够识别交通信号灯,这在当前的自动***驾驶中是不存在的功能。

驾驶者,更准确的说法应该是乘客,到达目的地后直接走下车辆,随后汽车会自动寻找停车位。

而且车辆寻找的是真正能够停靠的车位,从***中可以看出,当车辆驶过一个画有禁停标识线的车位时车辆并没有泊车,而是寻找下一个可停靠车位。

支撑如此炫酷全自动驾驶功能的硬件设备是这次发布会的重点。该系统包含8个摄像头,覆盖360度可视范围,对周围环境的监控距离最远可达250m。除此之外,车辆配备的12个超声波传感器完善了视觉系统,探测和传感硬、软物体的距离,接近上一代系统的两倍。增强版前置雷达通过冗余波长提供周围更丰富的数据,雷达波可以穿越大雨、雾、灰尘,甚至前方车辆。为了更好的使用这些数据,车辆搭载了比上一代运算能力快40倍的处理器。

(图/文/摄:太平洋汽车网问答叫兽)

华为:我们的自动驾驶技术比特斯拉牛,自动驾驶的原理是啥?

太平洋汽车***斯拉自动驾驶用的分别是自动泊车、自动***变道、自动***导航驾驶、智能召唤、识别交通信号灯和停车标志并作出反应、以及在城市街道中自动***驾驶等技术。

6项功能,初步组成完全自动驾驶在这个完全自动驾驶选装包中,主要是包含6项功能。分别是自动泊车、自动***变道、自动***导航驾驶、智能召唤、识别交通信号灯和停车标志并作出反应、以及在城市街道中自动***驾驶。其中前四项在更新之前已经实现,而后两项是本次升级的重点所在。不得不说特斯拉的自动驾驶技术的确是目前最先进的,像最简单的自动泊车在主流的自主品牌车型中基本已经实现,自动***导航驾驶在一些韩系车型上也能见到,而其余四项功能目前估计只有特斯拉敢让车主应用。

自动***变道是实现完全自动驾驶首先要突破的问题,不然自动驾驶就只限于跟车行驶,这一点特斯拉早已做到。智能召唤可以说是远程启动车辆的升华版,不仅能够远程开启车辆,还能自动开到面前,着实方便了不少。识别交通信号灯和停车标志从而作出反应这是自动驾驶的又一次进化,目前市面上达到L2+级自动驾驶的车辆仅能够根据前车的运动轨迹跟随行驶、停止或起步,能识别交通信号算是基本实现了完全自动驾驶。这个功能也是城市街道中实现自动***驾驶的先决条件,看样子特斯拉似乎是已经做到了完全自动驾驶的基本功能。

(图/文/摄:太平洋汽车网问答叫兽)

V2X技术是什么鬼 竟可以让特斯拉自动驾驶避免***惨案

今天我们来聊一下汽车的自动驾驶原理是什么?

其实自动驾驶的原理不是很复杂,我们用最简单的来说就是用一台车子,然后经过改装以后再加上几个传感器,然后在加装一套开源的自动驾驶计算平台,这就完事了。随着现在科学进步的发展,很多汽车都用上了自动驾驶技术,顾名思义也就是不需要人类驾驶汽车,汽车就可以自己行事那么很多人都好奇自动驾驶的原理是怎样的呢?

但是这三种传感器都有着自己的优势,就像我们现在大部分汽车都有的倒车雷达,倒车雷达就属于传统雷达这种成本也非常低,而且穿透性比较好,并且不会受到雨雾等天气环境的影响,但是传统雷达也有缺点,比如它的覆盖范围非常小,而且不能对周围环境的物体做出一个准确的判断。传感器也就是自动驾驶汽车的眼睛,他也就像人也一样,可以用来收集汽车周围环境的一些信息,比如现在市面上这些自动驾驶汽车,其实都是使用了三种传感器摄像头,lider激光雷达和传统雷达。

所以摄像头就是市面上大部分自动驾驶汽车所必备的传感器,他和雷达不一样,摄像头没有穿透力,但是它需要光线进行拍摄,然后通过自动驾驶的数据对拍摄的照片进行识别,特斯拉就***用的是摄像头传感器的方式,而且相对于激光雷达摄像头的成本也很低。而激光雷达就可以通过激光射线来构建出汽车周围环境的3d影像图,可以做出物体的精准判断,但是激光雷达也有缺点,比如它会容易受到雨 were天气的影响,而且激光雷达的生产工艺比较困难,而且产量非常小,所以激光雷达的成本很高,一颗激光雷达的售价在50万人民币左右。

自动驾驶汽车通过搭载的传感器收集到周围环境的数据以后就会被传输到插在电脑中进行数据分析处理,然后最后做出反应。

在这个过程中,其实和***驾驶完成的过程一样,就像我们人眼看到周围的环境以后,然后经过大脑处理最后作出决定反应。

自动驾驶要想覆盖更多的地方的话,就需要收集处理足够多的数据,而且不同的路况也会给电脑带来不同的处理结果,所以当***驾驶和自动驾驶在路面上行驶时很多不确定性就变大了,自动驾驶汽车做出的决定难度也会加大。

一直以来自动驾驶的发展就是各大厂商与公众关注的焦点,因为在各种对未来畅想中自动驾驶是板上钉钉的事。对于慵懒的人类来说,自动驾驶当然是需要实现的。

在2020年的CES展上,自动驾驶技术又一次升温,高通、地平线、元戎启行纷纷在计算芯片发力,并且打造了自家的自动驾驶平台,将自动驾驶进行规模化的开发。而大疆子公司览沃科技、速腾聚创、Aeva、北醒等厂商则着重于激光雷达的升级,提升精度的同时降低成本。

这一切都表明,自动驾驶技术正在如火如荼的发展当中。而这背后也有一片唱衰的论调,特斯拉多起自动驾驶事故频发,让自动驾驶充满了争议。

自动驾驶技术是未来发展需要且必须的技术,所以对于自动驾驶来说,如何快速发展并且不走弯路就是当下最迫切的事情,我们今天介绍的这项V2X技术就是自动驾驶发展的必经之路。

为什么说V2X技术是自动驾驶的必由之路,是因为这项技术是唯一不受天气状况影响的车用传感技术,极大弥补了雷达等传感器面对复杂环境以及恶劣天气的弊端,能够减少事故的发生,减轻交通拥堵。同时,在2016年美国NHTSA拟定的新规范要求所有新生产的小型客车和轻型卡车都要使用V2X?或V2V技术,这极大促进了该项技术从理论到落地的进度。

什么是V2X技术?

V2X的全称是"Vehicle?to?Everything",是车与外界一切交互的技术,可以理解为车与外界一切连成网。V2X中X是可变量,它替换可为V、I、P、N等,即汽车与汽车(V2V)、汽车与基础设施(V2I)、汽车与行人(V2P)、汽车与互联网(V2N)等。你可以理解为这张网可以和任何事物连接,形成交互。

不过,相互连接会有一些不同。比如V2V,即车辆与车辆连接中,是一种不受限于固定式基站的通信技术,为移动中的车辆提供直接的端到端的无线通信。通过V2V通信技术,车辆终端彼此可以直接交换无线信息,无需通过基站转发。

V2I即车辆与基础设施相连接(Vehicle?To?Infrastructure),I在此包含了交通信号灯、公交站、电线杆、大楼、立交桥、隧道、路障等交通设施设备。V2I通信在不影响车载传感器的情况下实现基础设施与车辆之间相互通信功能。

V2N即车辆与互联网相连接(Vehicle?to?Network),就是车联网。车辆与移动互联网、交通网等大网相连,实现车辆与现有互联网相连,使车辆能够获得互联网的服务能力。

V2X能够在哪些方面帮助我们呢?

V2X的应用也可以分为两个阶段,第一个阶段就是驾驶***阶段。V2X主要基于GNSS位置、车辆行驶状态参数、路侧信息实现车辆的主动安全。V2X不涉及车辆控制,只是发出警示信息,提醒驾驶者。也就是我们常见的ADAS主动驾驶***系统,包括紧急制动、左转***、变道***、红灯预警、行人预警等等。

第二个自动驾驶阶段,V2X可以弥补单车智能软肋,是自动驾驶最重要的组成部分。比如在沙尘暴或者黑夜等恶劣条件下,车载摄像头效果大大减弱,这时候就显示出V2X的威力了,它不受天气影响,能够360度无角穿越障碍物获取信息。甚至还可以通过远程大平台获得智能的能力,完成自动驾驶。

目前V2X在自动驾驶方面典型的应用有两类:自动驾驶车辆编队行驶与最后一公里自动泊车。最后一公里自动泊车应用是近期的热点应用,从目前已有的自动驾驶的最后停车场景的解决方案中,V2X的***是必要的。V2X是连接手机与车辆的通道,同时也是停车场与车辆多传感器系统交互的纽带。

未来V2X会怎样?

从V2X的终极目标来看,V2X将实现人/车/路三者的完全协同,成为智慧交通中最重要的一环,将有效降低事故率和拥堵指数的下降。同时,V2X车联网带来自动驾驶、智慧出行、物流集成化等多种应用场景。

不过,这并不是一朝一夕便能达成的目标。虽然V2X技术前景明朗,但是还需要面对许多棘手的问题。

目前V2X的技术方向主要有二种,一是DSRC(Dedicated?Short?Range?Communications)专用短程通信技术,底层技术上基于IEEE?802.11p通信标准的一种应用于V2X的通信技术,前期美、日以及欧洲等国都是基于DSRC进行V2X的布局。它的技术优点是基于十几年的研究,最终形成标准统一的,具有可靠稳定性的技术。

二是C-V2X技术,C-V2X是由3GPP(3rd?Generation?Partnership?Project)定义的基于蜂窝通信的V2X技术,它包含基于LTE以及未来5G的V2X系统,是DSRC技术的有力补充。它借助已存在的LTE网络设施来实现V2V、V2N、V2I的信息交互,这项技术最吸引人的地方是它能紧跟变革,适应于更复杂的安全应用场景,满足低延迟、高可靠性和满足带宽要求。

根据通用汽车的预测,当一个区域内25%的车辆配备V2V技术后,V2V将比较有效地发挥作用。DSRC技术因为更加成熟,且获得美国***部门的支持,很可能会在美国市场一家独大,从而影响其他国家发展DSRC。

不过,从技术持续迭代性、可靠性和信号传输迟滞性等来说,C-V2X技术有较大优势。但发展时间过短、前期投资较大,也是需要面对的问题。

所以未来究竟是统一车载协议,还是和手机一样,能够融合多家技术将是一个比较大的难题。就像当下的华为与苹果一样,能让巨头之间达成一致将十分困难。

可以肯定的是,V2X技术将会是未来各家车企大力研发的对象。丰田与密歇根交通大学研究所(UMTRI)展开密切合作,投放5000辆联网汽车在密歇根州无人驾驶示范区进行测试;通用在2017年生产的CTS已经标配V2X技术。自主品牌中,上汽荣威和奇瑞已经开始V2X技术的开发,并小有成果。对于自动驾驶十分热衷的特斯拉当然也没有放下脚步,目前特斯拉的autopilot已经进化为3.0版本,如果加入V2X技术后,肯定会有质的飞跃。到那个阶段,自动驾驶就不会有那么多事故发生了。

(来源于网络)

声明:本文为汽车很听话原创,如有抄袭和未经许可的转载将追究法律责任。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

标签: #特斯拉

上一篇汽车评价研究院简介-汽车评价研究院成立

下一篇当前文章已是最新一篇了