扫二维码与京牌顾问沟通
我们在微信上24小时期待你的声音
解答京牌需求/误区提示/安全提示/必要思考提示/一面式全
智能电动汽车的高速增长,伴随今年夏日的高温,消费者对于电动车自燃正日渐脱敏。被称为智能电动汽车竞争下半场的智能化也正迎来政策的持续松绑,深圳为L3放行,8月8日武汉正式放开全无人自动驾驶商业化运营。
但今天(8月11日)网间传播的这起因开启智能驾驶引发的事故却让人无比揪心。
这当然与车祸现场视频引发的冲击有关, 这是社交媒体时代的特点。
▲监控视角
该视频显示,一辆小鹏P7在辅助驾驶状态下,在宁波某高架桥路段撞向前方故障车辆,导致一名疑似正在处理事故的人员被撞身亡。
▲第三方司机视角
开着辅助驾驶造成事故,导致人员死亡,不是今年才发生的事情,自从辅助驾驶诞生之日起,多家品牌就因为辅助驾驶造成过多次事故,而上一次在网间引发热议导致人员死亡事故的车企是去年的蔚来,我们曾做了系列报道《蔚来NOP事故门》 (详见《蔚来NOP事故门:市场急需找回对自动驾驶辅助的敬畏与克制》、《蔚来车主反对蔚来车主》) 。
此次事故之后, 小鹏汽车 在第一时间向智驾网回应此事称:“经核实,8月10日下午,宁波一车主驾驶车辆与前方检查车辆故障人员发生碰撞,发生人员伤亡。我们为本次事故中不幸离世的遇难者感到悲痛和惋惜。目前交警部门已经立案处理,门店第一时间已前往现场协助处理。我们将全力配合相关部门进行事故调查,持续跟进后续结果,并协助客户处理后续相关事宜。”
同时,据相关媒体报道,负责该路段的奉化交警大队事故处理中队一工作人员表示,目前该事故正进行初步调查。
该名工作人员表示:“昨天发生事故后,我们就把他(肇事车主)传唤过来做笔录了。”
至于事故是否为网传的LCC辅助功能造成,该工作人员表示: 暂时不能确认。
另外据网传聊天记录显示,一位自称“启人”的车主当时开着LCC(车道保持功能),他表示当时,时速80公里,并未超速,发生事故系系统未识别出前方故障车辆与人。
开启LCC,这里我们可以简单理解为启动了ACC自适应巡航功能。
也就是在特定的高速公路场景开启了智能驾驶功能。
最终事故导致前方车辆一人死亡。
而小鹏P7车主“启人”自己只是受了轻微的擦伤。
事后,他表示撞人一刻,意时到来不及了(上手控制车辆),他宣称自己一般只在高架开启这一功能,以前有预警,而此次正好分神。
目前事故仍在处理中,在责任的认定上,根据目前交通法规,事故仍需要由驾驶人担责。
那么是否智驾系统会有连带责任?目前所有的法律并未如此设定,即便是允许L3级自动驾驶车辆上路的深圳也明确了这一点。
而驾驶员是否因此涉及危险驾驶罪,也存在一定的可能。
近年来,随着智能汽车的增多,与之相关的交通事故也多了起来,部分驾驶人把辅助驾驶当成自动驾驶,是酿成 事故的主要原因之一。
01 驾驶员应该负主要责任 根据《中华人民共和国道路交通安全法》,在一般性追尾中,后方车辆应该负全责,在高速公路上发生故障或者发生交通事故时,要在车后150米外的地方设置警示标志,若遇上雨雾天气,需将摆放距离提升到200米。
考虑到前车的安全指示标志或者三角警示牌没有及时放置车辆后150米,因此可能会承担极少部分责任。
而此事又是在自动驾驶辅助的情况下发生的,增添了一部分复杂性。
8月1日,国内首部关于智能网联汽车管理的法规《深圳经济特区智能网联汽车管理条例》正式实施,首次对智能网联汽车的准入登记、上路行驶等事项作出具体规定;并首次明确了自动驾驶汽车的认责。
该法规还首次为自动驾驶事故认责提供了关键的框架,如果自动驾驶汽车的方向盘后面有司机,司机将在事故中承担责任;如果汽车完全无人驾驶,车主将负责;如果确认是由车辆缺陷导致事故,车主可以向自动驾驶车辆制造商寻求赔偿。
深圳引入的这项法规是迄今为止中国关于自动驾驶汽车上路最为明确的法规,即日起,自动驾驶汽车可以在驾驶位没有司机驾驶的情况下行驶,但在大部分地区,司机仍然必须在车内出现,可以是坐在副驾驶位甚至是后排。
目前,国内几大城市均出台了关于自动驾驶测试车辆上路的《指导意见》或《实施细则》。但关于交通事故的责任划分,也只是一笔带过。
根据《中华人民共和国道路交通安全法(2011)》 第七条之规定: “对道路交通安全管理工作,应当加强科学研究,推广、使用先进的管理方法、技术、设备。 ”
我国法律尚未明确自动驾驶系统的合法地位,根据道路交通安全法,车辆驾驶人应该是具有驾驶资质的人,而不是系统或车辆本身。
而从国外来看,目前自动驾驶主要采用分级的方式划分责任,小鹏P7属于L2级别,即部分自动驾驶。
系统负责操控方向和加减速,其它驾驶操作由人负责。因为驾驶员仍然负责监视驾驶环境和失效应对,自动驾驶汽车仍然必须配备合格的驾驶员,并且驾驶员双手不能离开方向盘。
如果事故非因方向和加减速的操作失误导致,驾驶员应当承担责任。
如果事故是由于方向和加减速的操作失误导致的,系统和驾驶员都应当承担责任,只是责任承担比例可能不同。因为虽然错误判断是系统做出的,但是驾驶员负责监控驾驶环境和系统失效应对,具有纠正系统失误的义务。
例外情况是,如果驾驶员无法纠正系统的方向和加减速操作失误,系统运营商应当承担责任。
从驾驶员的描述来看,它并没有进行制动的动作,因此按照国外的法律,主体责任依然在人。
02 毫米波雷达对于静止物体的识别仍是最大的难题 根据官网显示,P7仅仅搭载毫米波雷达,并没有激光雷达。
而毫米波雷达最大的缺点就是对于静止物体识别的现象不够理想。
这其中的原因主要是毫米波雷达是基于毫米波的,是可以返回静态物目标点的,只不过毫米波对于目标类别是无法准确识别的,所以在使用的时候会跟速度过滤掉一些静止目标点,去除大量的路沿点,井盖等静止物。
在算法层面叫做“静态杂波滤除”,静态杂波滤除就是将多普勒速度为零的信号去除,这样的话基本上所有零速、微动目标都会被抑制掉。
而在今年新出的车型中,大量激光雷达的加入就可以避免此问题的产生。
可以说,引入激光雷达,其实就是为了解决目前视觉+毫米波雷达传感器架构的缺陷,避免静止异形车以及近距离加塞等现有技术难以解决场景下的碰撞事故,同时也为实现城市L2打下了基础。
因此随着技术的进步,这种静止物体的识别不再是一个难题。
这里我们再多一句嘴,以摄像头为主的智能驾驶系统例如特斯拉对于白色物体的识别一直较差,这是其多起事故的一大技术原因。
可以说白色物体、静止物体是目前主流的智能汽车最忌讳的两大杀手。
03 小鹏的安全义务尽到了吗? 日前,特斯拉正因自动驾驶宣称摊上了官司,其车辆存在禁售风险。
美国加州机动车辆管理局(DMV)对特斯拉提出了指控,在DMV提交的投诉中称特斯拉在宣传车辆配备或可能配备高级驾驶辅助系统功能时,散布了不实的或者具有误导性的声明,还通过夸大高级驾驶辅助系统的广告来误导消费者消费。
据悉,是因为特斯拉在网站Autopilot页面上使用了“只要告诉你的车你要去哪儿,那么你的车就会通过你的日历并把那个地方当做目的地,那么你的车就会找出最佳路线,在各种复杂的路况上行驶。”以及“无需驾驶座上的人采取任何行动。”等存在一定误导性的话术,特斯拉表达出了配备了ADAS功能的车辆就可以作为自动驾驶汽车运行,但是事实上是不能的,现在而言,这项技术的发展并没有完善,这实在属于夸大其词了。虽然说特斯拉已经声明了Autopilot 功能并不是自动驾驶,而是需要驾驶员监督的,但DMV表示这与具有误导性的广告词是相矛盾的,还是具有误导性。
而在去年8月,蔚来驾驶辅助出事故之后,一夜之间,所有品牌的“自动驾驶辅助“、“自动驾驶能力”、“自动驾驶”全部更改为“辅助驾驶“(蔚来NOP门之二:请直接告诉消费者自动驾驶YES or NO)。
理想汽车 创始人李想就在朋友圈发文,呼吁媒体和行业机构统一自动驾驶的中文名词的标准,L2=辅助驾驶;L3=自动辅助驾驶;L4=自动驾驶;L5=无人驾驶。一个多余的中文字也不有,避免夸张的宣传造成用户使用的误解。并提出,“在推广上克制,在技术上投入,对用户、行业、企业都长期有利。”
而随后的宣传中,各家也增加了对于“辅助“的加强,并且无论是蔚来、理想、小鹏在开启高级别辅助之前需要在官方APP考取一个品牌驾照才可以,各厂商对用户开启辅助驾驶前的安全培训考试中,都会有明确的考题,告知用户ACC无法识别静止物,并且明确告知目前驾驶辅助的责任在于人。
另外,小鹏在去年年底推出了智驾分的功能,根据你的使用习惯和违规扣分或者加分,扣分项目主要集中在,双手离开方向盘、出现异常不及时接管车辆、长时间驾驶、疲劳驾驶等方面,培养用户用自动驾驶辅助的良好习惯。
因此在目前的宣传策略和多种用户培养的措施之下,小鹏可以说把能想到的安全措施几乎全部做了。
自动驾驶技术或许仍然在进步,在当前的条件下,它仍然是一个辅助性的东西,我们要利用它但我们也要将生命掌握在自己身上。
而发展过程中因为人本身的原因,不断出现事故,或许并不是技术本身的问题。
但至少可以确定的是驾驶者安全意识的培养仍然任重而道远,这需要很长的时间。
本文来自微信公众号 “AutoR智驾”(ID:zhinengqiche) ,作者:王硕奇,36氪经授权发布。
我们在微信上24小时期待你的声音
解答京牌需求/误区提示/安全提示/必要思考提示/一面式全