人工智能

人工智能

日立在汽车立体摄像头中集成AI 提升摄像头夜间行人探测能力

博客别碰我的刘海 发表了文章 • 0 个评论 • 530 次浏览 • 2019-06-19 11:47 • 来自相关话题

据外媒报道,日立汽车系统公司(Hitachi Automotive Systems Ltd)表示,其已经将人工智能(AI)技术应用于立体摄像头中,此类摄像头专为汽车自动刹车功能而设计。该摄像头利用数十万条数据作为“教师数据”,实现夜间行人检测功能。目前, ...查看全部

据外媒报道,日立汽车系统公司(Hitachi Automotive Systems Ltd)表示,其已经将人工智能(AI)技术应用于立体摄像头中,此类摄像头专为汽车自动刹车功能而设计。该摄像头利用数十万条数据作为“教师数据”,实现夜间行人检测功能。目前,各个竞争对手公司都在研发支持AI的传感器,日立汽车系统将向铃木汽车公司(Suzuki Motor Corp)供应此种新型传感器,以期在AI传感器的商业化上处于领先地位。

据该公司所说,其该新型传感器的性能大大优于其全球竞争对手的产品,能够在夜间检测行人,然后汽车可以自动刹车,比配备了以色列Mobileye公司主要图像处理芯片EyeQ3的车辆的刹车性能更好。

此前,日立汽车系统的摄像头都是“基于规则”来识别物体,即开发人员需要手动设置条件,其他公司的产品也是如此。但是,“基于规则”的方法会让条件变得复杂,而且很难支持夜间物体检测功能。此次,日立利用机器学习技术,可有效地在大量数据中找到条件。

一般情况下,立体摄像头是利用左右两个摄像头分别拍摄两幅图像,然后通过两幅图像之间的视差来探测物体形状以及位于车辆前方的物体,然后利用模式识别等方法判断被探测到的物体是否是行人。而日立汽车系统的立体摄像头将采用机器学习法进行图像识别。

几十万条“教师数据”都存储在新摄像头的图像处理微型计算机中,然后该摄像头拍摄的图片会与“教师数据”进行比较,以判断物体是否是行人。之前,日立汽车系统的立体摄像头使用的是正常的模式识别法,即使用多幅图像进行判断。

即使行人只有下半身被汽车前大灯照到或者是可以看到行人的整个身体,而各个身体部位的亮度不同时,与传统的模式识别法相比,该摄像头采用了机器学习,会更容易检测到行人。

当将机器学习技术应用于图像识别处理时,需要处理的数据量就会有所增加。为了解决该问题,日立汽车系统对立体摄像头的微型计算机进行了改造,提升了其性能。之前的立体摄像头使用三个微型计算机分别进行图像处理、图像识别和车辆控制。而日立汽车系统的新型立体摄像只集成了两台微型计算机,用于图像处理和图像识别。然后,再将用于图像识别的微型计算机从单核升级为双核。随着核数的增加,该微型计算机不仅可以采用机器学习技术,还能提高图像识别的处理速度。

此外,日立汽车系统还增加了CMOS传感器的动态探测范围,降低了镜头的F值(F值越小,光圈越大),将摄像头的灵敏度提高了一倍。由于其动态探测范围增大,该摄像头既能捕捉明亮,也能捕捉黑暗的物体。而由于F值变小,该摄像头就更容易在黑暗中发现行人。

转自:盖世汽车

人工智能的侵权责任与归责机制

博客susan 发表了文章 • 0 个评论 • 481 次浏览 • 2019-03-25 16:03 • 来自相关话题

随着人工智能技术的迅速普及,由其引发的侵害和侵权事件时有发生,既有因交通、生产事故引发的人身财产伤害,也有因智能系统故障引发的财产利益贬损。人工智能侵权案件与传统侵权案件引发的损害和风险的形式不同,根据传统侵权 法规定,制造商和销售商是主 要责 任主体,但人工 ...查看全部
随着人工智能技术的迅速普及,由其引发的侵害和侵权事件时有发生,既有因交通、生产事故引发的人身财产伤害,也有因智能系统故障引发的财产利益贬损。人工智能侵权案件与传统侵权案件引发的损害和风险的形式不同,根据传统侵权 法规定,制造商和销售商是主 要责 任主体,但人工智能情景下,还应当明确开发者的安全注意义务,建立新的人工智能侵权责任机制,保障行业健康发展。
四种人工智能侵权归责的观点
人工智能工具论——由使用者承担责任。 这种观点认为目前人工智能尚不具备自主意识,只是一种工具,其行为是在人类授意下做出的,因此人工智能侵权应由使用该工具的人来承担责任。使用者是人工智能程序和设备的控制者也是受益者,侵权风险是使用者的使用行为引起的,让受益者承担由其控制的工具引发的侵权责任是公平合理的。
人工智能产品论——由生产者承担责任。 根据《产品质量法》,产品质量应当检验合格,符合保障人体健康和人身、财产安全的标准或要求,生产者、销售者依法承担产品质 量责任。人工智能通常是一种产品,除了个别由于使用者或者第三人故意引起的侵权以外,大多数人工智能侵权是由于产品存在缺陷造成的。消费者对于人工智能产品缺陷,既难以理解也难以发现且难以举证,所以应当由生产者承担产品责任,销售者承担不真正连带责任。
人工智能动物论——由管理者承担责任。 由于人工智能尚不具备自主意识,其行为又与一般工具不同,不完全受人类控制,这与饲养的动物颇为相似,动物可能在人类授意下实施侵权,也可能在无人类授意下发生侵权。尽管古代立法中有让动物承担法律责任的规定,但现代立法不再将动物视作法律主体,因此动物的侵权行为应由饲养人或者管理人承担侵权责任。借鉴动物侵权法律规定,人工智能侵权也应由对其负有管理义务的人承担。
人工智能主体论——由人工智能承担责任。 人工智能最大的特点在于其拥有智能,不但可以做出行为,而且能够自主做出分析判断,同时拥有比人类更加强大的数据收集、记忆和计算能力。法律可以将自然人以外的实体规定为法律主体,例如法人,对于人工智能也可以参照这种做法。而且,已经有一些国家赋予或正在考虑赋予人工智能法律主体资格,如沙特阿拉伯的索菲亚机器人已获公民资格。如果人工智能成为法律主体,则应当承担其侵权行为引起的法律责任。
人工智能侵权的特殊性
人工智能侵权构成要素复杂。 现阶段人工智能的技术框架主要以机器学习和深度学习为中心。从软件层面,人工智能系统作出的判断、决策等行为,实际上是对人工智能模型输入一定数据而得到的函数输出结果,其基本模型可以用“输出 = 人工智能模型 (基础算法 + 训练材料)+ 输入”表示。侵权的输出结果实际受到基础算法、训练材料和输入行为三个要素的影响,这三个要素可能独立导致侵权结果,也可能相互作用累积引起侵权,这使得具体侵权案件的归责难度加大。特别是,现有的司法人员普遍没有接受过人工智能技术相关培训,而技术人员又少有精通法律的,对人工智能侵权的事实认定和法律认定都非常困难。
使用人或管理人 通常没有主观过错。 侵权案件中,通常是侵权人的违法行为造成了损害事实,违法行为与损害事实之间具有因果关系,且行为人对违法行为具有主观过错。但人工智能侵权,使用人或管理人通常不具有侵权的故意或者过失,侵权行为和损害事实是人工智能程序自主判断、决策的结果。以完全自动驾驶汽车为例,使用人给车辆下达行驶的命令,途中使用人并不参与车辆的转弯、减速、超车、避让等各类行 驶决策。在车辆自动行驶的过程中,如果发生侵权事故,尽管使用人最初下达的行驶命令与侵权事实也有一定的关系,但二者之间的因果关系太弱,使用人使用车辆的意志并不包含任何侵权意图,此时归责于使用人,则会给使用人施加过重的事故防范义务,既不符合公平原则,也不利于人工智能的推广应用。
人工智能具有一定的自主性。 由于难以归责于使用人,人工智能侵权主要应当是由产品本身问题引起的,因此应当在产品责任视角下讨论。一般产品侵权是由于存在缺陷而造成他人损害,所谓缺陷是指产品存在危及人身、他人财产安全的不合理的危险,通常在生产阶段按照相应的产品标准或质量要求应当能够发现这种缺陷。但人工智能产品与一般产品不同,虽然尚不具有类似人类的意志,但具有一定自主性,具有学习能力,引起侵权事故的原因既可能是设计生产阶段已经存在的缺陷,也可能是人工智能自主学习后产生的“危险”。而因人工智能学习引起的危险是否属于“缺陷”,在目前法律规定中尚不明确。
人工智能侵权责任主体与归责机制
生产和设计者是人工智能侵权责任主体。 目前人工智能还处于高级函数的阶段,不具备侵权的主观意志,也不具有承担侵权责任的能力。人工智能侵权还是表象,本质上仍然是有安全注意义务的人由于故意或过失而未履行相应义务,而导致人工智能侵权危险的发生。对人工智能侵权负有安全注意义务的,应当是有能力知晓人工智能工作机理并控制人工智能行为的人。一般情况下,应该是人工智能的生产者和设计者。由于人工智能构成的复杂性,产品的瑕疵或缺陷是发生在算法设计、调试阶段,还是发生在机器学习训练、测试生产阶段,又会决定该归责于设计者或生产者。在人工智能时代,设计者和生产者常常是分离的,所以这是两类不同的侵权主体。
严格适用产品责任免责事由。 人工智能侵权主要适用产品责任,侵权法和产品质量法规定了生产者的三类免责事由:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。由于大量人工智能产品属于技术前沿成果,人工智能算法或程序中确实存在一些生产者(设计者)无法预见的瑕疵或缺陷,这三类免责事由仍有适用空间。一方面应宽容创新,对于开发者能够证明已尽力避免,而以当时认知和技术水平确实无法发现的缺陷风险,应当免除开发者的责任;另一方面应严格适用免责事由,严格规范开发者涉及人身、财产安全的人工智能程序开发行为,强化开发者安全注意义务,预防人工智能侵权风险发生和累积。
建立人工智能责任机制。 一是逐步建设人工智能产品标准,使开发者明确其产品需要满足的保障人体健康和人身、财产安全的国家标准或行业标准,避免出现缺陷产品。引导行业建设人工智能开发者安全注意义务准则,加强行业自律规范。二是建立人工智能缺陷产品召回机制,建立算法变化节点时间表机制。对发现缺陷后的产品应及时召回或停止提供服务,并评估人工智能算法的变化节点,排查变化原因,明确引起变化并导致侵权的责任主体。三是探索类似交强险的人工智能责任险。由于人工智能可能存在无法归责于使用者,也不宜归责于生产设计者的侵权风险,可以设立人工智能责任险,及时为被侵权人提供救济,分担开发者风险,保障行业健康发展。

研发智能联网平台 长江汽车与联想签约

博客tututu 发表了文章 • 0 个评论 • 500 次浏览 • 2019-03-20 16:12 • 来自相关话题

近日,长江汽车发布消息称,与联想集团签署了战略合作协议,双方将围绕5G应用开发、智能驾驶、车联网、工业4.0建设、全球业务合作以及海外市场开拓等领域展开全方位、多维度战略合作,全力打造AI+IoV(智能车联网平台)产品与服务。 长江汽车为前身是成立 ...查看全部
近日,长江汽车发布消息称,与联想集团签署了战略合作协议,双方将围绕5G应用开发、智能驾驶、车联网、工业4.0建设、全球业务合作以及海外市场开拓等领域展开全方位、多维度战略合作,全力打造AI+IoV(智能车联网平台)产品与服务。
长江汽车为前身是成立于1954年的杭州公交客车厂,2013年,五龙电动车(集团)有限公司注资重组杭州长江客车有限公司,并将其更名为杭州长江汽车有限公司。长江汽车于2017年12月拿到新建纯电动乘用车生产资质,随后在2018年北京车展上车发布了三款概念车,但还未具体公布上市时间。根据此前规划,长江汽车计划每一到两年推出一款新的乘用车新车型。
联想集团方面,内部孵化的子公司联想懂的通信近年来逐步加大在车联网领域布局,此前已经发布了自主研发的面向新能源汽车的MNO智能车联平台,实现对汽车连接的全生命周期管理。未来公司还将聚焦三大领域——智能交互、智能工业互联和智能车联,智能工业互联为智能交互设备及智能车的生产提供5G智能制造解决方案;智能交互通过边缘计算+云计算+超算+5G+增值服务+随意屏,为智能工业互联、智能车联提供行业定制的有屏设备解决方案;智能车联也为智能工厂提供供应链管理,如车队管理、智能物流服务等。
长江汽车方面称,智能化和网联化已经成为新能源汽车最重要的发展方向。双方的战略合作将面向未来进行更深层次的探索。依托联想集团的技术优势和全球业务能力,长江汽车将进一步加速智慧新能源汽车乃至智能交通领域的发展,并对全球化背景下的商业模式和业务推广进行探索。
来源:汽车之家

赛迪研究院召开“智能网联汽车智能计算平台专家研讨会”

博客tututu 发表了文章 • 0 个评论 • 485 次浏览 • 2019-03-19 14:02 • 来自相关话题

3月18日,智能网联汽车智能计算平台专家研讨会在北京赛迪大厦召开。本次会议由中国电子信息产业发展研究院、工业和信息化部装备工业发展中心联合举办,旨在进一步了解产业实际需求和产品研发现状、梳理制定下一步工作计划、扩大联合研究队伍。 ...查看全部
3月18日,智能网联汽车智能计算平台专家研讨会在北京赛迪大厦召开。本次会议由中国电子信息产业发展研究院、工业和信息化部装备工业发展中心联合举办,旨在进一步了解产业实际需求和产品研发现状、梳理制定下一步工作计划、扩大联合研究队伍。
无标题.png
工业和信息化部装备工业发展中心主任瞿国春、中国电子信息产业发展研究院副总工程师刘法旺、工业和信息化部装备工业发展中心数据管理处副处长邱彬、清华大学教授李克强、国汽(北京)智能网联汽车研究院有限公司总经理严刚、清华大学教授尚进、电子科技大学教授罗蕾、北京理工大学教授计卫星、中国第一汽车集团公司研发总院副院长兼智能网联开发院院长李丰军、上海汽车集团公司技术中心软件工程经理仇林至、吉利汽车研究院智能驾驶技术高级专家陈文琳、蔚来软件开发(中国)副总裁庄莉、华为技术有限公司MDC解决方案部部长毕舒展、中兴通讯汽车电子副总裁田锋、北京地平线机器人技术研发有限公司市场拓展与战略规划副总裁李星宇等领导、专家出席了会议。会议由刘法旺副总工主持。
随着智能化、网联化、电动化和共享化的发展,汽车功能和属性的改变导致其电子电气架构随之改变,进而需要更强的计算、数据存储和通信能力作为基础,车载智能计算平台是满足上述要求的重要解决方案。作为汽车的“大脑”,车载智能计算平台是新型汽车电子电气架构的核心,也是智能网联汽车产业竞争的战略制高点。
围绕着智能网联汽车技术的发展,一汽、上汽、吉利、蔚来等整车企业的专家分别介绍了计算平台应用需求及工作进展,华为、中兴、地平线等计算平台研发企业的专家分别介绍了计算平台研发进展与工作计划。
刘法旺副总工介绍了中国电子信息产业发展研究院在车载计算平台领域的研究进展与工作计划。基于对国内外企业的研发现状分析,他指出应加强国家层面指导、明确发展重点、攻关核心技术、软硬协同开发,以市场化机制建立研发和应用生态。此外,刘法旺副总工还公布了中国电子信息产业发展研究院、工业和信息化部装备工业发展中心、清华大学、国汽智联、北京理工大学等在计算平台参考架构方面的初步研究成果和后续研究计划,并诚挚邀请各单位和企业加入联合研究。
在听取了各单位工作介绍之后,来自高校和研究机构的资深专家也发表了意见。专家高度评价了国内企业的工作进展,并对下一步工作提出建议。会议最后由装备工业发展中心瞿国春主任作总结发言。
2019年1月,中国电子信息产业发展研究院与工业和信息化部装备工业发展中心联合成立智能网联汽车智能计算平台工作组,致力于推动平台总体架构和技术路线研究,加强整车企业与研发单位之间的需求对接,加快推进平台研发、应用示范、标准研制及产业链和应用生态建设。该工作组将联合研发资源,不断深入智能网联汽车智能计算平台研究,并于近期发布《车载智能计算基础平台参考架构1.0(2019年)》。
 

使能自动驾驶解决方案的大规模应用课程

知识讲堂tututu 发表了文章 • 0 个评论 • 510 次浏览 • 2019-02-27 17:25 • 来自相关话题

 
 


《新一代人工智能产业创新重点任务揭榜工作方案》发布 聚焦智能网联汽车产业

博客tututu 发表了文章 • 0 个评论 • 473 次浏览 • 2019-02-27 14:39 • 来自相关话题

2018年年末,为加快推动我国新一代人工智能产业创新发展,落实《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,工业和信息化部印发了《新一代人工智能产业创新重点任务揭榜工作方案》(以下简称《方案》)的通知,具体落实开展新一代人工智能产业创新重 ...查看全部
2018年年末,为加快推动我国新一代人工智能产业创新发展,落实《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,工业和信息化部印发了《新一代人工智能产业创新重点任务揭榜工作方案》(以下简称《方案》)的通知,具体落实开展新一代人工智能产业创新重点任务揭榜工作。
此次方案聚焦“培育智能产品、突破核心基础、深化发展智能制造、构建支撑体系”等重点方向,希望通过各省、自治区、直辖市及计划单列市、新疆生产建设兵团工业和信息化主管部门、中央企业集团、人工智能相关行业组织(以下统称推荐单位)积极组织企业、高校、科研院所等,征集并遴选一批掌握人工智能核心关键技术、创新能力强、发展潜力大的企业、科研机构等,调动产学研用各方积极性,营造人工智能创新发展的良好氛围。
在智能产品方面,智能网联汽车作为人工智能产业的重要产品受到重点聚焦。智能网联汽车产业创新活跃,已聚集了大量企业,相关技术和产品具有较好发展基础,按照“揭榜挂帅”的工作机制,加快我国人工智能产业和实体经济深度融合,促进创新发展。
《方案》中提出,到2020年,突破自动驾驶智能芯片、车辆智能算法、自动驾驶、车载通信等关键技术,实现智能网联汽车达到有条件自动驾驶等级水平,自动驾驶智能芯片图像处理、信息融合、智能控制等计算能力缩小与国际先进水平差距,车载V2X系统通信能力及其能效比达到国际先进水平,满足车辆有条件自动驾驶等级下智能感知、自主决策、协同控制以及智能信息交换共享等计算和通信技术要求,完成安全、可靠的车辆智能化平台技术与功能验证及应用示范,形成平台相关标准,支撑高度自动驾驶(HA级)。
《方案》聚焦我国人工智能产业发展面临的短板,瞄准《促进新一代人工智能产业发展三年行动计划(2018-2020年)》目标,特别是针对智能传感器、神经网络芯片等薄弱环节,集聚资源,夯实产业发展基础,加快实现技术产业突破。同时,充分发挥人工智能在产业升级、产品开发、服务创新等方面的技术优势,有利于加快制造业关键技术装备智能化发展。
在支撑体系方面,选择高质量的行业训练资源库、标准测试、智能化网络基础设施、安全保障体系等作为揭榜攻关任务。这些资源体系是影响人工智能健康发展的重要要素,需要加快完善基础环境、保障平台,加快形成我国人工智能产业创新发展的支撑能力。

ADAS视觉方案盘点上篇:摄像头、芯片和算法

博客tututu 发表了文章 • 0 个评论 • 533 次浏览 • 2019-02-26 12:47 • 来自相关话题

对跨学科领域来说,一个粗略的盘点只是刚刚向门内迈了一步。 摄像头是ADAS核心传感器,相比毫米波雷达和激光雷达,最大优势在于识别(物体是车还是人、标志牌是什么颜色)。汽车行业价格敏感,摄像头硬件成本相对低廉,因为近几年计算机视觉发展迅速,从摄像头 ...查看全部
对跨学科领域来说,一个粗略的盘点只是刚刚向门内迈了一步。
摄像头是ADAS核心传感器,相比毫米波雷达和激光雷达,最大优势在于识别(物体是车还是人、标志牌是什么颜色)。汽车行业价格敏感,摄像头硬件成本相对低廉,因为近几年计算机视觉发展迅速,从摄像头角度切入ADAS感知的创业公司数量也非常可观。
这些创业公司可以统称为视觉方案提供商。他们掌握核心的视觉传感器算法,向下游客户提供车载摄像头模组,芯片以及软件算法在内的整套方案。前装模式下,视觉方案提供商扮演二级供应商的角色,与Tier1配合为OEM定义产品。后装模式里,除了提供整套设备,也存在售卖算法的模式。
本文中将对视觉ADAS功能、硬件需求、评价标准等进行解析,在《【车云报告】ADAS视觉方案入门盘点(下篇)》内容中将参考Mobileye,对国内11家创业公司的产品进行详细解读。
一、视觉ADAS可实现功能 
因为安全记录、停车等需要,摄像头在车上的大量应用是行车记录仪、倒车影像等辅助功能。一般通过安装在车身各个位置的广角摄像头采集影像,经过标定和算法处理,生成影像或拼接形成视图补充驾驶员视觉盲区,不用涉及整车控制,因此更加注重视频处理,技术已经成熟并逐渐普及。 
目前在行车辅助功能中,摄像头可用来单独实现很多功能,并且按照自动驾驶发展规律逐渐演进。
这些功能更加强调对输入图像的处理,从拍摄的视频流中提取有效目标运动信息做进一步分析,给出预警信息或直接调动控制机构。相比视频输出类功能,强调高速下的实时性,这部分技术正处在发展上升期。
二、视觉ADAS软硬需求
视觉系ADAS产品由软硬件组成,主要包括摄像头模组、核心算法芯片以及软件算法。硬件方面考虑行车环境(震动、高低温等),大前提是要符合车规级要求。
(一)车载ADAS摄像头模组
车载ADAS摄像头模组需要定制化开发。为了适应车辆全天候全天时的需要,一般要满足在明暗反差过大的场合(进出隧道),很好平衡图像中过亮或太暗部分(宽动态);对光线比较灵敏(高感光),避免给芯片带来太大压力(并不是一昧追逐高像素)。
摄像头模组是基础。好比一张底子不错的照片才有修饰美化的余地,保证拍摄图像够用的基础上,算法才能更好地发挥效力。
另外在参数上,ADAS与行车记录仪对摄像头的需求不同。用于行车记录仪的摄像头需要看清车头周围尽可能多的环境信息(后视镜位置看向两个前轮,水平视角约要110度)。ADAS的摄像头更讲究为行车时预留更多判断时间,需要看得更远。类似相机镜头广角和长焦,两项参数不能兼得,ADAS在硬件选取时只能取其平衡。
(二)核心算法芯片
图像相关算法对计算资源有很高的要求,因此芯片性能讲究。如果在算法上叠加深度学习来帮助识别率提升,对硬件性能的要求只增不减,主要考虑的性能指标是运算速度、功耗、以及成本。
目前用于ADAS摄像头的芯片多数被国外垄断,主要供应商有瑞萨电子(Renesas Electronics)、意法半导体(ST)、飞思卡尔(Free scale)、亚德诺(ADI)、德州仪器(TI)、恩智浦(NXP)、富士通(Fujitsu)、赛灵思(Xilinx)、英伟达(NVIDIA)等,提供包括ARM、DSP、ASIC、MCU、SOC、FPGA、GPU等芯片方案 。
ARM、DSP、ASIC、MCU、SOC是软件编程的嵌入式方案,FPGA因为对硬件直接编程,和嵌入式相比处理速度更快。
GPU和FPGA并行处理能力强。图片这样的文本,尤其在使用深度学习算法需要多个像素点同时计算,FPGA和GPU会更有优势。两类芯片的设计思路类似,都是为了处理大量简单重复的运算。GPU的性能更强但耗能也更高,FPGA因为编程和优化都是直接在硬件层面进行的,能耗会低很多。
因此在平衡算法和处理速度,尤其是用于前装并且算法稳定时,FPGA被视为一个热门方案。FPGA是个好选择。但同时,FPGA对技术要求也很高。原因在于计算机视觉算法是C语言,FPGA硬件语言是verilog,两种语言不同,将算法移植到FPGA的人既要有软件背景,又要有硬件背景。在人才最贵的今天,是笔不小的成本。
现阶段可用于传统计算机视觉算法的车规级芯片有多种选择,但是适用于传统算法叠加深度学习算法的低功耗高性能芯片,还没有真正出现。
(三)算法
ADAS视觉算法的源头是计算机视觉。
传统的计算机视觉识别物体大致可以分为图像输入、预处理、特征提取、特征分类、匹配、完成识别几个步骤。 
有两处尤其依赖专业经验:第一是特征提取。在识别障碍时可用特征很多,特征设计尤其关键。判断前方障碍物是不是车,参考特征可能是车尾灯,也可能车辆底盘投在地面的阴影等。第二是预处理和后处理,预处理包括对输入图像噪声的平滑、对比度的增强和边缘检测等。后处理是指对分类识别结果候选进行再处理。
科研中的计算机视觉算法模型运用到实际环境中,不一定就能表现得很好。因为科研得出的算法会增加诸如天气、道路复杂情况在内的条件限制,现实世界里除了关注复杂环境的算法表现,还要考虑各种环境下算法的鲁棒性(是否稳定)。
算法上比较重要的一个变化是深度学习的渗透。
深度学习让计算机模拟人类思考的神经网络,可以自己学习判断。通过直接向计算机输入标定后的原始数据,比如挑选一堆异形车图片,然后丢给计算机让它自己学习什么是一辆车。这样就可以免去计算视觉特征提取、预处理等步骤,感知过程可以简化为输入图片-输出结果两步。 
业内比较一致的观点认为,在感知方面,深度学习将会弯道超车传统视觉算法。目前深度学习的算法模型已经开源,而且算法种类不多,因此有降低门槛大量优秀结果涌现的可能。但是受限于没有合适的车端平台,离产品化还有一段距离。 
业内对深度学习在ADAS应用的看法都比较客观冷静。不少观点认为深度学习算法是一个黑箱(Blackbox)算法,类似人感性决策的过程,可以很快输出一个结果,很难在发生事故后反查原因,因此在使用深度学习时要加入理性决策部分,并且分区块设计。
也有观点认为传统计算机视觉算法比我们想象的“智能”,在不断寻找车辆图片共性和差异的过程中,也能检测出一些异形车辆。并且在叠加深度学习算法后,传统计算机视觉算法也可以帮助减少深度学习神经网络的层数,简化算法。 
可以肯定的是,无论哪种算法,数据都是用来训练测试的宝贵资源,而且不是单纯的越多越好,而是越有效越好(符合实际用车环境并保证多样化)。
(四)不同摄像头平台
单目和双目 
视觉方案要完成ADAS任务,一般要实现测距(本车与前方障碍物距离)和识别(障碍物是什么)两项工作。按照车载摄像头模组的不同,目前主流ADAS摄像头可以分为单目和双目两种技术路线。 
单目摄像头的算法思路是先识别后测距:首先通过图像匹配进行识别,然后根据图像大小和高度进一步估算障碍与本车时间。在识别和估算阶段,都需要和建立的样本数据库进行比较。想要识别各种车,就要建立车型数据库,想要识别麋鹿,就要建立麋鹿数据库。 
双目摄像头的算法思路是先测距后识别:首先利用视差直接测量物体与车的距离,原理和人眼类似。两只眼睛看同一个物体时,会存在视差,也就是分别闭上左右眼睛看物体时,会发现感官上的位移。这种位移大小可以进一步测量出目标物体的远近。然后在识别阶段,双目仍然要利用单目一样的特征提取和深度学习等算法,进一步识别障碍物到底是什么。
因为视差越远越小的缘故,业内有观点认为,双目在20米内有明显的测距优势,在20米距离外,视差减小测距存在难度,可以用高像素摄像头和更优秀的算法来提升测距性能,该处是难点也是核心竞争力。
双目镜头间距和测距是两个此消彼长的参数,镜头间距越小,检测距离越近,镜头间距越大,检测距离越远。考虑车内美观和ADAS需要,小尺寸远距离双目产品更受欢迎。
因为增加了一个镜头,带来更多运算量,整个摄像头模组的性能要求和成本都更高了。而且在两者都有的标定工作上,双目要比单目更加复杂。 
而且选择双目方案切入市场并不能完全绕开单目方案的难点,在第二个阶段,你依然要需要一个庞大的数据库,依然需要打磨算法。
多摄像头方案
除了单双目之外,还有多摄像头组成的平台。有的方案中选用长焦和广角摄像头于ADAS主摄像头配合,兼顾周围环境与远处物体探测。比如Mobileye方案,在下文会介绍。
也有在环视平台上叠加ADAS功能的情况。例如对于环视做车道偏离预警(LDW),与单目实现该功能比有一定优势。在大雨天气或者前方强光源的情况下,前视摄像头有可能看不清车道线,环视摄像头斜向下看车道线且可以提供多个角度,基本不会受到地面积水反光的影响,功能可以比前视做得更稳定。但同时也要考虑侧向无车灯照射时,摄像头的夜间表现。
这几种方案在技术路线上和单目没有本质差别,更多是基于不同平台,发挥不同类型摄像头模组的优势分配任务,或者提供更多视角来解决一些复杂环境中单目势单力薄的情况。
三、视觉系ADAS产品测试与评价
目前没有统一的ADAS测试评价标准。常规的测试一般分为两个阶段:
在算法库测试,库中包含了各类工况下收集的行车场景视频,通过用库中的场景视频跑分,测试算法识别率。目前测试库由各家自采自测,因为采集所用的传感器不同,不同企业间的测试单看结果没有可比性。
由德国卡尔斯鲁厄理工学院和芝加哥丰田技术研究所联合创办的KITTI,是国际上权威性较高的机动车辅助驾驶应用技术评估的算法评测平台。目前有部分公司在该网站测试算法,结果公开可查。不同公司跑分的用时存在差异,因此在看结果排名时,也不能忽略多个参数比较。
在实车测试阶段,将产品DEMO安装到车上测试,根据漏报、误报判断算法可靠性,对发现问题进行反复调试。现阶段高质量的实车测试大多由主机厂和零部件供应商掌握,准确测量需要借助激光雷达等设备,在相互校验的过程中完成测量,成本略高,检测周期也略长。
业内人士表示,测试产品能力70-90分的区分更多使用算法库测试,区别90-95分,甚至是95-98分时,必须进行实车定量测试。而目前ADAS各家拉开差距正是在于将90分提高到99分。想做到这点必须要通过大量的实际道路测试打底,并对算法的准确性和鲁棒性不断打磨。因此从某种程度上来说,经历过主机厂Tier1严苛训练的方案提供商,产品可靠性更高,前装经验会成为下一次合作洽谈的资本。
目前企业对外宣称衡量算法能力的“识别率”指标不能说完全没有参考价值。前提是谈论所谓的识别率要把产品放在不同复杂场景下评估,并且单独讲识别率指标没有意义,需要把它和其他指标放在一起考量。产品必须确保在不同的路况、天气、车型,对不同姿态的人、不同的车道线,算法都能稳定工作(鲁棒性)。
四、一哥Mobileye
讲视觉系ADAS不得不提一家以色列公司Mobileye,1999年成立,2007年推出首款产品,2014年8月1号在纽交所上市。公司主要从事汽车工业的计算机视觉算法和驾驶辅助系统芯片技术的研究。Mobileye的产品覆盖了全球50个国家,据官方资料显示,截至2015年底,Mobileye在全球有1000万的装载量,到2016年底会有273款车的SOP的合同。 
(一)公司定位
前装业务中,这家以色列公司作为二级零部件供应商向Tier1提供产品,涉及车辆应用的部分会和主机厂配合。通过一级供应商提供集成、个性化开发以及测试工作。后装采取代理销售的方式。
(二)产品功能
目前可用安装在后视镜后的单颗彩色摄像头(非标准RGB Sensor)对目标物进行检测、识别和分类,同时还会对物体的运动轨迹进行跟踪、分析,并分析道路状况。实现功能包括车道检测、车辆检测、行人检测、动物检测、交通标志识别、红绿灯识别、灯光控制。 
Mobileye具有自主研发设计的芯片EyeQ系列,由意法半导体公司生产供应。现在已经量产的芯片型号有EyeQ1、Eye Q2、EyeQ3,EyeQ4正在开发进行中,预计将于2018年推出,其工程样本有望在2016年第四季度发布。2016年5月Mobileye宣布将与意法联手合作研发下一代将用于自动驾驶的EyeQ5芯片,2018年开始提供工程样品。 
目前Mobileye后装产品的终端售价约为8000元左右,前装价格会低很多。
Mobileye不同芯片可以实现不同的ADAS功能。其中EYEQ2支持产品级的AEB,EyeQ3是支持full AEB。EyeQ2等级只能做到ASIL-B,EyeQ3可以做到ASIL-D等级。(ASIL,Automotive Safety Integration Level,汽车安全完整性等级,是ISO26262中的系统危害风险等级指标,从A到D产品的安全等级依次增加。)
2007年在沃尔沃上实现了摄像头+雷达集成防撞预警的功能。(EyeQ1)
2008年在宝马上实现了单摄像头车道偏离预警、交通标志识别等功能。(EyeQ1)
2010年在沃尔沃上做到了行人防撞检测,首个行人检测AEB。(EyeQ2)
在宝马、通用、欧宝上,用单摄像头实现了拥堵情况下车道内跟车行驶。(EyeQ2)
2013年在宝马和尼桑上用一个摄像头实现AEB功能(部分) 。(EyeQ2)
利用EYEQ2实现了宝马量产的基于摄像头的自适应巡航(ACC)和交通拥堵辅助(Traffic Jam Assistant)。(EyeQ2)
2015年在奥迪上实现了基于摄像头的全AEB功能。(EyeQ3)
在特斯拉车型上实现了交通等检测、利用深度神经网路判断自由空间和路径规划。(EyeQ3) 
在Mobileye的过往演讲和介绍中,提到了一些前车识别算法上的细节:
从前车识别来看,一般单目有两种算法来进行预估,一种是THW(Time Headway),一种是TTC(Time to Collision)。THW计算公式中时间t=两车距离/本车速度;TTC公式中时间t'=辆车距离/两车相对速度。TTC对于计算要求也更高一些,因为除了本车速度之外,还要实时测算出前车的速度,计算方法是通过两车之间的距离变化以及本身速度进行估算。
Mobileye将两种算法用在不同场景。
前向碰撞检测(FCW)方面采用TTC,尤其是高速行驶前车急刹的情况,可以很明显发现,TTC的算法更符合实际情况。Mobileye检测规划路径中会遇到的前车后(不仅仅是识别本车道车辆)用图像的变化快慢来做TTC,以此判断碰撞可能,采取干预、控制、刹车操控。
目前 Mobileye 的后装产品 TTC时间设定为 2.7 秒,官方给出的FCW精准度大约在99.99%。前装方面,对离本车最近的本车道车辆来计算TTC做AEB,AEB一般在1秒上下的区间里起作用。
Mobileye采用THW算法,未来加上控制,可以做到用单个摄像头做ACC或低速Traffic Jam Assistant。目前市面上这两个功能都是毫米波雷达来实现,如果用摄像头完成,可以融合视觉检测到的车道、静止障碍物、车辆横向运动、限速牌,汇总多个信息来做ACC决策,控制会更精准。
Mobileye后装产品THW时间设置可以从2.5秒到0.1秒。
(三)自动驾驶规划
关于自动驾驶如何实现,Mobileye一共会涉及三个方面:感知、地图与驾驶策略。
感知方面,根据Mobileye的规划,单用摄像头方案实现自动驾驶功能且不考虑冗余的情况下,需要8个摄像头来满足360度全方位感知的需要。2015年Mobileye发布了三路摄像头做ADAS功能。三个摄像头分工不同:中间的主摄像头可以实现大部分功能,检测距离可以达到150米,检测到之后跟踪距离可以达到250米。另有一枚小角度摄像头探测更远距离,一枚广角镜头探测更宽视野。
算法上主要实现四项内容,并且对深度学习的要求逐项增加:
1.识别道路上移动/固定的物体;
2.识别出道路分割线以及其他交通标识;
3.在道路上没有分割线或者分割线不清晰的情况下,分辨出哪些是可以通过的空间,并勾勒出可通过空间与其他部分的隔离线;
4.可驾驶的路径:在识别出可通过空间之后,找到一条可供于驾驶的路线。
地图方面是对感知系统的冗余设计,包含Roadbook、高精度定位、可行驶路径三个方面。Mobileye打算用具备深度学习功能的图像识别体系制作高精度地图。数据采集上会与车企合作,用众包方式获得和更新数据。 
驾驶策略方面,车企可以通过提供的SDK访问Mobileye预先训练的网络应用层,让控制单元很快计算并得出可通行的路径方案。车企在其提供的算法基础之上,再以自身在车辆控制上的经验进行优化或者再次开发。这一功能会基于Eye实现。
Mobileye计划2016年推出半自动汽车技术,准备研发的系统可以让汽车阅读交通、街道各类信号,从而与其它车辆保持适当车距。大众、宝马和通用购买了2018 年生产的系统,该系统可使车辆在高速上自动行驶。2016年5月Mobileye与两家保密车企已经达成协议,将在2019年为后者提供全自动驾驶汽车系统。
在2016年7月,Mobileye和宝马、英特尔共同开发无人驾驶汽车技术。2016年8月宣布和德尔福汽车公司共同开发SAE(美国汽车工程协会)4/5级自动驾驶全套解决方案。
(四)团队介绍
创始人之一是耶路撒冷希伯来大学计算机科学系教授阿姆农·沙书亚(Amnon Shashua)。Mobileye在美国、德国、日本、西班牙也有分部或研究部门,现在公司员工约600多人,研发人员占比为70%-80%。目前在中国仅有面向后装的销售团队,办公地点位于上海,没有研发人员。
(五)投融资
2006年5月,获得1500美金投资。
2007年10月,高盛投资的1亿美金投资。
2013年7月Mobileye向5家独立的金融投资方出售4亿美元股份。投资方包括黑石、Fidelity、Wellinton、恩特租车公司以及中国投资公司赛领国际投资基金。这笔交易对Mobileye的除现金外估值达到15亿美元。
本文转载自车云报告。

2019汽车人工智能计算技术及市场趋势

博客tututu 发表了文章 • 0 个评论 • 521 次浏览 • 2019-02-25 17:56 • 来自相关话题

人工智能(AI)正在缓慢但坚定地渗透越来越多的市场,包括我们每个人的日常出行。Yole在本报告中介绍了AI通过自动驾驶汽车和信息娱乐应用/系统对全球汽车生态系统的影响。 据麦姆斯咨询介绍,在自动驾驶领域,两大趋势正在并行:一方面,经典的原始设备制造 ...查看全部
人工智能(AI)正在缓慢但坚定地渗透越来越多的市场,包括我们每个人的日常出行。Yole在本报告中介绍了AI通过自动驾驶汽车和信息娱乐应用/系统对全球汽车生态系统的影响。
据麦姆斯咨询介绍,在自动驾驶领域,两大趋势正在并行:一方面,经典的原始设备制造商(OEM)正在为汽车增加功能(包括用于物体识别的深度学习算法),提高高级驾驶辅助系统(ADAS)水平;另一方面,初创公司和科技巨头则在提供基于自动驾驶汽车的服务,例如自动驾驶穿梭巴士和出租车。   
丰富多样的生态(特别是传感器和计算领域)正在快速拥抱这些不同的应用和系统。在ADAS生态系统中,我们看到了通用汽车、福特、丰田、宝马、奥迪和奔驰等经典OEM厂商,以及特斯拉(Tesla)和蔚来(Nio)等新面孔。在自动驾驶车辆方面,包括谷歌(Waymo)、优步(Uber)、Yantex、百度和苹果在内的科技巨头,今年将在目标城市提供首批自动驾驶出租车服务;其它还包括一些提供出行即服务(Mobility-as-a-service, Maas)的初创公司。   
在自动驾驶穿梭巴士、公共汽车和商用车方面,我们发现了一批初创公司,如Navya、EasyMile和Drive.ai等,为封闭环境的人员或货物提供低速运输服务。而像大陆(Continental)这样的汽车一级供应商(Tier-1)也在大笔投资这个充满前景的市场。对于传统汽车市场,我们预计今年将推出首款2级和3级ADAS汽车(基于人工智能的自动驾驶)。   
英特尔(Mobileye产品)和英伟达(NVIDIA)等主要厂商提供的计算应用也取得了巨幅增长。英伟达的Xavier GPU包括了专为深度学习算法而设计的计算单元。瑞萨(Renesas)、赛灵思(Xilinx)和Kalray等厂商的专用产品提供的其他解决方案也显示出了巨大的潜力。   
AI通过语音和手势识别技术渗透汽车领域。智能家居巨头谷歌和亚马逊在汽车中分别引入了它们知名的语音识别解决方案“Ok,Google!”和“Alexa”。谷歌正通过整合其安卓(Android)操作系统进一步发展。索尼(Sony)Softkinetic在OEM厂商开发手势识别解决方案方面发挥着核心作用。   在计算方面,相关厂商与自动驾驶领域的厂商差异不大,它们都需要为这些特定应用开发功能强大、耗能、适应性强的解决方案。   
预期的变革   
2018年,只有自动驾驶汽车可以声称拥有车载AI。相关的计算市场主要由和数据中心同等的计算机驱动,但是数量相当低,使得2018年计算市场的市场规模仅为1.56亿美元。未来10年,随着自动驾驶出租车和穿梭巴士的发展,这个市场仍将是汽车人工智能的主要营收来源,预计2028年计算市场的总营收将达到90亿美元。   
2019年,首批符合“ADAS 3级”标准的汽车将上路,人工智能将进入ADAS 2级汽车,取代传统的计算机视觉算法。Yole预计2019年ADAS计算市场规模将达到6300万美元,到2028年达到近37亿美元。   
对于信息娱乐系统,AI已经出现在宝马、沃尔沃和奔驰等高端车型的选装装备中,但量相对较低。此外,嵌入式车载计算仍然相当便宜,因为计算是在云端完成的。不过,就智能家居市场而言,人们希望将AI引入边缘应用,这意味着需要创建功能强大、更昂贵的计算。Yole预计信息娱乐相关的计算营收将大幅增长,将从2018年的1800万美元增长至2028年的7.68亿美元。
所有与AI相关的计算实际上都在爆炸式增长,预计2018~2028年期间将获得50%的复合年增长率,总营收到2028年将增长至约140亿美元。   
我们目前在什么位置,将走向何方?   
这是一条风险与收益成正比的道路,第一家在安全性、自主性和服务功能方面拥有成熟技术的公司无疑将占据大部分市场份额。目前,谷歌Waymo在技术和服务层面已经拥有相当大的领先优势,其第一批自动驾驶汽车已经上路,并且已有少数用户体验了其服务。在ADAS方面,奥迪今年推出了第一款3级(2019款奥迪A8)轿车,而在奥迪之后,大多数OEM都能够提供2级以上ADAS功能,并计划在今年和明年推出高端的ADAS 3级车型。出于安全和市场原因,一些OEM(如福特、沃尔沃和丰田)决定跳过3级直接进军4级,预计将在2025年左右推出相关车型。  
信息娱乐方面,目前仅有少数几家厂商参与竞争。索尼Softkinetic领导了手势识别领域,而谷歌凭借其丰富的经验,在语音识别领域利用其创新技术占据了领先地位。   
在计算方面,呈现了两大巨头领导竞争的局面,它们分别是:ADAS市场的英特尔Mobileye,以及自动驾驶汽车市场的英伟达。这两家公司的解决方案很强大,而且它们还提供了强大的软件及堆栈,专门用于处理AI和计算机视觉算法,并适应汽车生态系统。然而,由于汽车产业的迭代周期较慢,瑞萨和赛灵思等其他竞争对手仍紧随其后。   
这场自动驾驶革命来得很快也很有前景,但也充满了挑战。虽然风险很大,但进入的将是一个价值数百亿美元的市场。AI及其相关计算,将成为希望进入该领域厂商的重要催化剂。

日立在汽车立体摄像头中集成AI 提升摄像头夜间行人探测能力

博客别碰我的刘海 发表了文章 • 0 个评论 • 530 次浏览 • 2019-06-19 11:47 • 来自相关话题

据外媒报道,日立汽车系统公司(Hitachi Automotive Systems Ltd)表示,其已经将人工智能(AI)技术应用于立体摄像头中,此类摄像头专为汽车自动刹车功能而设计。该摄像头利用数十万条数据作为“教师数据”,实现夜间行人检测功能。目前, ...查看全部

据外媒报道,日立汽车系统公司(Hitachi Automotive Systems Ltd)表示,其已经将人工智能(AI)技术应用于立体摄像头中,此类摄像头专为汽车自动刹车功能而设计。该摄像头利用数十万条数据作为“教师数据”,实现夜间行人检测功能。目前,各个竞争对手公司都在研发支持AI的传感器,日立汽车系统将向铃木汽车公司(Suzuki Motor Corp)供应此种新型传感器,以期在AI传感器的商业化上处于领先地位。

据该公司所说,其该新型传感器的性能大大优于其全球竞争对手的产品,能够在夜间检测行人,然后汽车可以自动刹车,比配备了以色列Mobileye公司主要图像处理芯片EyeQ3的车辆的刹车性能更好。

此前,日立汽车系统的摄像头都是“基于规则”来识别物体,即开发人员需要手动设置条件,其他公司的产品也是如此。但是,“基于规则”的方法会让条件变得复杂,而且很难支持夜间物体检测功能。此次,日立利用机器学习技术,可有效地在大量数据中找到条件。

一般情况下,立体摄像头是利用左右两个摄像头分别拍摄两幅图像,然后通过两幅图像之间的视差来探测物体形状以及位于车辆前方的物体,然后利用模式识别等方法判断被探测到的物体是否是行人。而日立汽车系统的立体摄像头将采用机器学习法进行图像识别。

几十万条“教师数据”都存储在新摄像头的图像处理微型计算机中,然后该摄像头拍摄的图片会与“教师数据”进行比较,以判断物体是否是行人。之前,日立汽车系统的立体摄像头使用的是正常的模式识别法,即使用多幅图像进行判断。

即使行人只有下半身被汽车前大灯照到或者是可以看到行人的整个身体,而各个身体部位的亮度不同时,与传统的模式识别法相比,该摄像头采用了机器学习,会更容易检测到行人。

当将机器学习技术应用于图像识别处理时,需要处理的数据量就会有所增加。为了解决该问题,日立汽车系统对立体摄像头的微型计算机进行了改造,提升了其性能。之前的立体摄像头使用三个微型计算机分别进行图像处理、图像识别和车辆控制。而日立汽车系统的新型立体摄像只集成了两台微型计算机,用于图像处理和图像识别。然后,再将用于图像识别的微型计算机从单核升级为双核。随着核数的增加,该微型计算机不仅可以采用机器学习技术,还能提高图像识别的处理速度。

此外,日立汽车系统还增加了CMOS传感器的动态探测范围,降低了镜头的F值(F值越小,光圈越大),将摄像头的灵敏度提高了一倍。由于其动态探测范围增大,该摄像头既能捕捉明亮,也能捕捉黑暗的物体。而由于F值变小,该摄像头就更容易在黑暗中发现行人。

转自:盖世汽车

人工智能的侵权责任与归责机制

博客susan 发表了文章 • 0 个评论 • 481 次浏览 • 2019-03-25 16:03 • 来自相关话题

随着人工智能技术的迅速普及,由其引发的侵害和侵权事件时有发生,既有因交通、生产事故引发的人身财产伤害,也有因智能系统故障引发的财产利益贬损。人工智能侵权案件与传统侵权案件引发的损害和风险的形式不同,根据传统侵权 法规定,制造商和销售商是主 要责 任主体,但人工 ...查看全部
随着人工智能技术的迅速普及,由其引发的侵害和侵权事件时有发生,既有因交通、生产事故引发的人身财产伤害,也有因智能系统故障引发的财产利益贬损。人工智能侵权案件与传统侵权案件引发的损害和风险的形式不同,根据传统侵权 法规定,制造商和销售商是主 要责 任主体,但人工智能情景下,还应当明确开发者的安全注意义务,建立新的人工智能侵权责任机制,保障行业健康发展。
四种人工智能侵权归责的观点
人工智能工具论——由使用者承担责任。 这种观点认为目前人工智能尚不具备自主意识,只是一种工具,其行为是在人类授意下做出的,因此人工智能侵权应由使用该工具的人来承担责任。使用者是人工智能程序和设备的控制者也是受益者,侵权风险是使用者的使用行为引起的,让受益者承担由其控制的工具引发的侵权责任是公平合理的。
人工智能产品论——由生产者承担责任。 根据《产品质量法》,产品质量应当检验合格,符合保障人体健康和人身、财产安全的标准或要求,生产者、销售者依法承担产品质 量责任。人工智能通常是一种产品,除了个别由于使用者或者第三人故意引起的侵权以外,大多数人工智能侵权是由于产品存在缺陷造成的。消费者对于人工智能产品缺陷,既难以理解也难以发现且难以举证,所以应当由生产者承担产品责任,销售者承担不真正连带责任。
人工智能动物论——由管理者承担责任。 由于人工智能尚不具备自主意识,其行为又与一般工具不同,不完全受人类控制,这与饲养的动物颇为相似,动物可能在人类授意下实施侵权,也可能在无人类授意下发生侵权。尽管古代立法中有让动物承担法律责任的规定,但现代立法不再将动物视作法律主体,因此动物的侵权行为应由饲养人或者管理人承担侵权责任。借鉴动物侵权法律规定,人工智能侵权也应由对其负有管理义务的人承担。
人工智能主体论——由人工智能承担责任。 人工智能最大的特点在于其拥有智能,不但可以做出行为,而且能够自主做出分析判断,同时拥有比人类更加强大的数据收集、记忆和计算能力。法律可以将自然人以外的实体规定为法律主体,例如法人,对于人工智能也可以参照这种做法。而且,已经有一些国家赋予或正在考虑赋予人工智能法律主体资格,如沙特阿拉伯的索菲亚机器人已获公民资格。如果人工智能成为法律主体,则应当承担其侵权行为引起的法律责任。
人工智能侵权的特殊性
人工智能侵权构成要素复杂。 现阶段人工智能的技术框架主要以机器学习和深度学习为中心。从软件层面,人工智能系统作出的判断、决策等行为,实际上是对人工智能模型输入一定数据而得到的函数输出结果,其基本模型可以用“输出 = 人工智能模型 (基础算法 + 训练材料)+ 输入”表示。侵权的输出结果实际受到基础算法、训练材料和输入行为三个要素的影响,这三个要素可能独立导致侵权结果,也可能相互作用累积引起侵权,这使得具体侵权案件的归责难度加大。特别是,现有的司法人员普遍没有接受过人工智能技术相关培训,而技术人员又少有精通法律的,对人工智能侵权的事实认定和法律认定都非常困难。
使用人或管理人 通常没有主观过错。 侵权案件中,通常是侵权人的违法行为造成了损害事实,违法行为与损害事实之间具有因果关系,且行为人对违法行为具有主观过错。但人工智能侵权,使用人或管理人通常不具有侵权的故意或者过失,侵权行为和损害事实是人工智能程序自主判断、决策的结果。以完全自动驾驶汽车为例,使用人给车辆下达行驶的命令,途中使用人并不参与车辆的转弯、减速、超车、避让等各类行 驶决策。在车辆自动行驶的过程中,如果发生侵权事故,尽管使用人最初下达的行驶命令与侵权事实也有一定的关系,但二者之间的因果关系太弱,使用人使用车辆的意志并不包含任何侵权意图,此时归责于使用人,则会给使用人施加过重的事故防范义务,既不符合公平原则,也不利于人工智能的推广应用。
人工智能具有一定的自主性。 由于难以归责于使用人,人工智能侵权主要应当是由产品本身问题引起的,因此应当在产品责任视角下讨论。一般产品侵权是由于存在缺陷而造成他人损害,所谓缺陷是指产品存在危及人身、他人财产安全的不合理的危险,通常在生产阶段按照相应的产品标准或质量要求应当能够发现这种缺陷。但人工智能产品与一般产品不同,虽然尚不具有类似人类的意志,但具有一定自主性,具有学习能力,引起侵权事故的原因既可能是设计生产阶段已经存在的缺陷,也可能是人工智能自主学习后产生的“危险”。而因人工智能学习引起的危险是否属于“缺陷”,在目前法律规定中尚不明确。
人工智能侵权责任主体与归责机制
生产和设计者是人工智能侵权责任主体。 目前人工智能还处于高级函数的阶段,不具备侵权的主观意志,也不具有承担侵权责任的能力。人工智能侵权还是表象,本质上仍然是有安全注意义务的人由于故意或过失而未履行相应义务,而导致人工智能侵权危险的发生。对人工智能侵权负有安全注意义务的,应当是有能力知晓人工智能工作机理并控制人工智能行为的人。一般情况下,应该是人工智能的生产者和设计者。由于人工智能构成的复杂性,产品的瑕疵或缺陷是发生在算法设计、调试阶段,还是发生在机器学习训练、测试生产阶段,又会决定该归责于设计者或生产者。在人工智能时代,设计者和生产者常常是分离的,所以这是两类不同的侵权主体。
严格适用产品责任免责事由。 人工智能侵权主要适用产品责任,侵权法和产品质量法规定了生产者的三类免责事由:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。由于大量人工智能产品属于技术前沿成果,人工智能算法或程序中确实存在一些生产者(设计者)无法预见的瑕疵或缺陷,这三类免责事由仍有适用空间。一方面应宽容创新,对于开发者能够证明已尽力避免,而以当时认知和技术水平确实无法发现的缺陷风险,应当免除开发者的责任;另一方面应严格适用免责事由,严格规范开发者涉及人身、财产安全的人工智能程序开发行为,强化开发者安全注意义务,预防人工智能侵权风险发生和累积。
建立人工智能责任机制。 一是逐步建设人工智能产品标准,使开发者明确其产品需要满足的保障人体健康和人身、财产安全的国家标准或行业标准,避免出现缺陷产品。引导行业建设人工智能开发者安全注意义务准则,加强行业自律规范。二是建立人工智能缺陷产品召回机制,建立算法变化节点时间表机制。对发现缺陷后的产品应及时召回或停止提供服务,并评估人工智能算法的变化节点,排查变化原因,明确引起变化并导致侵权的责任主体。三是探索类似交强险的人工智能责任险。由于人工智能可能存在无法归责于使用者,也不宜归责于生产设计者的侵权风险,可以设立人工智能责任险,及时为被侵权人提供救济,分担开发者风险,保障行业健康发展。

研发智能联网平台 长江汽车与联想签约

博客tututu 发表了文章 • 0 个评论 • 500 次浏览 • 2019-03-20 16:12 • 来自相关话题

近日,长江汽车发布消息称,与联想集团签署了战略合作协议,双方将围绕5G应用开发、智能驾驶、车联网、工业4.0建设、全球业务合作以及海外市场开拓等领域展开全方位、多维度战略合作,全力打造AI+IoV(智能车联网平台)产品与服务。 长江汽车为前身是成立 ...查看全部
近日,长江汽车发布消息称,与联想集团签署了战略合作协议,双方将围绕5G应用开发、智能驾驶、车联网、工业4.0建设、全球业务合作以及海外市场开拓等领域展开全方位、多维度战略合作,全力打造AI+IoV(智能车联网平台)产品与服务。
长江汽车为前身是成立于1954年的杭州公交客车厂,2013年,五龙电动车(集团)有限公司注资重组杭州长江客车有限公司,并将其更名为杭州长江汽车有限公司。长江汽车于2017年12月拿到新建纯电动乘用车生产资质,随后在2018年北京车展上车发布了三款概念车,但还未具体公布上市时间。根据此前规划,长江汽车计划每一到两年推出一款新的乘用车新车型。
联想集团方面,内部孵化的子公司联想懂的通信近年来逐步加大在车联网领域布局,此前已经发布了自主研发的面向新能源汽车的MNO智能车联平台,实现对汽车连接的全生命周期管理。未来公司还将聚焦三大领域——智能交互、智能工业互联和智能车联,智能工业互联为智能交互设备及智能车的生产提供5G智能制造解决方案;智能交互通过边缘计算+云计算+超算+5G+增值服务+随意屏,为智能工业互联、智能车联提供行业定制的有屏设备解决方案;智能车联也为智能工厂提供供应链管理,如车队管理、智能物流服务等。
长江汽车方面称,智能化和网联化已经成为新能源汽车最重要的发展方向。双方的战略合作将面向未来进行更深层次的探索。依托联想集团的技术优势和全球业务能力,长江汽车将进一步加速智慧新能源汽车乃至智能交通领域的发展,并对全球化背景下的商业模式和业务推广进行探索。
来源:汽车之家

赛迪研究院召开“智能网联汽车智能计算平台专家研讨会”

博客tututu 发表了文章 • 0 个评论 • 485 次浏览 • 2019-03-19 14:02 • 来自相关话题

3月18日,智能网联汽车智能计算平台专家研讨会在北京赛迪大厦召开。本次会议由中国电子信息产业发展研究院、工业和信息化部装备工业发展中心联合举办,旨在进一步了解产业实际需求和产品研发现状、梳理制定下一步工作计划、扩大联合研究队伍。 ...查看全部
3月18日,智能网联汽车智能计算平台专家研讨会在北京赛迪大厦召开。本次会议由中国电子信息产业发展研究院、工业和信息化部装备工业发展中心联合举办,旨在进一步了解产业实际需求和产品研发现状、梳理制定下一步工作计划、扩大联合研究队伍。
无标题.png
工业和信息化部装备工业发展中心主任瞿国春、中国电子信息产业发展研究院副总工程师刘法旺、工业和信息化部装备工业发展中心数据管理处副处长邱彬、清华大学教授李克强、国汽(北京)智能网联汽车研究院有限公司总经理严刚、清华大学教授尚进、电子科技大学教授罗蕾、北京理工大学教授计卫星、中国第一汽车集团公司研发总院副院长兼智能网联开发院院长李丰军、上海汽车集团公司技术中心软件工程经理仇林至、吉利汽车研究院智能驾驶技术高级专家陈文琳、蔚来软件开发(中国)副总裁庄莉、华为技术有限公司MDC解决方案部部长毕舒展、中兴通讯汽车电子副总裁田锋、北京地平线机器人技术研发有限公司市场拓展与战略规划副总裁李星宇等领导、专家出席了会议。会议由刘法旺副总工主持。
随着智能化、网联化、电动化和共享化的发展,汽车功能和属性的改变导致其电子电气架构随之改变,进而需要更强的计算、数据存储和通信能力作为基础,车载智能计算平台是满足上述要求的重要解决方案。作为汽车的“大脑”,车载智能计算平台是新型汽车电子电气架构的核心,也是智能网联汽车产业竞争的战略制高点。
围绕着智能网联汽车技术的发展,一汽、上汽、吉利、蔚来等整车企业的专家分别介绍了计算平台应用需求及工作进展,华为、中兴、地平线等计算平台研发企业的专家分别介绍了计算平台研发进展与工作计划。
刘法旺副总工介绍了中国电子信息产业发展研究院在车载计算平台领域的研究进展与工作计划。基于对国内外企业的研发现状分析,他指出应加强国家层面指导、明确发展重点、攻关核心技术、软硬协同开发,以市场化机制建立研发和应用生态。此外,刘法旺副总工还公布了中国电子信息产业发展研究院、工业和信息化部装备工业发展中心、清华大学、国汽智联、北京理工大学等在计算平台参考架构方面的初步研究成果和后续研究计划,并诚挚邀请各单位和企业加入联合研究。
在听取了各单位工作介绍之后,来自高校和研究机构的资深专家也发表了意见。专家高度评价了国内企业的工作进展,并对下一步工作提出建议。会议最后由装备工业发展中心瞿国春主任作总结发言。
2019年1月,中国电子信息产业发展研究院与工业和信息化部装备工业发展中心联合成立智能网联汽车智能计算平台工作组,致力于推动平台总体架构和技术路线研究,加强整车企业与研发单位之间的需求对接,加快推进平台研发、应用示范、标准研制及产业链和应用生态建设。该工作组将联合研发资源,不断深入智能网联汽车智能计算平台研究,并于近期发布《车载智能计算基础平台参考架构1.0(2019年)》。
 

使能自动驾驶解决方案的大规模应用课程

知识讲堂tututu 发表了文章 • 0 个评论 • 510 次浏览 • 2019-02-27 17:25 • 来自相关话题

 
 


《新一代人工智能产业创新重点任务揭榜工作方案》发布 聚焦智能网联汽车产业

博客tututu 发表了文章 • 0 个评论 • 473 次浏览 • 2019-02-27 14:39 • 来自相关话题

2018年年末,为加快推动我国新一代人工智能产业创新发展,落实《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,工业和信息化部印发了《新一代人工智能产业创新重点任务揭榜工作方案》(以下简称《方案》)的通知,具体落实开展新一代人工智能产业创新重 ...查看全部
2018年年末,为加快推动我国新一代人工智能产业创新发展,落实《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,工业和信息化部印发了《新一代人工智能产业创新重点任务揭榜工作方案》(以下简称《方案》)的通知,具体落实开展新一代人工智能产业创新重点任务揭榜工作。
此次方案聚焦“培育智能产品、突破核心基础、深化发展智能制造、构建支撑体系”等重点方向,希望通过各省、自治区、直辖市及计划单列市、新疆生产建设兵团工业和信息化主管部门、中央企业集团、人工智能相关行业组织(以下统称推荐单位)积极组织企业、高校、科研院所等,征集并遴选一批掌握人工智能核心关键技术、创新能力强、发展潜力大的企业、科研机构等,调动产学研用各方积极性,营造人工智能创新发展的良好氛围。
在智能产品方面,智能网联汽车作为人工智能产业的重要产品受到重点聚焦。智能网联汽车产业创新活跃,已聚集了大量企业,相关技术和产品具有较好发展基础,按照“揭榜挂帅”的工作机制,加快我国人工智能产业和实体经济深度融合,促进创新发展。
《方案》中提出,到2020年,突破自动驾驶智能芯片、车辆智能算法、自动驾驶、车载通信等关键技术,实现智能网联汽车达到有条件自动驾驶等级水平,自动驾驶智能芯片图像处理、信息融合、智能控制等计算能力缩小与国际先进水平差距,车载V2X系统通信能力及其能效比达到国际先进水平,满足车辆有条件自动驾驶等级下智能感知、自主决策、协同控制以及智能信息交换共享等计算和通信技术要求,完成安全、可靠的车辆智能化平台技术与功能验证及应用示范,形成平台相关标准,支撑高度自动驾驶(HA级)。
《方案》聚焦我国人工智能产业发展面临的短板,瞄准《促进新一代人工智能产业发展三年行动计划(2018-2020年)》目标,特别是针对智能传感器、神经网络芯片等薄弱环节,集聚资源,夯实产业发展基础,加快实现技术产业突破。同时,充分发挥人工智能在产业升级、产品开发、服务创新等方面的技术优势,有利于加快制造业关键技术装备智能化发展。
在支撑体系方面,选择高质量的行业训练资源库、标准测试、智能化网络基础设施、安全保障体系等作为揭榜攻关任务。这些资源体系是影响人工智能健康发展的重要要素,需要加快完善基础环境、保障平台,加快形成我国人工智能产业创新发展的支撑能力。

ADAS视觉方案盘点上篇:摄像头、芯片和算法

博客tututu 发表了文章 • 0 个评论 • 533 次浏览 • 2019-02-26 12:47 • 来自相关话题

对跨学科领域来说,一个粗略的盘点只是刚刚向门内迈了一步。 摄像头是ADAS核心传感器,相比毫米波雷达和激光雷达,最大优势在于识别(物体是车还是人、标志牌是什么颜色)。汽车行业价格敏感,摄像头硬件成本相对低廉,因为近几年计算机视觉发展迅速,从摄像头 ...查看全部
对跨学科领域来说,一个粗略的盘点只是刚刚向门内迈了一步。
摄像头是ADAS核心传感器,相比毫米波雷达和激光雷达,最大优势在于识别(物体是车还是人、标志牌是什么颜色)。汽车行业价格敏感,摄像头硬件成本相对低廉,因为近几年计算机视觉发展迅速,从摄像头角度切入ADAS感知的创业公司数量也非常可观。
这些创业公司可以统称为视觉方案提供商。他们掌握核心的视觉传感器算法,向下游客户提供车载摄像头模组,芯片以及软件算法在内的整套方案。前装模式下,视觉方案提供商扮演二级供应商的角色,与Tier1配合为OEM定义产品。后装模式里,除了提供整套设备,也存在售卖算法的模式。
本文中将对视觉ADAS功能、硬件需求、评价标准等进行解析,在《【车云报告】ADAS视觉方案入门盘点(下篇)》内容中将参考Mobileye,对国内11家创业公司的产品进行详细解读。
一、视觉ADAS可实现功能 
因为安全记录、停车等需要,摄像头在车上的大量应用是行车记录仪、倒车影像等辅助功能。一般通过安装在车身各个位置的广角摄像头采集影像,经过标定和算法处理,生成影像或拼接形成视图补充驾驶员视觉盲区,不用涉及整车控制,因此更加注重视频处理,技术已经成熟并逐渐普及。 
目前在行车辅助功能中,摄像头可用来单独实现很多功能,并且按照自动驾驶发展规律逐渐演进。
这些功能更加强调对输入图像的处理,从拍摄的视频流中提取有效目标运动信息做进一步分析,给出预警信息或直接调动控制机构。相比视频输出类功能,强调高速下的实时性,这部分技术正处在发展上升期。
二、视觉ADAS软硬需求
视觉系ADAS产品由软硬件组成,主要包括摄像头模组、核心算法芯片以及软件算法。硬件方面考虑行车环境(震动、高低温等),大前提是要符合车规级要求。
(一)车载ADAS摄像头模组
车载ADAS摄像头模组需要定制化开发。为了适应车辆全天候全天时的需要,一般要满足在明暗反差过大的场合(进出隧道),很好平衡图像中过亮或太暗部分(宽动态);对光线比较灵敏(高感光),避免给芯片带来太大压力(并不是一昧追逐高像素)。
摄像头模组是基础。好比一张底子不错的照片才有修饰美化的余地,保证拍摄图像够用的基础上,算法才能更好地发挥效力。
另外在参数上,ADAS与行车记录仪对摄像头的需求不同。用于行车记录仪的摄像头需要看清车头周围尽可能多的环境信息(后视镜位置看向两个前轮,水平视角约要110度)。ADAS的摄像头更讲究为行车时预留更多判断时间,需要看得更远。类似相机镜头广角和长焦,两项参数不能兼得,ADAS在硬件选取时只能取其平衡。
(二)核心算法芯片
图像相关算法对计算资源有很高的要求,因此芯片性能讲究。如果在算法上叠加深度学习来帮助识别率提升,对硬件性能的要求只增不减,主要考虑的性能指标是运算速度、功耗、以及成本。
目前用于ADAS摄像头的芯片多数被国外垄断,主要供应商有瑞萨电子(Renesas Electronics)、意法半导体(ST)、飞思卡尔(Free scale)、亚德诺(ADI)、德州仪器(TI)、恩智浦(NXP)、富士通(Fujitsu)、赛灵思(Xilinx)、英伟达(NVIDIA)等,提供包括ARM、DSP、ASIC、MCU、SOC、FPGA、GPU等芯片方案 。
ARM、DSP、ASIC、MCU、SOC是软件编程的嵌入式方案,FPGA因为对硬件直接编程,和嵌入式相比处理速度更快。
GPU和FPGA并行处理能力强。图片这样的文本,尤其在使用深度学习算法需要多个像素点同时计算,FPGA和GPU会更有优势。两类芯片的设计思路类似,都是为了处理大量简单重复的运算。GPU的性能更强但耗能也更高,FPGA因为编程和优化都是直接在硬件层面进行的,能耗会低很多。
因此在平衡算法和处理速度,尤其是用于前装并且算法稳定时,FPGA被视为一个热门方案。FPGA是个好选择。但同时,FPGA对技术要求也很高。原因在于计算机视觉算法是C语言,FPGA硬件语言是verilog,两种语言不同,将算法移植到FPGA的人既要有软件背景,又要有硬件背景。在人才最贵的今天,是笔不小的成本。
现阶段可用于传统计算机视觉算法的车规级芯片有多种选择,但是适用于传统算法叠加深度学习算法的低功耗高性能芯片,还没有真正出现。
(三)算法
ADAS视觉算法的源头是计算机视觉。
传统的计算机视觉识别物体大致可以分为图像输入、预处理、特征提取、特征分类、匹配、完成识别几个步骤。 
有两处尤其依赖专业经验:第一是特征提取。在识别障碍时可用特征很多,特征设计尤其关键。判断前方障碍物是不是车,参考特征可能是车尾灯,也可能车辆底盘投在地面的阴影等。第二是预处理和后处理,预处理包括对输入图像噪声的平滑、对比度的增强和边缘检测等。后处理是指对分类识别结果候选进行再处理。
科研中的计算机视觉算法模型运用到实际环境中,不一定就能表现得很好。因为科研得出的算法会增加诸如天气、道路复杂情况在内的条件限制,现实世界里除了关注复杂环境的算法表现,还要考虑各种环境下算法的鲁棒性(是否稳定)。
算法上比较重要的一个变化是深度学习的渗透。
深度学习让计算机模拟人类思考的神经网络,可以自己学习判断。通过直接向计算机输入标定后的原始数据,比如挑选一堆异形车图片,然后丢给计算机让它自己学习什么是一辆车。这样就可以免去计算视觉特征提取、预处理等步骤,感知过程可以简化为输入图片-输出结果两步。 
业内比较一致的观点认为,在感知方面,深度学习将会弯道超车传统视觉算法。目前深度学习的算法模型已经开源,而且算法种类不多,因此有降低门槛大量优秀结果涌现的可能。但是受限于没有合适的车端平台,离产品化还有一段距离。 
业内对深度学习在ADAS应用的看法都比较客观冷静。不少观点认为深度学习算法是一个黑箱(Blackbox)算法,类似人感性决策的过程,可以很快输出一个结果,很难在发生事故后反查原因,因此在使用深度学习时要加入理性决策部分,并且分区块设计。
也有观点认为传统计算机视觉算法比我们想象的“智能”,在不断寻找车辆图片共性和差异的过程中,也能检测出一些异形车辆。并且在叠加深度学习算法后,传统计算机视觉算法也可以帮助减少深度学习神经网络的层数,简化算法。 
可以肯定的是,无论哪种算法,数据都是用来训练测试的宝贵资源,而且不是单纯的越多越好,而是越有效越好(符合实际用车环境并保证多样化)。
(四)不同摄像头平台
单目和双目 
视觉方案要完成ADAS任务,一般要实现测距(本车与前方障碍物距离)和识别(障碍物是什么)两项工作。按照车载摄像头模组的不同,目前主流ADAS摄像头可以分为单目和双目两种技术路线。 
单目摄像头的算法思路是先识别后测距:首先通过图像匹配进行识别,然后根据图像大小和高度进一步估算障碍与本车时间。在识别和估算阶段,都需要和建立的样本数据库进行比较。想要识别各种车,就要建立车型数据库,想要识别麋鹿,就要建立麋鹿数据库。 
双目摄像头的算法思路是先测距后识别:首先利用视差直接测量物体与车的距离,原理和人眼类似。两只眼睛看同一个物体时,会存在视差,也就是分别闭上左右眼睛看物体时,会发现感官上的位移。这种位移大小可以进一步测量出目标物体的远近。然后在识别阶段,双目仍然要利用单目一样的特征提取和深度学习等算法,进一步识别障碍物到底是什么。
因为视差越远越小的缘故,业内有观点认为,双目在20米内有明显的测距优势,在20米距离外,视差减小测距存在难度,可以用高像素摄像头和更优秀的算法来提升测距性能,该处是难点也是核心竞争力。
双目镜头间距和测距是两个此消彼长的参数,镜头间距越小,检测距离越近,镜头间距越大,检测距离越远。考虑车内美观和ADAS需要,小尺寸远距离双目产品更受欢迎。
因为增加了一个镜头,带来更多运算量,整个摄像头模组的性能要求和成本都更高了。而且在两者都有的标定工作上,双目要比单目更加复杂。 
而且选择双目方案切入市场并不能完全绕开单目方案的难点,在第二个阶段,你依然要需要一个庞大的数据库,依然需要打磨算法。
多摄像头方案
除了单双目之外,还有多摄像头组成的平台。有的方案中选用长焦和广角摄像头于ADAS主摄像头配合,兼顾周围环境与远处物体探测。比如Mobileye方案,在下文会介绍。
也有在环视平台上叠加ADAS功能的情况。例如对于环视做车道偏离预警(LDW),与单目实现该功能比有一定优势。在大雨天气或者前方强光源的情况下,前视摄像头有可能看不清车道线,环视摄像头斜向下看车道线且可以提供多个角度,基本不会受到地面积水反光的影响,功能可以比前视做得更稳定。但同时也要考虑侧向无车灯照射时,摄像头的夜间表现。
这几种方案在技术路线上和单目没有本质差别,更多是基于不同平台,发挥不同类型摄像头模组的优势分配任务,或者提供更多视角来解决一些复杂环境中单目势单力薄的情况。
三、视觉系ADAS产品测试与评价
目前没有统一的ADAS测试评价标准。常规的测试一般分为两个阶段:
在算法库测试,库中包含了各类工况下收集的行车场景视频,通过用库中的场景视频跑分,测试算法识别率。目前测试库由各家自采自测,因为采集所用的传感器不同,不同企业间的测试单看结果没有可比性。
由德国卡尔斯鲁厄理工学院和芝加哥丰田技术研究所联合创办的KITTI,是国际上权威性较高的机动车辅助驾驶应用技术评估的算法评测平台。目前有部分公司在该网站测试算法,结果公开可查。不同公司跑分的用时存在差异,因此在看结果排名时,也不能忽略多个参数比较。
在实车测试阶段,将产品DEMO安装到车上测试,根据漏报、误报判断算法可靠性,对发现问题进行反复调试。现阶段高质量的实车测试大多由主机厂和零部件供应商掌握,准确测量需要借助激光雷达等设备,在相互校验的过程中完成测量,成本略高,检测周期也略长。
业内人士表示,测试产品能力70-90分的区分更多使用算法库测试,区别90-95分,甚至是95-98分时,必须进行实车定量测试。而目前ADAS各家拉开差距正是在于将90分提高到99分。想做到这点必须要通过大量的实际道路测试打底,并对算法的准确性和鲁棒性不断打磨。因此从某种程度上来说,经历过主机厂Tier1严苛训练的方案提供商,产品可靠性更高,前装经验会成为下一次合作洽谈的资本。
目前企业对外宣称衡量算法能力的“识别率”指标不能说完全没有参考价值。前提是谈论所谓的识别率要把产品放在不同复杂场景下评估,并且单独讲识别率指标没有意义,需要把它和其他指标放在一起考量。产品必须确保在不同的路况、天气、车型,对不同姿态的人、不同的车道线,算法都能稳定工作(鲁棒性)。
四、一哥Mobileye
讲视觉系ADAS不得不提一家以色列公司Mobileye,1999年成立,2007年推出首款产品,2014年8月1号在纽交所上市。公司主要从事汽车工业的计算机视觉算法和驾驶辅助系统芯片技术的研究。Mobileye的产品覆盖了全球50个国家,据官方资料显示,截至2015年底,Mobileye在全球有1000万的装载量,到2016年底会有273款车的SOP的合同。 
(一)公司定位
前装业务中,这家以色列公司作为二级零部件供应商向Tier1提供产品,涉及车辆应用的部分会和主机厂配合。通过一级供应商提供集成、个性化开发以及测试工作。后装采取代理销售的方式。
(二)产品功能
目前可用安装在后视镜后的单颗彩色摄像头(非标准RGB Sensor)对目标物进行检测、识别和分类,同时还会对物体的运动轨迹进行跟踪、分析,并分析道路状况。实现功能包括车道检测、车辆检测、行人检测、动物检测、交通标志识别、红绿灯识别、灯光控制。 
Mobileye具有自主研发设计的芯片EyeQ系列,由意法半导体公司生产供应。现在已经量产的芯片型号有EyeQ1、Eye Q2、EyeQ3,EyeQ4正在开发进行中,预计将于2018年推出,其工程样本有望在2016年第四季度发布。2016年5月Mobileye宣布将与意法联手合作研发下一代将用于自动驾驶的EyeQ5芯片,2018年开始提供工程样品。 
目前Mobileye后装产品的终端售价约为8000元左右,前装价格会低很多。
Mobileye不同芯片可以实现不同的ADAS功能。其中EYEQ2支持产品级的AEB,EyeQ3是支持full AEB。EyeQ2等级只能做到ASIL-B,EyeQ3可以做到ASIL-D等级。(ASIL,Automotive Safety Integration Level,汽车安全完整性等级,是ISO26262中的系统危害风险等级指标,从A到D产品的安全等级依次增加。)
2007年在沃尔沃上实现了摄像头+雷达集成防撞预警的功能。(EyeQ1)
2008年在宝马上实现了单摄像头车道偏离预警、交通标志识别等功能。(EyeQ1)
2010年在沃尔沃上做到了行人防撞检测,首个行人检测AEB。(EyeQ2)
在宝马、通用、欧宝上,用单摄像头实现了拥堵情况下车道内跟车行驶。(EyeQ2)
2013年在宝马和尼桑上用一个摄像头实现AEB功能(部分) 。(EyeQ2)
利用EYEQ2实现了宝马量产的基于摄像头的自适应巡航(ACC)和交通拥堵辅助(Traffic Jam Assistant)。(EyeQ2)
2015年在奥迪上实现了基于摄像头的全AEB功能。(EyeQ3)
在特斯拉车型上实现了交通等检测、利用深度神经网路判断自由空间和路径规划。(EyeQ3) 
在Mobileye的过往演讲和介绍中,提到了一些前车识别算法上的细节:
从前车识别来看,一般单目有两种算法来进行预估,一种是THW(Time Headway),一种是TTC(Time to Collision)。THW计算公式中时间t=两车距离/本车速度;TTC公式中时间t'=辆车距离/两车相对速度。TTC对于计算要求也更高一些,因为除了本车速度之外,还要实时测算出前车的速度,计算方法是通过两车之间的距离变化以及本身速度进行估算。
Mobileye将两种算法用在不同场景。
前向碰撞检测(FCW)方面采用TTC,尤其是高速行驶前车急刹的情况,可以很明显发现,TTC的算法更符合实际情况。Mobileye检测规划路径中会遇到的前车后(不仅仅是识别本车道车辆)用图像的变化快慢来做TTC,以此判断碰撞可能,采取干预、控制、刹车操控。
目前 Mobileye 的后装产品 TTC时间设定为 2.7 秒,官方给出的FCW精准度大约在99.99%。前装方面,对离本车最近的本车道车辆来计算TTC做AEB,AEB一般在1秒上下的区间里起作用。
Mobileye采用THW算法,未来加上控制,可以做到用单个摄像头做ACC或低速Traffic Jam Assistant。目前市面上这两个功能都是毫米波雷达来实现,如果用摄像头完成,可以融合视觉检测到的车道、静止障碍物、车辆横向运动、限速牌,汇总多个信息来做ACC决策,控制会更精准。
Mobileye后装产品THW时间设置可以从2.5秒到0.1秒。
(三)自动驾驶规划
关于自动驾驶如何实现,Mobileye一共会涉及三个方面:感知、地图与驾驶策略。
感知方面,根据Mobileye的规划,单用摄像头方案实现自动驾驶功能且不考虑冗余的情况下,需要8个摄像头来满足360度全方位感知的需要。2015年Mobileye发布了三路摄像头做ADAS功能。三个摄像头分工不同:中间的主摄像头可以实现大部分功能,检测距离可以达到150米,检测到之后跟踪距离可以达到250米。另有一枚小角度摄像头探测更远距离,一枚广角镜头探测更宽视野。
算法上主要实现四项内容,并且对深度学习的要求逐项增加:
1.识别道路上移动/固定的物体;
2.识别出道路分割线以及其他交通标识;
3.在道路上没有分割线或者分割线不清晰的情况下,分辨出哪些是可以通过的空间,并勾勒出可通过空间与其他部分的隔离线;
4.可驾驶的路径:在识别出可通过空间之后,找到一条可供于驾驶的路线。
地图方面是对感知系统的冗余设计,包含Roadbook、高精度定位、可行驶路径三个方面。Mobileye打算用具备深度学习功能的图像识别体系制作高精度地图。数据采集上会与车企合作,用众包方式获得和更新数据。 
驾驶策略方面,车企可以通过提供的SDK访问Mobileye预先训练的网络应用层,让控制单元很快计算并得出可通行的路径方案。车企在其提供的算法基础之上,再以自身在车辆控制上的经验进行优化或者再次开发。这一功能会基于Eye实现。
Mobileye计划2016年推出半自动汽车技术,准备研发的系统可以让汽车阅读交通、街道各类信号,从而与其它车辆保持适当车距。大众、宝马和通用购买了2018 年生产的系统,该系统可使车辆在高速上自动行驶。2016年5月Mobileye与两家保密车企已经达成协议,将在2019年为后者提供全自动驾驶汽车系统。
在2016年7月,Mobileye和宝马、英特尔共同开发无人驾驶汽车技术。2016年8月宣布和德尔福汽车公司共同开发SAE(美国汽车工程协会)4/5级自动驾驶全套解决方案。
(四)团队介绍
创始人之一是耶路撒冷希伯来大学计算机科学系教授阿姆农·沙书亚(Amnon Shashua)。Mobileye在美国、德国、日本、西班牙也有分部或研究部门,现在公司员工约600多人,研发人员占比为70%-80%。目前在中国仅有面向后装的销售团队,办公地点位于上海,没有研发人员。
(五)投融资
2006年5月,获得1500美金投资。
2007年10月,高盛投资的1亿美金投资。
2013年7月Mobileye向5家独立的金融投资方出售4亿美元股份。投资方包括黑石、Fidelity、Wellinton、恩特租车公司以及中国投资公司赛领国际投资基金。这笔交易对Mobileye的除现金外估值达到15亿美元。
本文转载自车云报告。

2019汽车人工智能计算技术及市场趋势

博客tututu 发表了文章 • 0 个评论 • 521 次浏览 • 2019-02-25 17:56 • 来自相关话题

人工智能(AI)正在缓慢但坚定地渗透越来越多的市场,包括我们每个人的日常出行。Yole在本报告中介绍了AI通过自动驾驶汽车和信息娱乐应用/系统对全球汽车生态系统的影响。 据麦姆斯咨询介绍,在自动驾驶领域,两大趋势正在并行:一方面,经典的原始设备制造 ...查看全部
人工智能(AI)正在缓慢但坚定地渗透越来越多的市场,包括我们每个人的日常出行。Yole在本报告中介绍了AI通过自动驾驶汽车和信息娱乐应用/系统对全球汽车生态系统的影响。
据麦姆斯咨询介绍,在自动驾驶领域,两大趋势正在并行:一方面,经典的原始设备制造商(OEM)正在为汽车增加功能(包括用于物体识别的深度学习算法),提高高级驾驶辅助系统(ADAS)水平;另一方面,初创公司和科技巨头则在提供基于自动驾驶汽车的服务,例如自动驾驶穿梭巴士和出租车。   
丰富多样的生态(特别是传感器和计算领域)正在快速拥抱这些不同的应用和系统。在ADAS生态系统中,我们看到了通用汽车、福特、丰田、宝马、奥迪和奔驰等经典OEM厂商,以及特斯拉(Tesla)和蔚来(Nio)等新面孔。在自动驾驶车辆方面,包括谷歌(Waymo)、优步(Uber)、Yantex、百度和苹果在内的科技巨头,今年将在目标城市提供首批自动驾驶出租车服务;其它还包括一些提供出行即服务(Mobility-as-a-service, Maas)的初创公司。   
在自动驾驶穿梭巴士、公共汽车和商用车方面,我们发现了一批初创公司,如Navya、EasyMile和Drive.ai等,为封闭环境的人员或货物提供低速运输服务。而像大陆(Continental)这样的汽车一级供应商(Tier-1)也在大笔投资这个充满前景的市场。对于传统汽车市场,我们预计今年将推出首款2级和3级ADAS汽车(基于人工智能的自动驾驶)。   
英特尔(Mobileye产品)和英伟达(NVIDIA)等主要厂商提供的计算应用也取得了巨幅增长。英伟达的Xavier GPU包括了专为深度学习算法而设计的计算单元。瑞萨(Renesas)、赛灵思(Xilinx)和Kalray等厂商的专用产品提供的其他解决方案也显示出了巨大的潜力。   
AI通过语音和手势识别技术渗透汽车领域。智能家居巨头谷歌和亚马逊在汽车中分别引入了它们知名的语音识别解决方案“Ok,Google!”和“Alexa”。谷歌正通过整合其安卓(Android)操作系统进一步发展。索尼(Sony)Softkinetic在OEM厂商开发手势识别解决方案方面发挥着核心作用。   在计算方面,相关厂商与自动驾驶领域的厂商差异不大,它们都需要为这些特定应用开发功能强大、耗能、适应性强的解决方案。   
预期的变革   
2018年,只有自动驾驶汽车可以声称拥有车载AI。相关的计算市场主要由和数据中心同等的计算机驱动,但是数量相当低,使得2018年计算市场的市场规模仅为1.56亿美元。未来10年,随着自动驾驶出租车和穿梭巴士的发展,这个市场仍将是汽车人工智能的主要营收来源,预计2028年计算市场的总营收将达到90亿美元。   
2019年,首批符合“ADAS 3级”标准的汽车将上路,人工智能将进入ADAS 2级汽车,取代传统的计算机视觉算法。Yole预计2019年ADAS计算市场规模将达到6300万美元,到2028年达到近37亿美元。   
对于信息娱乐系统,AI已经出现在宝马、沃尔沃和奔驰等高端车型的选装装备中,但量相对较低。此外,嵌入式车载计算仍然相当便宜,因为计算是在云端完成的。不过,就智能家居市场而言,人们希望将AI引入边缘应用,这意味着需要创建功能强大、更昂贵的计算。Yole预计信息娱乐相关的计算营收将大幅增长,将从2018年的1800万美元增长至2028年的7.68亿美元。
所有与AI相关的计算实际上都在爆炸式增长,预计2018~2028年期间将获得50%的复合年增长率,总营收到2028年将增长至约140亿美元。   
我们目前在什么位置,将走向何方?   
这是一条风险与收益成正比的道路,第一家在安全性、自主性和服务功能方面拥有成熟技术的公司无疑将占据大部分市场份额。目前,谷歌Waymo在技术和服务层面已经拥有相当大的领先优势,其第一批自动驾驶汽车已经上路,并且已有少数用户体验了其服务。在ADAS方面,奥迪今年推出了第一款3级(2019款奥迪A8)轿车,而在奥迪之后,大多数OEM都能够提供2级以上ADAS功能,并计划在今年和明年推出高端的ADAS 3级车型。出于安全和市场原因,一些OEM(如福特、沃尔沃和丰田)决定跳过3级直接进军4级,预计将在2025年左右推出相关车型。  
信息娱乐方面,目前仅有少数几家厂商参与竞争。索尼Softkinetic领导了手势识别领域,而谷歌凭借其丰富的经验,在语音识别领域利用其创新技术占据了领先地位。   
在计算方面,呈现了两大巨头领导竞争的局面,它们分别是:ADAS市场的英特尔Mobileye,以及自动驾驶汽车市场的英伟达。这两家公司的解决方案很强大,而且它们还提供了强大的软件及堆栈,专门用于处理AI和计算机视觉算法,并适应汽车生态系统。然而,由于汽车产业的迭代周期较慢,瑞萨和赛灵思等其他竞争对手仍紧随其后。   
这场自动驾驶革命来得很快也很有前景,但也充满了挑战。虽然风险很大,但进入的将是一个价值数百亿美元的市场。AI及其相关计算,将成为希望进入该领域厂商的重要催化剂。

近十年来,感知、自然语言处理、形式逻辑、控制理论、认知系统架构、搜索与优化技术等基础领域的发展极大促进了人工智能技术的广泛应用,特别是对汽车人工智能领域应用的推动尤为明显。汽车人工智能的核心是“交互”,包括车辆与周边环境进行交互与适应、与其他车辆进行信息交换、与车内/车外人员进行交互等,和已有的驾驶辅助系统(ADAS)不同。