详解 Mobileye CES 2017 演讲:自动驾驶行业能走向联合吗?
先来一段走心的话 在正文开始之前,我想先要对 Mobileye 公司及其创始人兼 CTO Shashua 博士表示感谢。对 GeekCar 来说,Shashua 每年 CES 期间的发布会演讲一定是整个 CES 当中,我们收获最大的一个小时。从 GeekCar 最早在国内体验 Mobileye 的后装产品开始,这家公司的一系列动作帮助我们加深了对 ADAS 乃至整个自动驾驶行业的了解。或许他们这十几年来对技术的追求与坚持,正是我们所倡导的极客精神。 走心的话说完,下面就该是硬货了。在今年 CES 的演讲上,Shashua 博士再次给我们上了一堂自动驾驶课。这次他除了讲了一些 Mobileye 的技术进展之外,还着重讲了一下自动驾驶行业发展背后的合作伙伴关系以及运作逻辑。 自动驾驶的三个部分 首先,Shashua 博士将自动驾驶分为了三个主要组成部分:Sensing, Mapping, Driving Policy Sensing:指车辆所搭载的一切感知设备,包括摄像头,激光雷达,毫米波雷达等等。所有这些传感器所收集到的信息,都将被传输到高性能电脑当中并加以分析,从而帮助车辆了解其所处的周边环境。 Mapping:指高精度地图,其意义在于帮助车辆在整个路径规划中精确定位。由于自动驾驶所要求的定位精度极高(10CM),GPS 系统已完全无法满足,且完全自动驾驶需要高精度地图覆盖尽可能多的地域并可以做到实时更新。所以,地图数据的收集与扩展就变得尤为重要。 Driving Policy:指驾驶逻辑或策略,此概念来源于机器人学,具体是指计算机在获得了周边环境的感知信息之后,如何对其做出应对。在驾驶环境中就是如何能够让计算机像人一样在面对不同路况时能够做出相应的判断。目前大热的人工智能与深度学习也是为了要更好地解决这个问题。 在这三个部分当中,Mobileye 目前都已经有所涉及。传感器方面,Mobileye 的 EyeQ 系统已经是摄像头领域的视觉处理标杆。截止目前,EyeQ 芯片的出货量已经达到了 1,500 万。 在地图方面,去年 CES 上,Mobileye 发布了其基于摄像头的地图定位技术 REM(Road Experience Management)——通过摄像头捕捉路面上的标识以辅助定位。由于目前大部分车辆都已经配备了前置摄像头,因此 REM 可以利用这些现有的摄像头辅助定位。更方便的是,REM 还可以通过这些车辆前置摄像头来获取更多全新的地图信息,并通过上传云端持续对地图数据库做出更新。 由于摄像头所捕捉到的地图数据为 2D,数据尺寸较 3D 高精度地图要小了很多(一般只有 10KB/KM),因此更利于向云端的传输。这就使得高精度地图的收集与普及变得更加便宜高效。在今年德尔福的自动驾驶演示车上,REM 技术也得到了应用,具体请查看我们之前的体验文章。到 2018 年前,REM 技术将开始陆续通过整合到现有的 EyeQ 芯片当中,届时将会有两百万上路车辆搭载 REM 技术,共同捕捉新的地图数据。 不过在这里,需要特别引入一个「 冗余」(Redundancy)的概念:目前对于主机厂和 Tier 1 来说,任何自动驾驶的感知与定位功能都不能够由单一传感器或者技术来完成,因为任何传感器都会有自己的局限性。当某一个传感器因为天气或者光线等特殊原因无法良好工作时,需要有其他的传感器或者备选方案来保证车辆行驶的安全。 因此尽管 REM 的技术有着成本低,普及容易,数据尺寸小等优点,在主机厂的实际产品中,它也不可能完全独揽定位的任务。出于「 冗余」 的考虑,激光雷达和 3D 高精度地图还是会被引入到解决方案当中,与 REM 共同配合完成定位。在之前我与 Shashua 博士的交谈当中,他自己也提到了这一点。 可以看出,合作才是推动地图与定位技术发展的关键。于是,Mobileye 也开始和其他图商走到了一起: Here:将 REM 算法整合到 Here 的 HD Live Map 系统当中,帮助 Here 完善并丰富其高精度地图数据。 Zenrin:共同组建覆盖全日本高速公路的高精度地图数据,在 2018 年之前与亚洲 OEM 合作完成 L3 级自动驾驶的研发。 Mobileye 在地图领域内的最终目标,是联合各大车厂、图商一起构建一个覆盖全球的高精度地图体系。与和单一整车厂的一般合作不同,这个体系需要多个整车厂、供应商、图商组成共同的联盟才能够达成。目前,Mobileye 正在和各方沟通组建世界地图的具体细节(包括技术,商业,数据归属等等层面)。 Shashua 博士认为,这个体系一旦达成,将会成为自动驾驶行业发展的转折点,因为这样的联盟能够避免竞争,最大化发挥资源及数据整合的优势。 Driving Policy:自动驾驶面临的最大挑战 我们日常的驾驶行为看似简单,实则不然,它是由多方控制者(Multi-agent)相互感应相互判断所产生的结果。当车辆对周边的驾驶环境做出感知和反应时,周边环境也会对车辆的行为产生相应的判断与反应。比如,我们在日常开车遇到行人过马路时,经常会遇到互相避让,最后导致双方都无法高效通过的情况。面对这样的问题时,目前的自动驾驶策略是极其保守的(比如选择减速,避让甚至是停车等等)。 这是出于安全的考虑,因为社会舆论是很难接受自动驾驶车辆在行驶过程中出现很多事故的(虽然绝大部分事故还是人为原因造成)。但在实际路面上只采用这种保守的驾驶策略却又很难融入到现有的驾驶环境当中,如果不解决这个问题的话,自动驾驶车辆将无法与其它人为控制的出行方式并存。如何能够让机器像人一样在不同的驾驶策略之间做出相应的调整,同时又能够确保安全,是目前行业所面临的巨大挑战。 为了演示这个挑战的复杂程度,Shashua 博士选取了一种双车道并线(Double lane Merge)的场景,请参看下面的视频: 在视频演示中,Shashua 博士对人为驾驶策略的判断给出了一个非常经典的定义:「 在驾驶行为中,我们人类对驾驶策略的判断并不是来自于与其他驾驶者之间的交谈,而是来自于我们的行为,我们的驾驶行为直接表现着我们的意图,例如哪些车我乐意让它并线,哪些车我就不乐意让它并线。」 用这个定义来形容全球司机都盛行的路怒症简直是在合适不过了。而这种驾驶行为所主导的驾驶策略,是机器非常难以模仿的。目前绝大部分上路的自动驾驶测试车辆都是按照严格的驾驶规则与保守的逻辑做出判断,一旦在面对这样复杂、规则不明确且不确定性很强的决策场景时,机器只能选择让人类驾驶者介入。在博士看来,这才是目前自动驾驶发展的最大阻碍。 目前行业中,能解决这个问题的方法是机器学习(Machine Learning),因为它可以通过观察和分析不同的数据来自行生成并调整决策逻辑。之前在围棋比赛中击败各路人类高手的人工智能 AlphaGo 正是通过机器学习当中的深度学习分支来学习下围棋的。 这其中有一个很重要的原则:机器学习是通过分析大量的数据来提升自己的表现,所以面对驾驶场景中,一些罕见的路况环境(数据不充足甚至是没有),机器学习将无法获得足够的学习素材以产生良好的判断。这也是为什么机器学习主导下的自动驾驶需要很长时间的数据积累。 不过,Shashua 在对机器学习提出了更深一层的解读:他认为,目前被大部分公司所宣传的机器学习技术更多的是对车辆当下所处场景的感知与反应,因此这种技术应该被称为「 深度监督式学习」(Deep Supervised Learning)。而获取更好的驾驶策略需要的是对未来场景的提前预判,因此其所需要的技术在机器人学中应当叫做「 强化学习」(Reinforcement Learning)这两种技术之间的主要区别来自于对待数据的方式,具体在于: 1. Deep … 继续阅读
我们体验了这届 CES 自动驾驶程度最高的一辆车 | 视频
在这届 CES 场馆周围的道路上,你会看到各种各样涂装的自动驾驶车在做路测。如果你今年没有带辆测试车来现场的话,都不好意思和别人说你是做自动驾驶的。不过,在这些自动驾驶车当中最火的一辆,却也最」 不显眼「。这辆车不是来自什么科技巨头或创业公司,而是来自老牌一级供应商德尔福。 这辆车有什么不一样 德尔福的这辆自动驾驶车改装自奥迪的 SQ5,说实话,除了涂装以及自动驾驶的专用车牌照,你从外观和内饰上真的看不出这辆车和普通的 SQ 5 有什么明显的区别。但是,在平庸的外表下,这辆车可谓是武装到了「 牙齿」——全车一共配备了 25 个传感器,包括 9 个摄像头、6 个激光雷达、6 个长距离雷达、4 个短距离雷达,实现了激光雷达、摄像头和雷达的 360 度车身覆盖。 值得称道的是,这些传感器都被巧妙的隐藏在了车身结构当中,例如下图中隐藏在车顶行李架上的摄像头: 例如隐藏在车身尾杠下和前车灯下面的激光雷达与长距离雷达: 再例如隐藏在车身后玻璃后面的激光雷达: 为了让大家更好的了解辆车传感器布局,我们现场请德尔福的工作人员做了一个介绍,并拍摄了视频: 开放道路体验 体验环节的路线全长 6.3 英里,正好围绕着 CES 的展馆周围转了一圈。在 CES 最开始的两天,由于路况较为拥堵,整个路线的行驶时间甚至达到了 40 分钟。幸好,我在体验的时候已经是 CES 的最后一天了,所以整个路线行驶下来花了约 20 分钟。 车辆全程都是处于自动驾驶模式,车内的车机屏幕一直显示各种传感器所描绘出的周围环境的画面,再加上德尔福的工作人员全程讲解,这 20 分钟基本上已经可以把这辆自动驾驶车的工作原理理解透彻了。 不多卖关子,下面就是体验的全程视频,其中左下角的画中画为车机屏幕的特写: 针对这辆车的传感器工作原理,我们可以用体验中的场景举例说明 上图是车辆在到达一个十字路口时,车机上所显示的画面。其中我们可以看到的黄色的线是来自于激光雷达返回的信息,白色为摄像头捕捉到的车道线,绿色为传感器识别的前方可行驶的空间范围(Free Space Detection)。除此之外,摄像头还捕捉到了从十字路口另一方向驶来的车辆,以及交通信号灯。 需要特别注意的是,在屏幕的右下角还有一组信号灯的标识,它是来自于德尔福 V2E(Vehicle to Everthing)技术中的 V2I(Vehicle to Infrastructure)分支,即车辆可以通过 DSRC 技术与同样支持 V2I 的交通设施进行互联,让车辆可以提前了解到这些设施所处的位置以及状态(例如交通信号灯是正在亮红灯还是正在亮绿灯)。 关于德尔福的 CSLP 系统 这辆 SQ5 所搭载的系统名为 CSLP,它是德尔福与 Mobileye 合作的整套自动驾驶解决方案。这四个字母其实是 Centralized, Sensing, Localization, Planing 的首字母组合。其寓意为自动驾驶解决方案的四个关键:集成、感知、定位以及预判。 德尔福将 Mobileye 最拿手的几项摄像头相关技术都整合到了 CSLP 当中,这其中包括: 1. EyeQ 4/5 系统:包括搭载 EyeQ 4/5 芯片的 SOC 以及相关算法。 2. REM 技术:Mobileye 于去年 CES 发布的基于 2D 摄像头数据所实现的地图定位技术,下图当中黄色的部分即为摄像头通过 REM 技术捕捉到的道路标识,通过将这些标识与云端的地图数据对比便可以辅助车辆进行定位。 3. 3D Vehicle Detection:Mobileye 的一项最新技术,通过算法,将摄像头所捕捉的 2D 画面中的汽车进行 3D 解析,从而可以得到车辆的大致形状,车身朝向角度等。弥补了摄像头在 3D 感知方面的缺失。 下图即是 3D Vehicle Detection 在体验时所反馈回来的画面,绿色的方框即是对车辆的 3D 解析。 除了 Mobileye 的技术以外,这套系统还整合了之前被德尔福收购的 Ottomatika 公司的路径与行驶算法,以及德尔福自己的 Multi-Domian Controller(MDC)多传感器控制系统。 面对这么多种硬件与算法,德尔福是怎样将他们整合到一起的呢?在德尔福的展台大屏幕上,我们看到了这样一张图 可以看到,Mobileye 的主要角色还是提供了摄像头相关的图像识别、地图定位技术以及图像识别芯片。而在车辆驾驶行为的算法上,Mobileye 只占了 20%,剩余的算法与硬件分别来自德尔福自己以及整合芯片供应商(会是英特尔吗?)。这一点其实也可以验证我们之前在 CES 期间得出的一个结论:Tier 1 在自动驾驶行业当中依然处于一个不可取代的地位。 因为目前任何一个单一技术解决方案商都无法完整的提供自动驾驶所需的全部技术,Mobileye 已经将自己的摄像头技术发挥到了极致,甚至用算法在一定程度上克服了摄像头在 3D 图像识别以及高精度地图定位等方面的短板。 但是出于安全及冗余的考虑,车厂(特斯拉除外)在高度自动驾驶中还是会选择激光雷达,摄像头,短距及长距雷达等「 全品类」 传感器整合的方案。这种情况下,Tier … 继续阅读
CES 2017 | 都说英伟达要逆天,于是我们去体验了它的 AI 自动驾驶车
今年 CES 的开场 Keynote 上,英伟达的 CEO 老黄宣布了与奥迪的合作,并邀请奥迪美国的老大 Scott Keogh 一同上台。二人同时宣布,在 CES 北展馆外的停车场上,正有一辆搭载英伟达人工智能及深度学习系统的奥迪 Q7 在做自动驾驶的测试。今天,GeekCar 现场体验了一下这辆 AI 汽车的自动驾驶功能。 搭载英伟达 AI 平台的奥迪 Q7 废话不多说,先上体验视频: 测试场地的面积并不大,工作人员通过路桩和白色的车道线标注除了一个类似于「8」 字的行驶路线。 Q7 在行驶全程都处于「 完全自动驾驶」 模式,司机的位置并没有坐人,只有副驾驶坐了一位工作人员,通过一个屏幕监控驾驶情况。坐在 Q7 的后排,我的感觉是这辆车的行驶很平顺,并没有突然地急转、刹停等情况出现。同行的另外一位体验者说,刚开始起步时,看到驾驶座位上没人,以及方向盘在自己转时真的很紧张,但是乘坐一会儿后他变慢慢安心了下来。 这辆奥迪 Q7 搭载了英伟达的 Drive PX2 超级电脑,位于后背箱中: 其实,这辆车演示的重点除了自动驾驶之外,更是英伟达人工智能平台的深度学习能力。现场的奥迪工作人员告诉我说,这辆 Q7 演示车的想法是在 6 周之前才产生的,由于时间非常紧迫,工程师在 Q7 量产车的基础之上只加装了一个前置摄像头,用来帮助 AI 平台学习驾驶行为。而在 CES 开始之前,这辆车在这个场地也仅仅「 深度学习」 了四天。事实上,在 CES 开幕之前两天,我们逛到这块区域的时候就看到了一辆带着厚厚伪装的奥迪车。 这辆车目前还并没有链接到云端。在这四天中,前置摄像头将捕捉场地内的路障、标识以及场地所处位置的天气、光照等等数据,并将他们储存到下图中的硬盘里。 整车的驾驶行为都是英伟达的 AI 平台通过学习这些数据,结合摄像头捕捉的实时路况信息并加以分析之后所发出的指令。通过前置单摄像头的收集,和仅仅四天的数据就能达到现在这样的驾驶效果,英伟达平台的深度学习能力由此可见一斑。 英伟达自己的 BB8 测试车 我们之前已经报道过,英伟达拿到了加州的自动驾驶测试牌照,并且自己也搞了一辆名叫 BB8 的自动驾驶测试车。这辆车也来到了 CES 的现场,但是遗憾的是,今天英伟达方面并没有安排这辆车的体验。我们可以看一看之前外媒体验 BB8 的视频: 可以看到,BB8 是在一辆林肯 MKZ 的基础上改造的,工作人员告诉我,现场的这辆 BB8 与那辆奥迪 Q7 一样,也是只启用了一个前置摄像头(见下图)。 不过我们通过观察实车发现,BB8 的车身四周加装了很多传感器。 结合老黄之前在演讲时所公布的演示视频就可以发现,BB8 在开放道路测试时时应该也使用了激光雷达,360 度摄像头等传感器。这次 CES 现场的演示只启用了前置摄像头,也应该是为了配合体现 Drive PX2 的学习能力所做出的调整。(说句题外话:在美国,不少自动驾驶研发团队都选择林肯 MKZ 作为测试原型车,这次 CES 上在黑莓 QNX 展台就有一台基于 MKZ 改装的自动驾驶车。QNX 的同学告诉 GeekCar,这是因为 MKZ 的整车电子化程度比较高,改起来比较方便。)对于英伟达的 AI 自动驾驶布局来说,BB8 在多传感器配合,切是开放道路的情况下所收集上来的测试数据才是关键。因为这些数据将作为英伟达提升自己 AI 算法的基础。在与整车厂的合作方面,除了我们开头所说的奥迪。老黄还在 CES 现场来到了奔驰的展台,宣布了双方将合作打造 AI 自动驾驶车,并计划于 2020 年上路。 奥迪与奔驰的加入能够进一步丰富英伟达的数据来源,看来除了 AI 的硬件平台之外,老黄在驾驶数据上的策略也是不容忽视。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)& 极市(微信号:geeket)。
CES 2017 | 专访博世高管:一级供应商在自动驾驶领域有多重要?
对我来说,今年 CES 最大的新闻之一,就是博世与英伟达宣布合作。这意味着在自动驾驶发展的驱动下,科技公司已经正式加入到了传统的汽车供应链当中。今天,GeekCar 在 CES 博世的展台上,有幸采访到了博世 VP Vehicle Systems Engineering / Project VP Future Driver Assistance —— Michael Fausten,和他一起聊了聊自动驾驶。 作为博世负责未来驾驶辅助业务的重要高管,Michael 给我们分析了目前自动驾驶产业的结构,以及博世作为全球最大的一级供应商,在这个产业中所发挥的作用。以下是专访的实录 ( G 代表 GeekCar,M 代表 Michael Fausten): G: 在 GeekCar 看来,目前的自动驾驶产业结构已经比较清晰了。我们可以把自动驾驶分为「 感知」(Sensing)、「 判断」(Decision)以及「 控制」(Control)三个大环节,并辅以” 地图”(Mapping)以及” 互联”(Connectivity)技术。在您看来,现在的自动驾驶产业结构是什么样的?我们是否还需要加入更多的技术和环节以实现自动驾驶? M: 首先我得说,我十分同意你们对目前自动产业结构的理解,你需要有感知、决策和控制,还需要云端连接以及地图数据的支持。 不过从博世的角度来看,我们更愿意将这几个环节连接在一起来看。因为作为一级供应商,我们需要交付的是一个整体解决方案,因此你所提到的每一个环节对我们来说,都要能提供安全,可靠的表现。只擅于其中的某一个领域对于 Tier 1 来说是不够的。 对于目前的整体产业结构来说,我认为所有自动驾驶所需要的环节与技术已经基本完善,已经不需要有全新的技术加入进来了。我们目前应该关注如何将现有的技术做进一步的整合和优化,例如传感器和人工智能等。 G: 很高兴您提到了人工智能,因为我们发现今年 CES 的一个重点就是将人工智能应用在自动驾驶上,英伟达的 CEO 黄仁勋也在他的发布会上着重提到了 AI 于汽车的联系,以及英伟达与博世的合作。在您看来,人工智能与自动驾驶的联系是怎样的?在众多的潜在合作伙伴中,博世为什么会选择与英伟达合作? M: 对于完全自动驾驶来说,我们的目标是能够把人从驾驶任务中完全解放出来。对汽车来说,这就意味着在任何路况或者条件下,汽车自己都能够提供合理、安全的应对方法,而不需要人来介入。这就让自动驾驶技术从基础的感知开始向智能化的判断能力进行发展,这是我们需要人工智能的根本原因。 而深度学习技术能够帮助我们更加有效的去优化人工智能的判断能力,例如在道路上准确判断出行人、卡车标识等等。 我们与英伟达的合作始于对这方面的考虑,因为深度学习需要有一个合适的运算平台与环境,而最终,我们需要将深度学习与人工智能整合到一个可以大量量产的计算机系统当中。英伟达在 AI 领域及芯片供应链当中的角色与我们的需求十分相符,因此我们选择才选择一起合作。我们会和英伟达一起研究人工智能在汽车领域内的应用,并将成果落实在量产产品上。 G: 黄仁勋也告诉过我们,博世的合作对英伟达十分重要,因为这是将他们的超级电脑进行车规级量产的唯一途径。不过当我们讨论人工智能和深度学习时,只说硬件是不够的,还需要有充足的数据支持,在这方面,英伟达的测试车才刚刚起步。那么在合作当中,谁将会主要提供数据呢? M: 获得数据的方法其实有很多,其一是博世自己在世界各地的自动驾驶测试车已经积累了很多数据。其二是,我们已经和一些车厂达成合作,一起研发自动驾驶汽车,在合作中,我们也可以共享他们的数据。一方面我们自己可以产出数据,另一方面,我们也可以通过技术手段来模拟数据,在这个层面上,我们也希望能够找到更多的合作伙伴。 G: 目前在人工智能的硬件领域,竞争还是很激烈的,例如 CPU 和 GPU 之间的对比。在博世看来,哪种处理芯片更适合于自动驾驶的应用? M: 现阶段我们需要新的硬件来支撑深度学习,目前能够支持深度学习的硬件架构其实并不多。在我们看来,GPU 是有能力去计算深度学习任务的,这也是为什么英伟达在现阶段是很合适的合作伙伴。作为 Tier 1,我们也希望有更多的硬件方案出现,因为我们的职责就是评估不同技术的表现,并选择最优的方案给到车厂。 G: 的确,作为供应商,如何将方案整合并量产其实是你们克服的难点。那么目前你们与英伟达合作的人工智能解决方案,是更注重于短期内的量产,还是更注重于未来完全自动驾驶的长远规划?因为大部分车厂在提到人工智能的时候,都将规划的落地时间定在了 2020-2021 年左右。 M: 我认为,短期内英伟达提供的是深度学习芯片的量产能力。不过他们也并不是这种芯片的唯一供应商。对于博世来说,我们在短期内的任务是如何能够更好的使用这些深度学习芯片去运行我们的软件以及算法。 至于我们未来是否会进一步使用英伟达的软件和算法去提高我们方案的表现,还需要进一步的探讨。 G: 我们将话题转到互联与自动驾驶,5G 是互联领域内的热门话题,大家都在谈论 5G 在自动驾驶里的应用。但是我听到一些汽车工程师告诉我说,在 V2V 及 V2I 等的应用当中,出与对安全和稳定性的考虑,他们还是会去选择更加传统的 DSRC 技术。您是否同意这个观点? M: 这个选择其实取决于你的具体需求和应用场景。比如我们会使用 5G 来做在线服务以及传输大尺寸的交通行驶数据、地图数据等。而在 V2V 与 V2I 应用上,目前在美国已经要实行对每辆车的强制性 V2V 技术要求了,我们要进一步看市场的渗透情况以及发展走向,然后我们再相应调整我们的技术策略。 G: 正如您刚才提到的,地图技术也是自动驾驶当中非常重要的一部分,现在的行业中有两类解决方案,一种是 Mobileye 的 REM,通过小尺寸的摄像头数据来辅助定位,另一种是类似谷歌这样通过激光雷达的实时扫描并与高精度地图进行对比定位。在您开来,现阶段哪种解决方案会更有优势? M: 目前我们提供的解决方案是通过视频摄像头和雷达技术进行定位。因为从我们的经验来看,只使用摄像头来定位是不够可靠的,比如说下雨天气、路面反光以及黑天的情况都有可能产生错误,视频摄像头对于周边环境以及光照情况很敏感。所以博世选择将摄像头与雷达结合的地图技术,并且我们认为这两种传感器是目前最好的解决方案,原因有二:第一是它反馈回来的结果十分稳定可靠。第二是,数据的大小及流量相对合理,并没有像高精度地图那么高。我们认为现在一些低精度的地图已经完全可以满足目前的需求了。而且我们也可以通过推广这两种传感器结合的解决方案去积累更多的地图数据。 G: 在特斯拉 8.0 系统对于 Autopilot 功能的更新中,他们把博世的毫米波雷达作为核心传感器之一。而在更后面的 Autopilot 2.0 系统里,却使用了八摄像头的方案,号称具备了 4/5 级自动驾驶的硬件基础,这是否意味着高度自动驾驶是可以不需要激光雷达的?今年,很多 Tier 1 供应商都公布了自己的激光雷达产品计划,博世有没有这方面的考虑? M: 对传感器种类的选择同样取决于对功能的需求,特斯拉决定选择这几个传感器肯定有他们自己的系统设计,以及功能上的考虑。至于我们自己是否会生产激光雷达,目前我还无法透露,让我们再等等看吧。 G: 在去年 CES 期间,博世曾经说过,自动驾驶是一个步步推进的过程,2016 年当中,我们已经看到越来越多的车型具备了高级驾驶辅助以及 Level 2 的半自动驾驶功能。您觉得在未来的量产产品当中,我们会看到哪些驾驶辅助功能方面新的变化? M:我们看到了两个趋势,第一是常见的整车自动驾驶功能级别的逐渐提升,我们会向着 … 继续阅读
CES 2017 | 详解英伟达 CEO 黄仁勋演讲:「AI 教父」的自动驾驶布局
在每年美国 CES 正式开始的前一天晚上,都会有一位科技领域的大佬在拉斯维加斯最高端的酒店之一「 威尼斯人」 做一场演讲,作为整个展会的开端。今年正值 CES 50 周年,这个「 非官方开场」 就显得更加有意义。而这次站在威尼斯人酒店舞台上的人,正是 NVIDIA(以下称为英伟达)的 CEO 黄仁勋(以下称为老黄)。 2016 年可以说是英伟达大爆发的一年。GPU 驱动下的人工智能与深度学习技术让整个科技行业为之疯狂,这不只让英伟达的股价和利润在 2016 年各种翻倍,更让他们有能力进一步扩展人工智能在汽车行业,尤其是自动驾驶领域内的应用。 在这次演讲当中,老黄用了整整一半的时间来公布英伟达在自动驾驶领域内的最新解决方案与合作进展。这足以看出他有多么重视汽车业务。下面我们就来分析一下老黄公布的全部与汽车相关的信息。 人工智能驱动下的自动驾驶解决方案 ·在老黄看来,通过深度学习的方式让人工智能不断地优化自己的驾驶行为,是目前最有效的自动驾驶解决方案。这个流程就好像是我们人类去学习开车一样,只不过如何让机器能够像人类大脑一样学习才是这其中的难点,而这也是英伟达目前正在用自己的平台所努力解决的问题。其解决方案主要包括两点: 1. 人工智能车载超级电脑(AI CAR SUPERCOMPUTER)在去年的 CES 上,老黄就已经发布了他们的车载超级电脑 Drive PX2,今年他又对这套芯片做了进一步的迭代优化。这套称为 XAVIER 的超级电脑整合了多种芯片,其中包含了 8 核心的 ARM64 CPU,以及具有 512 个核心的 Volta 架构 GPU。Volta 是英伟达下一代的 GPU 核心架构,甚至还没有应用在 PC 端的显卡产品上,这套架构拥有 30 Tops DL ,功耗仅为 30W,且整套系统符合车规级安全标准 ASIL D 级。 将自己最新的 GPU 架构率先应用在自动驾驶平台上,老黄确实非常拼。其实我在之前的文章中就解释过,由于 GPU 的架构原因,其在深度学习方面的应用本就十分拥有优势。而老黄这次的演讲中进一步解释了车载超级电脑在自动驾驶环境中所提供的功能:接收车载传感器所传回的数据信息并加以分析,之后输出能够控制汽车各部分元器件控制单元(例如转向、加速等)的 CAN 总线信息,简单讲就是将车辆感知到的信息加以分析,然后再输出控制车辆行驶的指令,可以说这套电脑就是用来替代人脑在驾驶行为当中的判断与决策能力的。 2. 自动驾驶测试车 BB8 深度学习光有硬件是不够的,还需要有足够的学习「 素材」。为了让自己的深度学习平台能够积累更多的行驶数据,英伟达自己打造了一台自动驾驶测试车辆 BB8,并获得了加州自动驾驶车辆的测试牌照。BB8 搭载了 Drive PX2 电脑,并已经开始在道路上进行行驶测试。后天 GeekCar 将有机会能够在 CES 现场试乘 BB8,届时将会为大家带来具体介绍。 AI CO-PILOT 系统 老黄认为具有云端连接的人工智能汽车应该已经具备能力在世界上的很多地方实现自动驾驶。但是,目前总会有一些路况或条件中,人工智能是无法完全依靠自己来驾驶的,这时就需要驾驶者的介入。由于人工智能事先已经了解到整条行驶路线的规划,它就能够根据路线中不同位置的路况来决定是否需要人类驾驶者介入。因此为了能够更好的实现自动驾驶和人工驾驶之间的切换,英伟达研制了一套人工智能的自动巡航辅助系统(AI CO-PILOT)。 需要注意的是,这套系统被称为 CO-PILOT,我将它翻译成自动巡航辅助系统,而不是自动驾驶辅助系统。原因是这套系统的应用场景更多的是在 SAE 所定义的 LEVEL 2 或 LEVEL 3 级别的半自动驾驶环境当中。在这种级别当中,驾驶者需要随时准备好接管车辆的驾驶控制权,但是很多事实告诉我们,人类驾驶者很难能够长时间维持足够的注意力,这往往会导致事故的发生。AI CO-PILOT 的诞生正是为了解决这样的问题。 这套系统主要包含五个功能: 1. 语音预警提示:在人工驾驶和环境中,车身周围的四个摄像头实时监控周围的路况,并通过自然语音的预警方式向驾驶者提示潜在危险。 这第一个功能与我们常见的 ADAS 类似,但是进一步优化了预警方式。接下去的四个功能,则是让车载人工智能能够更好的了解驾驶者的状态。 2. 人脸识别(Face Recognition):AI 可以通过摄像头识别驾驶者的身份,即使是驾驶者的发型或者是装扮发生了变化。其精度已经可以达到人类的级别。 3. 头部跟随(Head Tracking):AI 能够通过摄像头识别驾驶者头部所朝的方向。 4. 目光跟随(Gaze Tracking):AI 能够通过深度学习网络对人眼进一步识别,来判断出驾驶者的目光所关注的点。 5. 唇语识别(Lips Reading):这个功能来源于牛津大学的一项唇语研究,他们的成果能够让人工智能对唇语的识别精度达到 95%,比人类的识别精度高出一倍。 上述的几个功能,旨在让车载系统能够持续观察驾驶者的行为,并在适当的时机与驾驶者交互,保证其维持足够的注意力。而正如我们之前文章中所分析的,整套系统的基础仍然是英伟达的人工智能汽车平台(AI CAR PLATFORM)。 基于 AI CAR PLATFORM 的合作伙伴 除了前面提到的超级电脑和 AI CO-PILOT,英伟达的人工智能汽车平台还包含其它部分,比如高精度地图。为了搭建出这套完善的平台,英伟达选择了与行业内的巨头们合作。 在高精度地图方面,英伟达针对不同国家地区的具体情况选择了不同的合作伙伴: 1. 百度:提供中国地区的高精度地图。 2. TomTom:提供欧洲地区的高精度地图,及 RoadDNA 技术。 3. Zenrin:提供日本地区的高精度地图。 4. … 继续阅读
GPU 驱动下的自动驾驶变革
人们开始认识 NVIDIA(英伟达)这个企业,是因为他们创立了 GPU 这个概念并一直在这个领域内统治至今。不过,最近几年,这家企业却在自动驾驶领域做得风生水起。过去的 2016 年中,他们发布了 Drive PX2 核心,获得加州无人驾驶路试牌照,并和众多其他公司达成了自动驾驶相关的合作。 NVIDIA 的 CEO 老黄将在本次 CES 期间演讲,并发布最新的产品和技术,感兴趣的朋友文末有视频直播链接。 GPU 与自动驾驶的联系 NVIDIA 在自动驾驶领域的成就正是得益于他们在 GPU 领域内的深耕。大多数人对 GPU 应用的了解都是在游戏领域。其实,在自动驾驶环境中,GPU 的优势也十分明显。 与 CPU 一样,GPU 的功能主要也是完成计算任务。两者的不同点在于,CPU 的核心数量只有几个(一般不超过两位数),每个核都有足够大的缓存和足够多的数字和逻辑运算单元,并辅助很多复杂的计算分支。而 GPU 的运算核心数量则可以多达上百个(被称为流处理器),每个核拥有的缓存大小相对小,数字逻辑运算单元也少而简单。 这样的架构差别使得 CPU 更擅于计算复杂繁琐的大型计算任务,而 GPU 则可以高效的同时处理大量的简单计算任务。如果把 CPU 和 GPU 想成是一个出色的建筑团队,那么 CPU 就是可以定义结构并完成复杂计算的总设计师。而 GPU 则是负责完成各个细节建筑任务的工匠团队。 在驾驶环境中,司机除了操作车辆之外,还需要同时做出大量的判断——既要实时观察路面上正在发生的各种情况,又要判断自己在整个路线当中的方位。重复完成这种大量且相对比较简单的计算判断任务,正是 GPU 的专长。用 GPU 作为自动驾驶系统的核心大脑,也就变得顺理成章了。 NVIDIA 在 CES 2016 上发布的 Drive PX2 就是这样一台「 自动驾驶超级电脑」。它同时搭载了两颗 CPU 和两颗 GPU,在浮点运算性能上,相当于 150 台 Macbook Pro,可以处理 12 部 200 万像素摄像头(60fps)的数据。 除 PX2 之外,NVIDIA 还发布了端到端的深度学习系统,能够将 PX 2 与云端 NVIDIA DIGITS 链接,上传驾驶数据,并通过深度学习平台 NVIDIA DRIVENET,进一步提升所有使用 NVIDIA 自动驾驶平台的自动驾驶精度。关于这套系统的具体原理,可以参考我们之前的 文章 众多的合作伙伴 有了强力的自动驾驶大脑,完善的深度学习体系,再加上加州无人驾驶路试牌照。NVIDIA 在自动驾驶领域的地位已经越来越重要。在这一年中,NVIDIA 在汽车领域内达成的众多合作也很好的印证了这一点: 1. 主机厂: 一向在自动驾驶领域十分激进的特斯拉今年就宣布,在其 Model S、Model X 以及 Model 3 车型的全新 AutoPilot 自动驾驶系统都将配备 NVIDIA DRIVE PX 2。此外,福特、宝马、奔驰、大众(奥迪)等汽车厂商也都开始测试并使用 NVIDIA 的自动驾驶技术。 2. 地图商: TomTom 的 RoadDNA 技术也被应用在了 Drive PX2 上面。这套系统可以通过车辆上的传感器及摄像头实时捕捉道路两侧的 3D 数据,并于已有的数据库进行对比,从而让行车电脑即使在告诉行驶中,也能够确认自己在整个路线当中所在的位置。 3. 深度学习及人工智能: 百度是 NVIDIA 最重要的合作伙伴之一。因为这两家公司的合作不只是在驾驶环境下的深度学习平台建设上,还包括了云端平台,地图技术,语音及图像识别等等方面。除去百度这样的互联网巨头之外,自动驾驶软件公司如 AIMotive 也会使用 NVIDIA 的硬件产品。 在即将开始的美国 CES 2017 上,NVIDIA 将进一步展示他们与这些合作伙伴的合作成果。此外,NVIDIA … 继续阅读
活动预告|下周的 T 圈大会,以及 GeekCar 的大 Party
一年一度的 T 圈大会在下周又要开始了。今年,为了迎接 2017 年 TCC 生态圈为中国车联网奋斗十周年,更为了感谢社会各界组织、嘉宾对 T 圈一直以来的支持和关爱,主办方将展开一系列的「 既以为人,既以与人」。2016 年 12 月 7-9 日,第九届 TC 汽车互联网大会期间,组委会将以超乎想象的力度推出重磅福利,分享给中国汽车互联网人,49 份共计价值 868,600 元的 6 大红包等你来拿! 红包一:2017 TC 汽车互联网大会门票,每份价值人民币 9800 元,共 12 份 红包二:2017 TC 汽车互联网大会期间三天酒店住宿,每份价值人民币 3000 元,共 7 份 红包三: 2017 TC 汽车互联网大会第三天主题演讲一次,每份价值人民币 12 万元, 共 2 份 红包四:2017 年度 T 行神州系列活动门票,每份价值 5000 元,共 12 份 红包五: 2017 年度 T 行神州系列活动免费酒店住宿一晚,每份价值人民币 1000 元, 共 10 份 红包六: 2017 年度 T 行神州系列活动主题演讲一次,每份价值人民币 7 万元,共 6 份 具体来说,在每一天会议议程结束后(下午五点左右),组委会将把放入所有参与嘉宾名片的大抽奖箱搬上舞台,由大会组委会主席抽取每一天的奖项,当场宣布获奖人名单并邀请获奖人上台领奖。没有被抽取到的名片,以及第二天新加入的嘉宾名片则自动进入下一轮的抽奖箱。注意哦,如果您获奖了但当时并没有在抽奖现场,这个奖项也将当场作废,由组委会主席重新抽取新的获奖人。 DAY 1 2017 TC 汽车互联网大会门票一张,共 2 份。 2017 TC 汽车互联网大会酒店免费住宿三晚,共 3 份。 2017 年度 T 行神州系列活动门票一张,共 4 份。 2017 年度 T 行神州系列活动酒店免费住宿一晚,共 6 份。 第一天奖项价值 54,600 元 DAY 2 2017 TC 汽车互联网大会门票一张,共 4 份。 2017 TC 汽车互联网大会酒店免费住宿三晚,共 2 份。 2017 年度 T 行神州系列活动门票一张,共 6 份。 2017 年度 T 行神州系列活动酒店免费住宿一晚,共 2 份。 2017 年度 T 行神州系列活动主题演讲一次,共 2 份。 第二天奖项价值 217,200 … 继续阅读
我们和一家叫 GLM 的日本新造车团队聊了聊
在 2016 年的巴黎车展上,一家来自日本的电动车造车团队——GLM,展示了他们的纯电动跑车 GLM-G4。这辆跑车的推出,让很多人认识到,在东洋,新造车运动也在悄然地进行着,而且他们的进度看起来也很快。 其实关于这个 GLM 的团队,我们在 2015 年的时候就已经有过 相关的报道 。不过就在刚刚过去的周末,GLM 在香港举行了一场 GLM-G4 跑车的亮相仪式以及慈善 Party,凑巧在香港的我就这么去现场看了看(至于我为什么会在香港,求别问别说…)GLM-G4 是辆什么样的车? 第一眼看见这辆车,你会感觉 GLM-G4 的完成度很高,做工也比较精细,外观给人的印象是一辆纯粹的跑车。但是当你细看一眼,会惊讶地发现,这辆车配备四门四座,四个车门的打开方式是类似于宝马 Vison Next 100 的上下开合。 GLM 的 COO 田中先生说,GLM-G4 的车型定位其实是介于 Sedan 和 Coupe 之间,既有 Sedan 的空间,又拥有 Coupe 的流线型设计。他们希望这辆车可以在车型上创造一个新的品类。至于这辆车是否会量产,GLM 的小间社长告诉我:目前展示的这辆 GLM-G4 还是一辆概念车,但是已经在之前进行过路试,并且会在未来进行小批量量产,最终的量产版本和现在的样子不会有太大的差距。 至于这辆车的性能,相对于它的外观,则并没有十分惊艳。官方发布的动力数据为 400 千瓦(540 匹马力);百公里加速时间 3.7 秒;扭矩 1000 牛米,极速 250 km/h,续航里程为 400 公里。田中告诉我,G4 拥有两台电机,分别位于前轴和后轴,电机的供应商是日本安川电机(YASKAWA),安川集团拥有着上百年的历史,是世界上主要的工业用电机解决方案提供商,其早在 2012 年就已经宣布涉足电动车行业,之前和奇瑞、马自达等中日车企都有过合作。除了技术上的合作,安川还是 GLM 的投资人之一。 除了电机之外,GLM-G4 的充电系统供应商也是 GLM 团队的重要投资人——尼吉康(Nichicon)株式会社。尼吉康是日本著名的电容及电子元器件企业。其在电动车领域有很多产品资源以及研发实力。 尼吉康的电动车相关产品目录 在电池系统上,GLM-G4 的电池是分布在地盘的中线以及尾部,这种 T 字型的电池布局与 Rimac 的 Concept One/Concept s 电动超跑有些类似。 Rimac 的 T 型电池布局 田中告诉我说,GLM-G4 使用的电池并不是 18650,而是「 片状」 的电池组,遗憾的是,小间和田中都无法向我透露电池的供应商,只能告诉我是日本企业供应的。在电池技术全球领先的日本,GLM 想找到靠谱的电池供应商估计并不难。而且选择「 片状」 电池也符合行业内对于「18650 不适合作为电动车动力电池」 的共识。 车内交互上,GLM-G4 的座舱内一共搭载了 5 块屏幕,分别位于:液晶仪表盘、中控大屏、手套箱上方、仪表台顶部正中央,以及后排座椅中央。至于为什么要设计成这样的布局,田中现在还没法讲出一个完整的设计理念,因为整个交互系统还只是一个概念。而据我现场观察,各个屏幕上所显示的信息重合率较高,无法摸索出一个合理的交互逻辑。 GLM 是一家怎样的团队? 为啥要叫 GLM?谈到这个问题时,田中的兴致明显上来了:GLM 的全称为 Green Lord Motors。在日本,人们信奉很多神明,甚至有上千位之多。而在日本文化中,Green Lord 正是自然之神,GLM 的宗旨就是要做一家敬仰自然之神的电动车企业。好吧,这真是一个充满日系文化情怀的环保主义品牌理想。看着田中陶醉在这个环保老梗中,我决定还是问他一些实际一点的团队信息,于是就有了下面的答复: GLM 成立于 2010 年,总部位于日本京都。截至目前,整个团队共有 22 人。核心人物包括社长小间,CTO 长野以及 COO 田中。小间社长告诉我,公司的前身是由一家京都风投公司及京都大学于 1996 年启动的电动车项目,当时作为项目组一员的小间,决定在自己从京都大学毕业后,将这个电动车项目商业化,并正式成立 GLM 公司。在 2010 年创立后,GLM 选择了重新开发主要的三电技术,并且和许多大公司达成了研发及融资方面的合作。除去之前提到的安川电机以及尼吉康,GLM 的投资人还包括三菱工业。 图中左侧为小间社长,右侧为 CTO 长野 GLM 研发团队中的很多工程师都来自日本的著名汽车企业,例如丰田、马自达。可以说这个团队虽然人数不多,但是其研发及技术背景其实并不弱。 GLM-G4 是他们团队用 1 年时间打造的概念车型,且这并不是他们的第一款产品。早在 2014 年,他们就发布了一款大众级别的电动跑车 GLM-ZZ,这辆车是 GLM 成立前三年中的主要研发成果,并且之前已经量产并卖出了 100 台,售价折合人民币 50-60 … 继续阅读
MMC 2016|专访 HTT:在 Hyperloop 落地中国前,你还应该知道这些
在刚刚结束的 MMC 2016 上,GeekCar 和来自美国 Hyperloop Transportation Technologies 公司的两位高管: CEO Dirk Ahlborn 以及 COO Bibop Gresta 一起聊了聊有关 Hyperloop 的一切。在此首先要说明的是:Hyperloop Transportation Technologies(以下简称 HTT)是从事 Hyperloop 胶囊高铁项目研发的公司之一,同时也是最早开始研发 Hyperloop 的公司。而在国内知名度更高的,则是 HTT 的竞争对手——于今年 5 月份在美国内华达沙漠进行路测的 Hyperloop One。由于这两家公司的名称中都包含「Hyperloop」,Logo 也有些相似,所以国内舆论经常将这两家公司混为一谈,甚至将他们当作同一家公司。其实两者有着很大的不同,本篇文章就将通过我们对 HTT 的专访进行具体剖析(文章较长,但是看完保证你可以出去给别人上课)。 Hyperloop 究竟指什么? “Hyperloop”(国内一般将其翻译为胶囊高铁)是钢铁侠 Elon Musk 于 2013 年提出的一项公共交通工具概念。其本质是将一个载人的胶囊式座舱放置在一个封闭的低压管道当中,并通过直线加速电机的方式为座舱提供动力。由于管道当中的气压很低(约为火星大气压的六分之一),座舱所受到的阻力大大减小,所以其移动速度最高可达到音速。由此产生的效果是,乘坐 hyperloop 从洛杉矶到旧金山的时间只需要 35 分钟。由于 Elon Musk 本人所参与的项目太多(Tesla, SpaceX, Solar City),没有时间投入在这个新项目上,因此他决定将这个项目开源。2013 年 8 月,Elon Musk 通过 SpaceX 的官网发布了一份长达 57 页的 Hyperloop 项目 白皮书 ,其中不但包含 Hyperloop 的技术原理解释,还有在洛杉矶到旧金山这段路程当中建造 Hyperloop 的完整执行方案。Elon Musk 希望全世界所有对这个项目感兴趣的人都可以以这份白皮书为基础,进一步将 Hyperloop 这个概念落地。 可以看出,「Hyperloop」 一词本身只是一种交通工具的名称,与「 高铁」,「 飞机」 相似,并不是一家公司的名称。而 Elon Musk 除了提出这个设想之外,他本人并没有直接参与到后续的研发当中,更没有单独建立与 Hyperloop 有关的公司。所以如果你再看到诸如「Elon Musk 的 Hyperloop 公司又爆出最新进展」 之类的标题,请自动选择忽略。如果你想进一步了解 Hyperloop 的技术原理,可以去收听 GeekCar 之前录制的 音频节目 HTT 是什么来路? 既然 Hypeloop 是一个开源的项目,那么自然就会有人把它拿过来成立公司,做进一步开发,HTT 的 CEO Dirk 就是其中之一。在 HTT 之前,Dirk 还是另一家众包创业平台 JumpStartFund 的 CEO。2013 年,在白皮书发布两周之后,Dirk 就将其上传到了 JumpStartFund 的网站之上,并对外宣布成立 HTT 公司,开始研发 Hyperloop。其公司的运作模式正是众包众筹。通过 JumpStartFund 的平台,对 Hyperloop 这个项目感兴趣的人都可以申请以兼职的形式加入到 HTT 公司,申请者需要保证每周有 10 个小时以上的时间为 HTT 公司工作,而作为回报,HTT 将给申请成功者分配一定的股份。按照 COO Bibop 的说法,截至目前公司已经拥有来自 50 多个国家的 600 多名员工,其中不乏来自与 … 继续阅读