开放九大核心能力的斑马,要怎么做车联网平台?

· Jul 08, 2019 333

上周的车联网行业很热闹,先是百度在百度世界大会上宣布了不少关于小度车载方面的消息,吉利旗下的亿咖通也发布了 GKUI 19 的版本。 作为这一波车联网智能化的早期参与者之一,斑马网络也在上周宣布了一些新的进展。在「2019 斑马智行探索大会」上,斑马网络 CEO 郝飞发布了「 情境智能驱动服务找人」 的产品理念,同时开放九大核心能力。 根据官方介绍,「 情境智能驱动服务找人」 产品理念,属于去年发布的「 场景引擎」 的升级,能基于 AliOS 汽车专属操作系统,通过个人超级账号打通互联网世界、实现数字感知、智能交互、生态融合到个性服务。 九大核心能力 当然,这个不是重点,接下来说说开放九大核心能力的事。 郝飞宣布全面开放的九大核心能力,其中包括 AliOS2.0、情境交互框架、多模态交互、机器视觉、语音多引擎框架、AR-Driving 2.0、360 全景增强辅助驾驶、自运营自定义工作台和斑马「 车+互联开放平台」。 简单解释一下其中的部分能力。 AliOS 2.0:带来了系统的全新换代升级,不仅仅在感知、交互、应用、平台、安全等领域都实现了重大的升级,还包括多屏互动、所见即所说、小程序,以及更加开放的从 SDK 到 NDK 的能力。从今年开始,AliOS 也会面向更多硬件实现全面覆盖,满足更多用户的开发需求。 斑马「 车+互联开放平台」:是斑马携手天猫精灵、阿里云 loT 和 360,共同打造车+城市、车+社区、车+家的 loT 开放平台。 语音多引擎框架:不久前,在 GeekCar 体验斑马 Mars 3.0 版本的时候,我们就发现斑马实现了兼容不同语音方案的能力,目前采用了「 车端 Nuance+云端阿里云 ET「 的方案,并且未来还支持接入更多语音方案,能支持用户实时动态选择最优的能力,也能接入更多更强的生态服务。 360 全景增强辅助驾驶:能够通过识别车身摄像头拍摄的图片,进行实时分析,对可能发生的危险进行预警。而且实现这个功能,对算力和传感器也不会增加额外需求,只要硬件支持,就能在斑马系统中实现,并且是所有升级了 Mars 3.0 版本的车型都支持。 郝飞在现场也表示,所有能力即刻开放合作,将在 12 个月内全面落地。而在下半年,搭载 AR-Driving 2.0、360 全景增强辅助驾驶等斑马三大核心能力的荣威 RX5 MAX 就将上市。  背后意味着什么? 事实上,关于斑马网络要做平台型服务商这件事,他们已经多次向外界进行过阐述。而这次开放 9 大核心能力,则可以看作对于开放战略的具象解释。 毕竟要做开放平台,并不是喊个口号那么简单,也需要让行业切实的看到平台具备的能力。 所以我们很容易就能看出,斑马开放的这 9 项核心能力,基本上覆盖了座舱数字化、人机交互、第三方生态接入、驾驶安全辅助等多种应用场景。对于潜在的合作伙伴和客户来说,除了斑马目前已经实现的能力之外,这些具有潜力的领域,才是更看重的。 车联网再发展下去,打包的集成方案一定会失去竞争力。毕竟主机厂需要更个性化、定制化的产品来体现差异性,也需要在数据、运营权方面有主导权。 因此斑马要做平台型供应商,系统集成的基础底层能力是必备的。在此之上,如果要满足不同客户的个性化需求,就需要在平台的扩展性上有足够的储备。 特别是郝飞曾经也透露,斑马未来不会去做端到端的定制开发,这就意味着在未来的商业模式中,类似目前这样打包式开发的合作模式不会是主流。更多主机厂会在斑马提供的基础平台上,进行二次开发,来满足不同硬件、交互逻辑、功能定义的需求。 车联网发展到当前的阶段,竞争的已经不仅仅是纯技术的开发适配能力,更多还需要考虑到扩展性、背后接入资源和服务能力等等。特别是 BAT、华为这样的巨头纷纷入局,竞争的复杂度也在逐渐加强。在这种情况下,成熟的业务逻辑非常关键。