首页 >热门资讯> AI人工智能 > 亮风台引入高通OpenVX负责人,怎么布AR技术平台的局? >

亮风台引入高通OpenVX负责人,怎么布AR技术平台的局?

转载时间:2022.03.09(原文发布时间:2016.02.05)
2
转载作者:36氪企服点评小编
阅读次数:2次

近日Magic Leap获阿里领投7.9亿美元无疑又为AR行业添了把火,我们大可不必因其没有公开demo便质疑Google、阿里,AR这一系统工程的复杂程度却远比想象中的高。

乐秀视频第2部_20160204131332340.gif(为方便对AR一无所知之人阅读,此处先拿亮风台的AR卡片扫描举例。如你所见,识别到红色毛爷爷后,在显示屏上显示叠加在现实环境中的虚拟动画。)

所谓系统工程,包括通过深度摄像头采集环境信息后,对3D环境理解、重构(CV)中的图像识别、人脸识别、SLAM算法,3D模型实时渲染(CG)中的多模态传感器输入,硬件中的光学成像镜片,CPU、GPU运算能力,落地应用等等,构成一个综合的AR技术系统,而其中又以底层算法最为重要。

除了Magic Leap之外,36氪此前报道的国内AR技术厂商亮风台也有新动向,高通OpenVX计算机视觉加速标准专家和实现技术负责人谢炳龙加入了该公司,他曾领导了骁龙处理器计算机视觉异构加速工作,还是专门为移动设备而优化的计算机视觉库FastCV的架构师,拥有10余项CV相关的美国专利。 谢炳龙的加入来自亮风台首席科学家凌海滨博士的推荐,两人曾在西门子共事。

亮风台的团队可谓豪华且齐整,谢炳龙加入后主要负责底层软件架构,要了解其价值和意义,先要从亮风台的发力点和谢炳龙在高通的积累说起。

在去年11月底体验过亮风台智能眼镜HiAR Glasses后36氪曾提出,其识别、跟踪的功能已经可以实现,但眼镜CPU的运算能力不足、跟踪反应速度较慢,在移动速度较快时便会自动切换至纯播放模式。背后的原因是CV技术存在运算复杂、数据量大、对实时处理要求高,如果不能在瞬息内计算场景、处理图像,用户看到的内容会显得卡顿。

高通OpenVX是跨硬件平台的计算机视觉相关优化加速的标准协议,不同的硬件都能用它来优化运行速度,相当于OPEN GL对于电脑的地位。而FastCV则是高通平台上的CV加速运行库,把OpenCV的库针对高通的芯片进行优化,可以帮助配备高通芯片的移动终端(如手机)更快的运算CV数据,以及在基于摄像头的应用中增加新的用户体验,如增强现实、手势识别、人脸识别等。

亮风台SDK此前采用通用算法,在不同终端的体验并不相同。随着谢炳龙的加入,虽暂时不会调用OpenVX的API接口,但无论是OpenVX还是FastCV,其背后的芯片级底层架构都可以用作优化亮风台的软件算法,针对不同的硬件(眼镜、各种型号手机)进行优化,解决上述“跟踪反应速度慢”的问题。

亮风台生态.PNG除了芯片级优化之外,亮风台之“齐整”体现在SDK、内容发布平台(落地应用)、智能眼镜硬件都有涉及(见上图),下面将其分拆开来一一介绍:

可能是国内首个支持云识别的AR SDK

除了“所见即所得”的PC端Unity编辑器之外,亮风台最近又上线了云识别功能。所谓云识别,即无需将需要进行识别的图像存储在用户的本地内存中,而是直接从云端调用。举个例子,假如要做一个图书互动阅读的AR应用需要识别十万张图书页,全部放在用户手机中是不现实的,而云识别的优势体现有三点:

  1. 灵活性。用户下载APP中的资源是固定的,如果采用云识别方案,开发者只需在管理后台中进行变更就可以更新图片和资源,用户无需任何操作。
  2. 大数据处理能力。云识别可以进行大数据的扩展,同时满足增加的需求。
  3. 优化算法。企业以在云端部署新算法的同时,用户无需更新APP,就能感受到识别、跟踪能力的提高。

云识别的难点在于,后端的数据量非常庞大后,如何保证识别速度足够快?这需要通过算法缩小数据搜寻范围、减小计算量,同时让多个处理器并行处理。另外,还需要面临宕机、被攻击等突发因素的影响。

廖春元告诉36氪,其超百万数据的云识别响应速度可以做到秒级、96%以上的识别准确度。支持自然图像、通用目标识别、人脸识别、实物识别、小logo识别、中文图文混排精准识别等识别对象。

目前亮风台只开放了Unity SDK,云识别API只提供识别而不提供跟踪功能,需要搭配该SDK一起使用。此外,该公司也研发了iOS、Android原生系统的SDK引擎,面向有指定使用引擎和对3D效果没有要求的开发者,将于年后上线。

亮风台的云识别技术此前已有应用案例——与百度91手机助手合作的“应用拍拍”,用户用手机对准某一应用、游戏的图片,便可直接在91手机助手中搜到APP进行安装。这需要在百万级的APP图表中进行快速搜索。

Clipboard Image.png

廖春元表示,HiAR SDK还需要加入更多功能,做到多模态的输入,如加入手势、人脸、目标识别等,提供最自然的人机交互方式。关于多模态输入,我们放到下文智能眼镜部分再讲。

内容发布平台

所谓内容发布平台是基于其SDK而面向内容开发伙伴的服务,帮助后者做一些落地应用。由于此前拿到过美图的投资,后者的海量图片数据可以用来训练人脸识别技术,基于此亮风台已经在为企业提供用于游戏娱乐的技术,不过可能由于产品尚未落地,还没有公布合作伙伴的名字。

廖春元表示,亮风台也为垂直应用场景做了深入优化,如大角度、远距离识别跟踪场景优化,可在教育、游戏等行业成熟应用。

此外,亮风台也发布了一个免开发的AR浏览器“幻镜”,为没有开发能力的内容开发伙伴提供展示平台与技术支持,可以针对地推、线下活动营销提供解决方案。同时,该公司也在幻镜中加入了一些2C的趣味功能,比如像本文开头所附动图那样扫描人民币展现动画。

 HiAR Glasses智能眼镜继续修补、优化,有望年中量产

头图.jpg                            (亮风台在2015年11月展示的HiAR Glasses原型机)

亮风台CEO廖春元告诉36氪,其智能眼镜HiAR Glasses将会在今年5月发布新一代原型机,并在年中量产。在上个版本的原型机基础上,量产版将有一些新的改进:

  • 将会启用展讯芯片,可能会换成高通骁龙8系列芯片;
  • 针对芯片改进算法,优化软硬件配合;
  • 将采用薄至7毫米的镜片;

至于要沿用上一代的分体式设计(外置触控板和电池),还是做成综合一体式,以及采用哪个供应商的深度摄像头方案,廖春元表示尚未确定。

量产版的另一大改进是将支持手势识别、语音识别和图像识别,也就是“多模态输入”。

环境建模分为平面几何理解、环境语义理解(知道这是什么)以及多模态融合,只有把它们结合起来才算“非约束性”技术,比如不需要特定卡片便可呈现图像、动画并能够与现实环境融合。亮风台此前对外展示的产品在此方面略显不足,但廖春元表示该公司已经开始研发,希望在量产版的眼镜上体现出来。

为此,亮风台提出了“SMART” SDK底层技术框架,所谓SMART即Semantic Multi-modal AR in Teraction(语义驱动、多模态融合AR自然人机交互),以典型场景举例:

用户走到博物馆展品附近,对眼镜说"开始解说”,然后根据手指指向的目标虚拟叠加出展品信息。

这个例子里面融合了构想中大部分的因素(多模态、语义、几何等等):语音控制语言(比如说"英文解说")或者其他命令(比如说"开始解说"),手势控制交互(可以显示虚拟的鼠标点设置从手伸出的射线),显示叠加展示对世界的几何理解和虚实叠加(动画,图文等等)。具体实现效果如何还需产品发布后才能知道。

以上即为亮风台的整体布局,可以看出这是一家手握各方面底层核心算法,想做技术大平台的企业。如同那些同样以前沿技术为核心的科技公司,亮风台也背靠大学实验室、研究所流入科研成果。唐荣兴向36氪表示,该公司今年将拿出很大精力放在创造典型的应用上,而这也是该公司略显不足之处,这群科学家、工程师能否找到有明确需求的应用场景,还是值得期待的。

[免责声明]

资讯标题: 亮风台引入高通OpenVX负责人,怎么布AR技术平台的局?

资讯来源: 36氪官网

36氪企服点评

AI人工智能相关的软件

行业专家共同推荐的软件

限时免费的AI人工智能软件

新锐产品推荐

消息通知
咨询入驻
商务合作