Intel的"未来":给40亿互联网用户指路
Intel 12日于美国旧金山举行IDFUS技术峰会前瞻日,开幕礼为来自全球各地主要I.T媒体,分享Intel研究院的研发成果及愿景,此次主题为未来用户对技术应用的体验研究,指出效能、功耗并不是PC应用体验的唯一考虑,贴心、完整的解决方案、以人为本科技才是真正的进步。前瞻日同时展出了多项Intel研究院的创新研发成果,其中最受注目的必然是称为“OASIS”的可感知物体处境交换系统。
前瞻日由Intel院士暨互动与体验研究院总监Genevieve Bell团队讲解正在研究引人入胜之进步,驱使下一轮技术的进步,基于现实生活的观察及激发创新研发,使科技进一步改善人们的生活及工作,以运算体验未来设计师需投入“爱”,从真正关心使用者的感觉才能羸得市场。
接着由Intel院士Horst Haussecker介绍Intel近期以体验为本的创新研发,其中包括称为“OASIS”,即Object-Aware Situated Interactive System,可感知物体的处境交互系统,透过3D摄像镜头和微型投影机相结合,采用实时计算机视觉算法,快速识别并跟踪日常生活中的物体和手势。
现场示范以日常家居物体表面上的投影显示,可安装于任何家居、房间中的所有水平和垂直的物体表面,不同物体和手势可被析别,并适用于各种使用模式,包括游戏应用、教育市场等,该示范展现了现时需要采用3D摄像头、PC和投影机,但未来将会被进一步整合,最终实物可以被装入如同手机大小般的外壳中。
此外,Intel研究院致力于改善交通技术改良上,继四月北京IDF前瞻日提出的物联网交通系统,美国IDF前瞻日则展示感知环境汽车,有鉴于过去10年来车载设备和服务的数量迅速增长,例如车用多媒体系统、GPS导航系统等,司机要花更多时间查看菜单、按按钮,由于需要占用双手和眼睛,均有可能引发安全问题。
Intel车载环境感知系统对于保障司机和乘客的安全尤为重要,基于英特尔嵌入式设备针对面部识别的算法,它们可访问车载基础设施,并通过嵌入式摄像镜头和传感器来辨识车内行为,以便为司机可透过面部及简单的手势,代替传统的查看手动应用。
以上的应用均以Intel Atom处理器便可以实现,全因采用的实时面部识别等技术的计算机视觉和认知算法,运算是透过低功耗4GLTE联网运行云端运算,由位于数据中心的高效能服务器代劳,从而令内嵌的处埋器可提高性能并降低了功耗。
以上的云端运算正好说明未来PC的应用将会出现大改变,前瞻日展示了如何以云端运算进行光线追踪,研究人员把一台运行Wolfenstein 3D Demo的Notebook,透过网络传送至四台内建Larrabee架构的Knight''sFerry服务器,利用网络把需要即时光线跟踪进行渲染运算结果回传至Notebook,达成每秒高达60fps的光线追踪运算效果,日后客户端的Notebook就算没有配上强大的GPU,也能享受高质量的游戏效果。
针对MID应用,Intel研究院亦展示了Mobile Augmented Reality浏览器,只需要一台采用Atom的MID及视觉传感器,用户透过Webcam把影像上载至云端网络信息库,服务器可把影像进行视觉搜索,并查出地点所在并提供进一步的所在地信息,包括其他用户的评价、相关的图片、附近其他有名的地标等等,亦可拍摄餐牌及街道标牌,进行实时翻译及提供有用信息,云端应用不再是遥远的概念技术。
Intel IDF US前瞻日内容,加上闭幕典演说主题所提及的方向,反映未来PC运算将会有大幅改变,在网络技术持续进化下,云端运算将可进一步填补低效能的Atom处理器的不足,此举将令Atom和服务器的需求增加,Atom处理器可望持续成长,甚至是Intel公司未来的最大盈利来源。