Google正式推出Awareness“情境感知”API
分享
在刚过去的5月召开的I/O 2016开发者大会上,Google向我们介绍了一些与地理位置和情境相关的开发者功能,其中包括Android Nearby和Google Awareness(现已开放公众使用)。在新API的加持下,应用开发人员将能够利用起当前设备的情境信息(比如状态和地理位置)以便向用户提供动态、个性化的体验。
包括Google和苹果在内科技企业,早已将目光瞄向了基于情境的内容、消息、状态等数据。苹果的“iBeacon”、高通的Gimbal,都被当做前沿技术在宣传。
Google Awareness API有着相同的目标,但不需要"beacon"或蓝牙等东西,而是传感器和Android智能机/平板电脑早已能够获知的数据。
具体说来就是,该API定义了七个元数据情境来源,包括时间、地理(经纬度)、位置、活动(步行/跑步等)、beacons信标、耳机(已插入或拔出)、以及天气。
Snapshot API,顾名思义,它可以联系上下文并截取当前环境的一组快照。Google拿出了SuperPlayer Music应用作为例子,它能够为用户提供外出锻炼或收听音乐的推荐。
至于Trulia房地产网站,则利用了Google Awareness API的地理围栏(Fences)功能。开发者可以借助该API对不同的情景作出反馈,而不是不停地拍摄快照。
需要指出的是,Fence API和其它情景感知平台/服务,均为电池续航而作出了设计上的优化。当然,工具的好坏,还是取决于什么人在使用它。
比如后者就可能会被用来推送恼人的、侵入性的情景感知广告,希望这种情况越少越好。
0人已赞