在GoogleI/O主题演讲中,Google宣布将使旗下谷歌搜索进一步整合“看见”成效,让使用者能进一步借由3D物件、AR影像更容易理解搜索项目。
依照Google作法,将会在搜索结果加入可以呈现更多互动效果的3D物件,或是能让使用者深入查看的AR影像内容,借此提供相比文字、静态图像更丰富的搜索结果呈现模式。例如使用者可以透过3D物件了解骨骼与肌肉连动情况,同时也能配合AR影像确认家具在居家环境摆设情况,甚至可以近距离比较大白鲨实际身长。
但这些应用内容,原则上还是需要开发者、内容提供者建立足够的3D物件、AR影像,如此才能让使用者在搜索过程更容易使用。
至于与谷歌搜索有不少关联的GoogleLens,在此次更新更进一步整合包含谷歌搜索、GoogleMaps、GooglePhotos等资源,例如透过GoogleLens对准餐厅菜单,系统就会依照GoogleMaps判断使用者当下所处地点,并且透过谷歌搜索查找其他人在餐厅最常下订餐点,即可自动在相机拍摄菜单画面显示热门餐点,甚至也能进一步翻译菜单内容。
甚至透过GoogleLens拍摄餐厅消费账单时,系统也会自动依照金额计算应包含小费,或是众人平摊费用,另外若是用于拍摄食谱内容的话,甚至也会呈现餐点制作流程,借此让GoogleLens可以更容易融入一般日常生活使用。
而针对网络服务费用成本相对较高地区,例如印度,Google也将推出适合在地使用的GoogleLens服务,并且将以GoogleGo为称,基本上的应用功能与GoogleLens相同,但预期针对轻量规格手机产品进行最佳化,借此协助部分地区文盲或阅读障碍者可以顺利“读取”文字,进而能顺利购买车票、确认商品说明,或是使用提款机等。
包含新版谷歌搜索,以及更新版GoogleLens与GoogleGo服务,预计会在5月下旬陆续在各地区推出。