Apple的视觉智能在iPhone 16上的应用:探索世界的新方式
Apple在iPhone 16上推出的新视觉智能工具,让用户只需对准物体即可直接获取信息。
Apple最新的iPhone 16系列引入了一项名为“视觉智能”(Visual Intelligence)的全新功能,通过新增的“相机控制”按钮,使用户能够更轻松地与周围环境互动,简化信息获取的流程。现在,用户只需将iPhone对准一个店面或物体,即可获取相关信息,如营业时间或产品详情,而无需打开多个应用程序。
视觉智能作为iOS 18.2的一个测试功能向开发者开放,它提供了从相机界面直接集成ChatGPT或Google搜索的选项。用户可以拍摄一张照片,并立即获取多种主题的详细信息,例如餐馆菜单或历史地标,从而无需解锁手机或手动输入查询就能得到即时信息。
例如,一位在纽约的记者测试了该功能,将iPhone 16的相机对准Bowery Market的一家日本茶店。通过轻触,视觉智能展示了店铺的营业时间、饮品图片,并提供了拨打电话和下单的选项。这项功能的应用不仅限于商店,当相机对准复古游戏机时,视觉智能能够无缝连接ChatGPT,识别物品并提供其发行日期等信息。
视觉智能突显了Apple简化移动搜索的承诺。尽管Google Lens也提供类似体验,但Apple在iPhone 16上为该功能设置了一个专用按钮,表明其更专注于基于相机的简洁信息获取方法。这展示了Apple通过相机实现直观信息获取的愿景,减少用户使用不同应用程序的需求,推动手机上的探索体验。
初期测试者的反馈显示,视觉智能对于那些探索陌生地点的用户来说尤其有价值,比如需要快速了解当地景点的游客。尽管有些人可能更偏好传统的浏览方式,视觉智能的便捷潜力表明它可能会逐渐改变人们使用手机的方式。
尽管该功能目前处于早期开发阶段,主要面向开发者,Apple计划在正式发布之前进一步完善视觉智能,可能将彻底改变用户通过iPhone相机与周围环境互动的方式。