Apple Unveils Visual Intelligence AI Feature with iPhone 16

The new Visual Intelligence feature on the iPhone 16 transforms how users interact with their camera, offering real-time contextual insights.

在2024年9月初的iPhone 16发布会上,Apple推出了一项创新的功能——Visual Intelligence,旨在彻底改变用户与相机的互动方式。该功能仅限于iPhone 16系列,它将本地处理能力与先进的AI算法相结合,使得相机变成一个完全集成的视觉搜索工具。

什么是Visual Intelligence?

Visual Intelligence是一项基于AI驱动的功能,通过计算机视觉模型分析图像,实时提供上下文信息和可操作的洞察。例如,当用户将iPhone 16相机对准一家餐厅时,它可以立即显示餐厅的营业时间、顾客评价,甚至允许用户直接在相机界面上进行预定。这一功能与Google Lens类似,但它承诺在Apple设备上提供更加无缝和用户友好的体验。

该功能通过全新的Camera Control按钮轻松访问,用户只需长按该按钮即可激活Visual Intelligence。这种简便的激活方式确保了该功能易于使用,并且与iPhone的整体设计高度集成。

Visual Intelligence是如何工作的?

Visual Intelligence背后的技术结合了设备端处理与云端支持。iPhone 16中的A18芯片负责本地处理大部分图像分析,确保响应速度快并保持隐私保护。对于更复杂的任务,如详细的物体识别,Apple会利用其Private Cloud Compute系统。这种架构允许进行高级处理的同时,保障用户数据的安全,尽量减少对云端信息的依赖,并在必要时对敏感数据进行加密。

此外,Visual Intelligence还通过允许与第三方服务进行可选集成,进一步扩展其功能。例如,如果用户希望在线查找某个产品,相机可以进行Google搜索。另外,针对更复杂的查询,用户可以通过显式授权访问ChatGPT。

可用性与地区限制

Visual Intelligence已随iOS 18.2更新推出,但仅限于iPhone 16系列,包括iPhone 16、iPhone 16 Plus、iPhone 16 Pro和iPhone 16 Pro Max。美国用户可以以英语体验该功能,而国际用户初期也只能以英语使用,未来更新中将支持更多语言。

需要注意的是,由于数据隐私和监管限制等原因,该功能在欧盟和中国等地区的发布将推迟。这些限制是Apple在推动创新的同时,力求遵守当地法律法规的举措。

下一页
上一页