Apple的视觉智能:炒作背后的现实
iPhone 16上的Apple视觉智能功能依赖外部服务,创新有限令用户失望
Apple最新发布的iPhone 16引入了被称为“视觉智能”的新功能,承诺用户可以通过设备的摄像头以新的方式解读世界。用户只需将iPhone对准某个物体,即可获取所见物体的详细信息。然而,视觉智能的实际表现似乎并没有那么革命性,其背后主要依赖于Google和ChatGPT的API接口,而并非Apple自主开发的技术。
据彭博社著名Apple观察家Mark Gurman透露,视觉智能的实现或许仅用了Apple几天时间。尽管开发时间难以精确预测,但该功能的表面简单性显示出Apple对其投入的时间和资源并不多。这种对外部API的依赖,而非采用Apple独家创新技术的方案,让那些期望获得更强大、专有体验的消费者感到失望。
虽然视觉智能被宣传为iPhone 16的主打功能,但由于依赖Google和ChatGPT现有资源,它并未带来其他平台无法提供的体验。这一真相揭示后,也使Apple的软件研发工作再次受到广泛关注,尤其是在近年来多次软件更新中出现的漏洞和性能问题后。尽管利用现有服务本身并无不妥,但Apple在使用第三方技术方面缺乏透明度,已令部分用户感到不满。
此外,近年来Google的图片搜索功能有所退化,这也使部分用户对该功能的效果产生质疑。随着iOS 18.2的推出,iPhone用户可以直接体验到ChatGPT的集成,这不仅为Apple店员的产品展示提供便利,也增强了用户体验。然而,这一集成或许仍然未达到Apple所暗示的雄心勃勃的创新高度。
展望未来,备受期待的Siri更新和屏幕智能功能或许能带来用户渴望的技术飞跃。