Apple 的視覺智能:炒作背後的真相

iPhone 16 上的 Apple 視覺智能功能依賴外部服務,創新有限讓用戶感到失望

Apple 最新的 iPhone 16 推出了一項名為「視覺智能」的新功能,聲稱讓用戶能夠通過設備的相機以全新方式解讀世界。只需將 iPhone 對準某個物體,用戶便期望能夠獲得該物體的詳細信息。然而,視覺智能的實際表現卻並不如預期那樣革命性,反而大量依賴 Google 和 ChatGPT API 來提供信息,而非 Apple 自家技術。

據 Bloomberg 的知名 Apple 內幕記者 Mark Gurman 報導,視覺智能的實現可能僅花了 Apple 幾天時間。儘管開發時間表往往難以預測,但該功能的簡單性似乎表明 Apple 投入的時間和資源非常有限。這種依賴外部 API 而非 Apple 自有的突破性技術,讓那些期待更強大、專屬體驗的消費者感到不滿。

視覺智能被作為 iPhone 16 的旗艦功能來推廣,但由於它依賴 Google 和 ChatGPT 的現有資源,其實際提供的功能並未超越其他平台早已具備的能力。這一事實正值外界對 Apple 軟件表現的廣泛關注之時,近年來的一系列更新中,Apple 的軟件常常伴隨著各種漏洞和性能問題。雖然利用現有服務並無不妥,但 Apple 對第三方技術依賴的透明度不足,讓部分用戶感到失望。

此外,有報導稱,Google 的圖像搜索功能近年來表現下滑,這也讓部分人質疑視覺智能的實際效用。隨著 iOS 18.2 的推出,iPhone 用戶將能夠期待直接整合 ChatGPT,這為 Apple 的 AI 功能增添了另一層次。這一整合可能簡化 Apple 店員的產品演示流程,並提升用戶體驗,儘管與 Apple 暗示的創新雄心相比可能略顯不足。

展望未來,備受期待的 Siri 更新和螢幕智能功能或將為消費者帶來期待中的技術飛躍。

下一頁
上一頁