Appleの視覚インテリジェンス:誇大宣伝の現実

iPhone 16のAppleの視覚インテリジェンス機能は外部サービスに依存しており、革新性の限界にユーザーが失望

Appleの最新モデルであるiPhone 16では、「視覚インテリジェンス」と呼ばれる機能が搭載され、ユーザーがiPhoneのカメラを通して周囲の世界を新たな視点で解釈できるとされています。iPhoneを対象物に向けるだけで、その詳細な情報を取得できることが期待されていました。しかし、実際のところ、この「視覚インテリジェンス」は、GoogleやChatGPTのAPI呼び出しに依存しており、Apple独自の革新的技術ではないという現実が浮かび上がってきています。

Bloombergの著名なAppleインサイダーであるMark Gurmanによると、「視覚インテリジェンス」の実装にはAppleがわずか数日しかかけていない可能性が高いとされています。開発期間の予測は難しいものの、この機能のシンプルさから、Appleが時間やリソースにほとんど投資していないことが示唆されています。独自技術による画期的なソリューションを期待していた消費者には、この外部APIへの依存は物足りないと感じられているようです。

iPhone 16の主要機能として宣伝されている「視覚インテリジェンス」ですが、GoogleやChatGPTの既存リソースに依存しているため、他のプラットフォームでもすでに利用可能な機能と大差ない点が指摘されています。また、Appleが第三者技術を利用していることに対する透明性の欠如も、ユーザーの一部に失望をもたらしています。

さらに、近年ではGoogleの画像検索機能が低下しているとの報告もあり、この機能の効果に疑問を持つ声もあります。iOS 18.2の展開に伴い、iPhoneユーザーはChatGPTの直接統合を体験できる予定であり、これによりApple Storeの従業員による製品デモが簡略化され、ユーザー体験が向上する可能性がありますが、Appleが暗示していたほどの革新的な進展には至らないかもしれません。

今後は、Siriや画面上でのインテリジェンス機能に関する待望のアップデートが、ユーザーが求める技術的な飛躍をもたらすことが期待されています。

次へ
前へ