AppleはGoogleレンズのような視覚インテリジェンスをiPhone16カメラに追加します

月曜日の iPhone 16 発表会で、Apple は一連の新しい iPhone、AirPods、AirPods Pro、AirPods Max、そして Apple Watch Series 10 を発表しました。Apple はまた、この機会を利用していくつかの Apple Intelligence 機能を拡張し、これらの人工知能(AI)ツールが iPhone に登場することを発表しました。その中には、新しいビジュアルインテリジェンス機能が含まれており、実質的に iPhone カメラに Google Lens のような能力を持たせています。

Apple のビジュアルインテリジェンス機能を使うと、例えばチラシやレストランなど周囲の物体を撮影し、iPhone の AI 機能を使ってさらに多くの情報を検索することができます。

Apple によれば、キャプチャされたデータは Apple Intelligence と同社の Private Cloud Compute と一緒に使用される際にプライバシーが保たれますが、ユーザーは新しいカメラ体験とのサードパーティ統合を選択することができます。

サードパーティ統合には、iPhone カメラアプリから直接 Google Lens を開くかのように、Google 検索を使ってカメラでキャプチャした内容を検索する機能が含まれます。また、ユーザーはビジュアルインテリジェンス機能と ChatGPT の統合を許可することもでき、これにより AI チャットボットがカメラでキャプチャされた画像データを処理することが可能になります。

これらのサードパーティ統合は、ユーザーが選択的に承認する必要があります。

iPhone 16 と iPhone 16 Plus の開始価格はそれぞれ 799 ドルと 899 ドルで、すでに予約可能ですが、Apple Intelligence 機能はまだすぐには利用できません。Apple は、いくつかの AI 機能が来月にベータ版としてリリースされ、今後数か月でさらに多くの機能が追加されると述べています。

次へ
前へ