AppleのVisual IntelligenceがiPhone 16シリーズに登場、iOS 18.2ベータで現実世界検索が強化

AppleがiPhone 16シリーズ向けにVisual Intelligenceを導入、iOS 18.2で現実世界の検索機能が向上

Appleは最近、iPhone 16シリーズ向けにVisual Intelligenceを導入し、iOS 18.2開発者向けベータ版で利用可能になりました。この機能は、ユーザーがiPhoneのカメラを通じて周囲の世界とどのように関わるかを革新することを目指しています。現在、この機能はApple Developerメンバーに提供されており、カメラコントロールを長押しするだけで、周囲のリアルタイム情報を簡単に取得できるようになっています。Google LensやCircle to Searchに似ているものの、Visual IntelligenceはiPhone 16ユーザーにのみ提供される独自の機能として際立っています。

Visual Intelligenceでは、写真を撮影するとシステムがランドマークを認識し、営業時間を取得したり、店舗やレストランのレビューを提供したりできます。ただし、すべての機能が完全に動作しているわけではありません。Appleのデモ中に紹介された機能の一部、特に場所に基づく即時データは、特に米国外で不安定な動作を示しており、地域ごとの展開に差がある可能性があります。

Visual Intelligenceの注目すべき機能の一つはテキスト認識です。この機能により、ドキュメントやポスター、看板などに書かれたテキストを要約したり、音声で読み上げたり、他のアプリで使用するためにコピーしたりできます。また、外国語のテキストを翻訳する機能や、電話番号やメールアドレスなどの実用的な情報を抽出し、メッセージ送信や連絡先への保存を迅速に行えるオプションも提供しています。

さらに、Visual Intelligenceでは、画像内のアイテムをGoogle検索することも可能です。テスト中には、マグカップなどの物体を正確に認識することが確認されました。ChatGPTとの統合により、この機能がさらに強化され、ユーザーはAIによるサポートを受けながら画像に関連する情報を調べることができます。しかし、初期のユーザーは、ChatGPTとの統合にいくつかの制限があることを報告しており、ログインや画像データとのやり取りを試みる際にエラーメッセージが表示されることがあるとのことです。これはベータ版テスト中に知られている問題です。

これらの初期の制限にもかかわらず、Visual Intelligenceは、競合するアプリよりもiOS内でより統合された体験を提供する可能性を示しています。この機能はiPhone 16シリーズユーザーにのみ提供されていますが、Appleが今後のベータリリースを通じてこの機能をさらに改良していくことが期待されています。

次へ
前へ