iPhone 16で視覚インテリジェンスの使用方法

iOS 18.2以降では、視覚インテリジェンスは最終的にAppleにGoogleレンズのバージョンを提供します。 iPhone 16シリーズの起動イベントで紹介されたVisual Intelligenceを使用すると、カメラコントロールを使用して周囲のオブジェクトや場所に関する情報を学び、収集できます。読み続けて、視覚インテリジェンスとは何か、iPhoneでそれをどのように使用するかを発見してください。

ビジュアルインテリジェンスとは何ですか?

Visual Intelligenceは、iPhone 16シリーズで導入されたApple Intelligence駆動の機能です。強力なA18バイオニックチップを使用して、強化されたニューラルエンジンを使用して、デバイスで視覚データを直接処理します。

ビジュアルインテリジェンスを使用すると、iPhoneのカメラをポイントするだけで、さまざまなオブジェクトや場所に関する情報を認識して見つけることができます。これにより、発言したいシナリオ、植物や動物の認識、テキストの抽出、言語の翻訳、Googleの画像の検索、または高度なクエリを作成するシナリオで役立ちます。

Visual IntelligenceはApple Intelligence Suiteの一部であり、すべてのiPhoneがサポートしているわけではありません。他のApple Intelligenceの機能はiPhone 15 ProまたはiOS 18.2で実行されている後のモデルで利用できますが、AppleはiPhone 16シリーズの視覚インテリジェンスを少なくとも今のところ予約しています。これは主に、現在iPhone 16、16 Pro、16 Plus、および16 Pro Maxでのみ利用可能なカメラコントロールボタンが視覚インテリジェンスを呼び出すために必要であるためです。

iPhoneで視覚インテリジェンスの使用方法

場所に関する情報を取得することから、ChatGptに尋ねることまで、Googleで画像検索を行うためのより多くの情報を取得することまで、iPhone 16で視覚インテリジェンスとカメラコントロールでできることはたくさんあります。見てみましょう。

場所の詳細情報を入手してください

ビジュアルインテリジェンスは、営業時間、利用可能なサービス、周囲のビジネスに関する連絡先情報など、より多くの情報を入手するのに役立ちます。ビジネスがサービスベースである場合、視覚インテリジェンスは、レビューや評価を表示したり、予約したり、配信の注文を行ったりするなどのアクションを提案します。これがあなたがする必要があることです:

これらのアクションに加えて、ビジネスに電話したり、そのウェブサイトを表示するなどのオプションもあります。

テキストと対話します

Visual Intelligenceの到着は、ライブテキスト機能を次のレベルに引き上げました。視覚インテリジェンスとカメラ制御を組み合わせて、複数の方法でテキストと対話するのに役立ちます。たとえば、テキストをデバイス言語と違う場合はテキストを翻訳したり、iPhoneに読み上げたりすることができます。

翻訳に加えて、視覚インテリジェンスは、電話番号、電子メールアドレス、ウェブサイトなどのテキストの連絡先情報を識別し、テキストタイプに基づいてアクションを提案することもできます。視覚インテリジェンスを使用してテキストと対話するものは次のとおりです。

詳細については、chatgptをリクエストしてください

iPhoneでのSiriとChatGptの統合を使用すると、Visual Intelligenceを使用してフレーム内の主題に関する詳細情報を取得するようにChatGptに依頼することができます。これに従う必要がある手順は次のとおりです。

関連している:AppleのGoogleレンズのような視覚インテリジェンスがiPhone 15 Proに展開されます

主題に関する情報を取得する以外に、Visual Intelligenceを使用してオブジェクトを識別し、インターネット上で同様のアイテムをGoogle検索することもできます。方法は次のとおりです。

スキャンされたポスターやチラシから直接カレンダーアプリにイベントを追加する

iOS 18.3を開始すると、iPhoneカメラをフライヤーまたはポスターに配置するだけで、視覚インテリジェンスを使用してカレンダーイベントを作成できます。

そうするために:

植物や動物を簡単に識別します

iOS 18.3を使用すると、視覚インテリジェンスを使用して、ジフィーで動物や植物を識別できます。 Ask ChatGPTをタップしたり、Googleボタンを検索する必要はありません。

アクションボタンを介して視覚インテリジェンスを使用する方法

以前は、現在iPhone 16シリーズ(iPhone 16Eを除く)でのみ利用可能なカメラコントロールボタンを介して視覚インテリジェンスのみにアクセスできました。ただし、iOS 18.4(現在はベータ版)の到着は、カメラコントロールボタンなしでiPhoneに視覚インテリジェンスのサポートを拡張しましたが、Apple Intelligence(iPhone 15 Pro、15 Pro Max、およびiPhone 16e)をサポートしました。

iOS 18.4を使用すると、Appleを使用すると、iPhone 15 ProとiPhone 16Eの視覚インテリジェンスのロックを解除できます。これは、iPhoneのアクションボタンをカスタマイズして使用して、視覚インテリジェンスにアクセスして使用できることを意味します。方法は次のとおりです。

アクションボタンをカスタマイズして、視覚インテリジェンスのロックを解除します

ビジュアルインテリジェンスにアクセスします

視覚インテリジェンス機能をアクションボタンに割り当てたので、アクションボタンを長時間押すだけで、ビジュアルインテリジェンスエクスペリエンスが表示されます。完了したら、通常のように視覚インテリジェンスを使用できます。

サインオフ…

iPhone 16の視覚インテリジェンスは、近くのオブジェクトや場所の詳細を調べるのに最適な方法です。私はこの機能をかなり長い間使用してきましたが、それが生産性と利便性のためのゲームチェンジャーであると間違いなく信じています。

iPhone 16シリーズの視覚知能についてどう思いますか?コメントであなたの考えを共有してください。