Appleは、2027年までにリリースを目指して、高度な人工知能(AI)機能を有効にするための統合カメラを装備した将来のApple Watchモデルを開発していると伝えられています。ブルームバーグのマークガーマンによると、これらの機能強化は視覚知能などの機能を導入し、ユーザーの周囲に関する情報を解釈して提供できるようにします。
標準のApple Watchシリーズでは、カメラはディスプレイ内に埋め込まれていると予想され、Apple Watch Ultraには、デジタルクラウンとボタンに隣接するサイドマウントカメラが搭載されています。この戦略的配置は、環境とのシームレスな相互作用を促進するように設計されており、デバイスが外部コンテキストを「表示」および分析できるようにします。
iPhone 16でデビューしたVisual Intelligenceにより、ユーザーはイベントの詳細をカレンダーに直接追加したり、画像をキャプチャしてレストランに関する情報を取得したりするなどのタスクを実行できます。これらの機能は現在、外部プロバイダーのAIモデルによって駆動されています。ただし、Appleは、2027年までに独自のAIモデルに移行することを目指しており、これらのカメラ装備のウェアラブルの予想されるリリースと一致しています。
これらの高度な機能の開発は、以前はVision Proプロジェクトを担当していたMike Rockwellによって監督されています。 Rockwellのリーダーシップは、遅延した大規模な言語モデルのアップグレードによるSiriの機能の強化など、Appleのウェアラブルデバイス全体のAI機能の統合を促進することが期待されています。
Apple Watchに加えて、AppleはAirpodsなどの他の製品に同様のカメラとAIテクノロジーの組み込みを調査しています。これらの開発は、ユーザーが直接の環境に基づいてコンテキストで実用的な情報を提供できる、より相互に接続されたインテリジェントなエコシステムをデバイスのより相互に接続されたインテリジェントなエコシステムを作成するためのAppleのより広範な戦略の一部です。
関連している:Microsoftは、高度なAI機能を活用するように設計された「Copilot+」PCSを発表します
これらの進歩は、ユーザーエクスペリエンスを大幅に向上させることを約束しますが、プライバシーとデータセキュリティに関する考慮事項も提起しています。カメラをウェアラブルデバイスに統合すると、ユーザー情報を保護し、データ処理がユーザーのプライバシーに対するAppleのコミットメントと一致するようにするための堅牢な手段が必要です。
2027年のターゲットリリース日が近づくにつれて、Appleは特定の機能、プライバシーセーフガード、およびこれらの機能が既存のAppleサービスやデバイスと統合される方法など、これらのイノベーションの詳細を提供することが予想されます。
ソース:バージ
