Appleは、発表されたAirPods Pro 3を超えて新しいライブ翻訳機能を拡張しています。機能は、Airpods Pro 2とAirpods 4がアクティブなノイズキャンセルで利用でき、デバイスをiOS 26に更新するユーザーがより広くアクセスしやすくなります。
この機能は、少なくともiPhone 15 Pro以降が必要なAppleのオンデバイス生成AIシステムであるApple Intelligenceを搭載しています。これは、複数のAirPodsモデルがライブ翻訳にアクセスできるが、アップグレードされたニューラル処理能力をサポートするAppleの最新のiPhoneにはまだエクスペリエンスが結びついていることを意味します。多くの人にとって、これにより、ヘッドフォンがインターフェイスとして機能するが、iPhoneが処理バックボーンを提供するハードウェアとソフトウェアの間に興味深いオーバーラップが作成されます。
関連している:AirPods Pro 3とAirPods 4は、Appleの9月のイベントでANCの主要なアップグレードで発売されます
有効になると、両方のAirPodステムを同時に押すことでライブ翻訳をアクティブにすることができます。マイクは外国のスピーチを聴き、リスナーの耳に直接翻訳を再生します。 AirPodsを使用している人のみが1人の場合、iPhoneディスプレイのライブトランスクリプトとして翻訳が表示され、中断なく会話を続けることができます。両方の参加者がサポートされているエアポッドを着用している場合、プロセスはさらにスムーズです。一人一人が他の人が言っていることの翻訳されたバージョンを聞きますが、アクティブなノイズキャンセルは元の音声のボリュームを一時的に低下させるため、翻訳は明確です。
Appleは、グローバルな使いやすさに焦点を当てて、ライブ翻訳を展開しています。発売時には、サポートされている言語には、英語、フランス語、ドイツ語、ポルトガル語、スペイン語が含まれます。年末までに、Appleはこのリストを拡大して、イタリア語、日本、韓国語、簡素化された中国語をカバーする予定です。この段階的なロールアウトにより、この機能は、幅広い地域で旅行と日常のコミュニケーションのニーズの両方に役立つことが保証されます。
互換性は、アップグレードを検討しているユーザーにとって重要な詳細です。 AirPods Pro 3は機能が組み込まれた機能で出荷されますが、既存のAirPods Pro 2とAirPods 4 ANCの所有者はファームウェアアップデートを通じてアクセスできます。 iOS 26のサポートされているiPhoneの組み合わせと最新のAirPodsモデルは、Google Pixel Budsなどのライバルがすでに提供する翻訳ソリューションとより直接競合するAppleのエコシステムを位置付けています。
AirPodsエクスペリエンスへの翻訳を埋め込むことにより、Appleは言語間の会話のためのシームレスで実用的なツールを作成しました。ハードウェア要件とAI搭載の処理のバランスにより、この機能は、Appleがコア製品に直接インテリジェンスを構築するため、Appleがエコシステムを採用している場所のプレビューのように感じられます。
