Googleは、Gemini AIのプロジェクトAstraを搭載した機能を展開します

Googleは、AIアシスタントのGeminiの新機能を展開し始め、ライブビデオとスクリーン共有を通じてリアルタイムのやり取りを可能にしました。 Project Astraを搭載したこれらの進歩により、ユーザーはデバイスにより直感的に関与できるようになり、AIアシストテクノロジーでの大きな前進を示しています。

新しいライブビデオ機能を使用すると、ユーザーはスマートフォンカメラを利用して、Geminiとのリアルタイムの視覚的相互作用に従事することができます。たとえば、ユーザーはGeminiに周囲のライブフィードを表示し、AIが観察していることに基づいて質問をしたり、支援を求めることができます。この機能は、コンテキストのサポートと情報を提供する上でジェミニの有用性を高めます。

画面共有機能により、ユーザーはデバイスの画面をGeminiと共有でき、AIが表示されたコンテンツに関する洞察を分析および提供できるようにします。この機能は、複雑なアプリケーションのナビゲート、問題のトラブルシューティング、画面上の情報に基づいた推奨事項などのタスクに特に役立ちます。

また読む:グーグルは、クロムアドレスバーで直接ジェミニのショートカットを展開します

これらの機能は、GoogleのProject Astra Initiativeの一部であり、リアルタイムで現実世界を理解して対話するAIの能力を高めることを目的としています。 Astraの機能を統合することにより、Geminiは視覚入力をより効果的に処理できるようになり、ユーザーがより没入型でインタラクティブなエクスペリエンスを提供できるようになりました。

Google One AIプレミアムプランの一部として、新しい機能は現在、Gemini上級加入者に展開されています。ユーザーは、デバイス上のこれらの機能の外観を報告しており、段階的な展開を示しています。

Googleがこれらの機能を導入しているのは、AIアシスタントの競争力のある景観におけるジェミニのポジションです。 AmazonやAppleのような他のハイテク大手は同様の機能を開発していますが、Geminiのリアルタイムビデオとスクリーン共有機能は、ユーザーがよりダイナミックで応答性の高いAI体験を提供します。

アーリーアダプターは、新機能に関する肯定的なフィードバックを共有しています。たとえば、Redditユーザー実証されています画面上のコンテンツを読んで解釈するジェミニの能力は、スクリーン共有の実用的なアプリケーションを紹介します。これらの機能がより広く利用できるようになると、ユーザーがデバイスとの対話方法を変えることが期待され、AIの支援がよりコンテキストを意識し、毎日のタスクに統合します。

ソース:バージ