Googleは、Gemini AIアシスタントに2つの主要な更新を導入しました。キャンバスそしてオーディオの概要、AIの機能を拡大して、リアルタイムのコーディングコラボレーションとAIに生成されたポッドキャストスタイルの要約を含めます。これらの新機能は、AIに生成されたコンテンツとの生産性、アクセシビリティ、およびユーザーの相互作用を向上させ、Gemini AIをOpenaiのChatGPTおよびAnthropic's Claudeの真剣な競争相手として位置づけることを目的としています。
新しく発表されたキャンバスは、リアルタイムのAI支援でドキュメントとコードを作成および洗練するための専用のスペースをユーザーに提供します。この機能により、ユーザーはGithub CopilotやOpenaiのコーデックスなどの既存のライブコーディング環境と同様に、Gemini AIとインタラクティブに作業できます。
GoogleのCanvasはGeminiと直接統合され、ユーザーがコーディングプロンプトを入力し、作業のライブプレビューを表示できるようにします。このリアルタイムのコラボレーションにより、プログラマーはコードを効率的にトラブルシューティング、最適化、および改良できるようになります。この機能は、提案、デバッグ、構造の改善のためにAIを活用することにより、ワークフローを加速しようとするソフトウェア開発者にとって特に役立つと予想されます。
Canvasの導入は、AIを実際のアプリケーションに統合するためのGoogleのより広範な戦略を示し、ChatGPTプラグインとMicrosoftの開発者ツール内のCopilotの拡張を備えたOpenai独自のプッシュを反映しています。 ChatGPTの現在のテキストベースのコーディング支援とは異なり、Googleのアプローチは視覚的でインタラクティブなスペースを提供し、AI駆動型のコーディングをよりアクセスしやすくします。
もっと読む:Google Docsは、ユーザーが書き込みの間違いを修正するのに役立つオーディオの概要を紹介します
Gemini AIに追加されたもう1つの重要な追加は、オーディオの概要です。これは、書かれたコンテンツを動的でAIに生成されたポッドキャストスタイルのディスカッションに変換する機能です。このツールは、聴覚学習を好むか、外出先で情報を消費したいユーザー向けに設計されています。 OpenaiのChatGPTがテキストベースの要約を生成する方法と同様に、Googleのオーディオの概要は、AIに生成された声で魅力的で会話スタイルの説明を作成することでさらに一歩進んでいます。
この機能は現在、英語で利用可能で、将来の追加の言語の計画があります。 Googleは、AIオーディオスペースのキープレーヤーとしての足場を獲得し、SpotifyのAIが生成されたポッドキャストの推奨事項やAppleのマシンラーニング駆動型のAudio Summaries in Appleポッドキャストなどのサービスと競合するのに役立ちます。
これらの機能はどちらも、AIを日常のタスクに統合するというGoogleのコミットメントを強化し、ユーザーに生産性とアクセシビリティの両方を向上させるツールを提供します。 Coding用のAIワークスペースとテキストが多いコンテンツに代わるオーディオの代替品を提供することにより、Gemini AIは単純なチャットボットを超えて、実用的な現実世界アプリケーションを使用して本格的なAIアシスタントに進化しています。
これらの更新はです今利用可能になりましたGeminiとGemini Advanced Subscriberに、今後数か月でより広範な可用性が予想されます。 GoogleがAIモデルを改良し続けるにつれて、これらの追加は、AI駆動型の生産性スペースをリードするための同社の継続的な取り組みを示しています。
ソース:バージ
