GoogleのGemini 2.0が利用可能になりました

Googleは、Gemini 2.0 Flashを広く利用できるようにし、複数のプラットフォームで開発者とユーザーへのアクセスを拡大しました。最初に実験モデルとして発売されたGemini 2.0 Flashは、より良いパフォーマンスと効率を提供するために改良されました。開発者は、Google AI StudioおよびVertex AIのGemini APIを介して更新されたモデルを使用できるようになりましたが、一般ユーザーはデスクトップおよびモバイルのGeminiアプリを介してアクセスできます。

このリリースに加えて、GoogleはGemini 2.0 Pro Experimentalを導入しています。 200万回のコンテキストウィンドウを使用すると、このモデルは理解と推論を強化し、大きなデータセットの深い分析を可能にします。また、Google検索やコードの実行などのツールコールをサポートしているため、開発者にとって強力なオプションになります。 Gemini 2.0 Proは、Google AI Studio、Vertex AI、および上級ユーザー向けのGeminiアプリの実験モデルとして入手できます。

もう1つの追加は、Gemini 2.0 Flash-LiteであるGoogleのこれまでで最も費用効率の高いAIモデルです。前身である1.5フラッシュの速度と手頃な価格を維持するように設計されたこの新しいモデルは、同じ価格帯でパフォーマンスを向上させます。 100万枚のコンテキストウィンドウとマルチモーダル機能により、最小限の費用で数千の画像のキャプションを生成するなど、費用対効果の高いAIアプリケーションが可能になります。 Flash-Liteは現在、Google AI StudioおよびVertex AIで公開されています。

お勧めの読み取り:Googleは、chatgpt-4と競争するための新しいLLMであるGemini 1.0を発表します

Googleはまた、将来の更新により、画像の生成やテキストからスピーチへの機能など、より多くのマルチモーダル機能が導入されることを確認しました。価格を含む詳細は、Google for Developersブログで入手できます。 Gemini 2.0が進化するにつれて、GoogleがAIスペースで競争力を維持することを推進し、ビジネスと個々のユーザーの両方にスケーラブルなソリューションを提供します。