カリフォルニア大学バークレー校の研究者チームは、Deepseek AIの背後にあるコアテクノロジーを驚くほど低コストでわずか30ドルで再現しました。博士号が率いる候補者Jiayi Pan、チームは、わずか30億パラメーターを持つ小さな言語モデルを使用して、Deepseek R1-Zeroの強化学習機能を複製することができました。
控えめなサイズにもかかわらず、AIは自己検証と検索能力を実証し、反応を繰り返し洗練させることができました。問題解決スキルをテストするために、研究者はカウントダウンゲームを使用しました。カウントダウンゲームは、算術操作を使用してプレーヤーがターゲット番号に到達することを要求する数学的なパズルです。当初、AIはランダムな推測を行いましたが、強化学習を通じて、回答を修正して最適化する能力を向上させました。
お勧めの読み取り:研究者は、Super Mario Bros.を利用してAIのパフォーマンスをベンチマークしています
PANのチームは、5億パラメーターモデルが応答の改善に苦労し、15億パラメーターモデルが改訂技術の組み込みを開始した一方で、異なるモデルサイズを実験しました。 3〜70億のパラメーターにスケーリングすると、AIは問題を効率的に解決することで大幅な改善を示しました。
このレクリエーションの手頃な価格は、AI開発のコストに関する疑問を提起します。現在、OpenaiはAPIを介して100万ドルあたり15ドルを請求し、Deepseekは100万トークンあたり0.55ドルのレートがはるかに低いことを提供しています。しかし、AIの研究者であるネイサン・ランバートは、Deepseekの主張された手頃な価格について懐疑論を表明しており、その運用コストは年間5億ドルから10億ドル以上に達する可能性があると主張しています。
さらに、データプライバシーと国家安全保障に関する懸念により、Deepseekは米国の一部で禁止されています。いくつかの報告書は、DeepseekがOpenaiのChatGPTを使用して訓練された可能性があることを示唆しており、潜在的に低い費用を説明しています。疑問が残っていますが、バークレーの調査結果は、高性能AIモデルが近い将来にはるかにアクセスしやすくなる可能性があることを示唆しています。
