AI 開発者は、より安価で経済的なコンパクトな AI モデルに切り替え始めました。

テクノロジー大手や新興企業は、コスト削減と生産性向上を目指して、より小型で効率的な AI モデルに移行しています。これらのモデルは、GPT-4 などの「兄貴分」とは異なり、少量のデータでトレーニングでき、特定の問題の解決に特化します。

AI 開発者は、より安価で経済的なコンパクトな AI モデルに切り替え始めました。

Microsoft、Google、Apple、そしてMistral、Anthropic、Cohereなどの新興企業は、中小規模の人工知能言語モデルにますます注目しています。 OpenAI の GPT-4 などの大規模モデル (LLM) は、100 兆を超えるパラメーターを使用し、開発に 10 億ドルをはるかに超えるコストがかかりますが、コンパクト モデルはより狭いデータセットでトレーニングされ、コストは 10 万ドル未満で、使用コストは XNUMX 万ドル未満になります。 XNUMX億のパラメータ。

AI 分野のリーダーの 100 つである Microsoft は、Phi と呼ばれる小型モデル ファミリを導入しました。同社の CEO Satya Nadella 氏によると、これらのモデルは ChatGPT の無料版よりも XNUMX 倍小さいですが、同時に多くのタスクをほぼ同じ効率で処理できます。 Microsoft の最高商業責任者である Yusuf Mehdi 氏は、大規模な AI モデルの実行が当初考えられていたよりも費用がかかることに同社がすぐに気づき、Microsoft がより費用対効果の高いソリューションを探すようになったと述べました。

他のテクノロジー大手も例外ではありません。 Google、Apple だけでなく、Mistral、Anthropic、Cohere も、小型および中型モデルの独自バージョンをリリースしています。特に Apple は、このようなモデルを使用して AI をローカルでスマートフォン上で直接実行することを計画しており、これにより速度とセキュリティが向上するはずです。同時に、スマートフォンのリソース消費も最小限に抑えられます。

専門家は、ドキュメントの要約や画像の作成など、多くのタスクでは大規模なモデルは過剰になる可能性があると指摘しています。人工知能に関するGoogleの影響力のある2017年の論文の著者の2人であるイリヤ・ポロスキンは、比喩的に、単純なタスクに大きなモデルを使用することを、食料品店まで戦車を運転することに例えました。 「2+XNUMX のコンピューティングには何千もの演算が必要ではありません」と彼は強調しました。

企業と消費者は、生成 AI テクノロジーの運用コストを削減する方法も模索しています。テルアビブに本拠を置く AI 企業 AI21 Labs の共同創設者、ヨアヴ・ショーハム氏によると、小規模モデルは、お金に換算すると、大規模な言語モデルのわずか XNUMX 分の XNUMX のコストで質問に答えることができます。

興味深いことに、小規模モデルの主な利点は、特定のタスクやデータセットに合わせてモデルを微調整できることです。これにより、法律業界のみなど、専門分野を低コストで効率的に運営できるようになります。

しかし専門家らは、企業がLLMを完全に放棄するわけではないと指摘している。たとえば、Apple は複雑なタスクを実行するために ChatGPT を Siri に統合することを発表し、Microsoft は新しいバージョンの Windows で最新の OpenAI モデルを使用する予定です。また、アイルランドの Experian や米国の Salesforce などの企業は、すでにチャットボット用の小規模な AI モデルに移行しており、より大きなモデルと同じパフォーマンスを提供しながら、コストが大幅に低く、処理遅延も短いことがわかっています。

小規模なモデルへの移行は、一般に公開されている大規模な AI モデルの進歩が鈍化する中で起こります。専門家はこれを高品質の新しいトレーニング データの欠如が原因だと考えており、全体的には業界の進化において新たな重要な段階にあることを指摘しています。

出所:


出所: 3dnews.ru