AI大モデルがカスタム化チップを駆動する風が吹いてきた
2023-12-08
集微網によると、最近、アマゾン、マイクロソフト、Meta、Googleなどの科学技術大手は相次いで自己研究チップの投入に力を入れており、これによって英偉達への依存を低減したいと考えている。注目すべきは、人工知能、自動運転などの応用によって推進され、科学技術大手の多くは独自のニーズに対応するためにカスタムチップを選択していることだ。カスタマイズチップの重要性が浮き彫りになっている。

カスタムAIチップブームが起きている

AI大モデルブームに後押しされて、独大手の英偉達はますます多くの科学技術大手を自らの場でAIチップを製造するまで追い込んでいる。アマゾンクラウドテクノロジー(AWS)は11月28日、2023 re:Inventグローバル大会で人工知能システムを訓練するために設計された第2世代AIチップTrainium 2と、汎用Graviton 4プロセッサーを発表した。アマゾンのクラウドテクノロジーのAdam Selipsky最高経営責任者によると、Trainium 2の性能は初代Trainiumの4倍で、エネルギー効率は前身の2倍だった。各チップが650 teraflops(毎秒1兆回の浮動小数点演算を実行する)の計算能力を提供できることに相当する。10万個のTrainiumチップからなるクラスターは、数週間で3000億パラメータの大言語モデルを訓練することができる。

11月16日に開催されたイグナイト開発者大会では、マイクロソフトも2つの自己研究チップMaia 100とCobalt 100を発表した。Maia 100はAIコンピューティングタスクを加速し、人工知能システムが識別音声や画像などのタスクをより迅速に処理実行するのを支援するために使用される、Cobalt 100は128個の計算コアを集積している。両チップはいずれも台積電5 nmで生産され、来年初めにはソフトデータセンターで使用できる見通しだ。

アマゾン、マイクロソフトのほか、Meta、Google、テスラなどの雄大な顧客は今年、AIチップの開発により多くの資源を投入しており、OpenAIもチッププロジェクトの準備を始めている。ますます多くの企業がビッグモデル分野に参入し、A 100やH 100などのハイエンドGPUへの需要が急増する中、科学技術大手がカスタムAIチップを投入する風潮も強まっている。

チップ性能とコストの追求

ハイエンドGPU不足は、科学技術大手がAI大モデルチップの開発に力を入れている理由の一つだ。ますます多くの企業が大モデル分野に参入するにつれて、ますます多くの大モデルが登場し、A 100やH 100などのハイエンドGPUに対する市場の需要が直線的に増加している。OpenAIのSam Altman CEOは、計算力不足に何度も文句を言ったことがある。バロン週刊誌によると、英偉達ハイエンドGPUの納入は2024年までになったという。英偉達GPUへの依存を減らすために、能力のある会社は次々とチップ開発に力を入れ、大モデル製品の作成、訓練、反復に使用している。

では、なぜアマゾンやマイクロソフトなどは期せずしてカスタムチップを自主開発する道に進んでいるのでしょうか。主な理由の1つは、大手メーカーがチップの性能を最適化し、差別化策を求めていることだ。ムーアの法則が減速していることを背景に、これまでムーアの法則によって性能効果の向上を推進してきた道はますます難しくなり、最適な計算性能を得るためには、特定のアプリケーションとデータ集合に対するアーキテクチャに頼らなければならない。特にAI大モデルの分野では、メーカーによって異なる差別化ニーズがあり、一体的に適用されるソリューションがその計算ニーズを満たすことができなくなっていることを発見する企業が増えています。

Arm上級副総裁兼インフラ事業部のMohamed Award社長によると、アリババ、AWS、マイクロソフトのような大規模なクラウドサービス事業者はチップの自己研究を始めており、最も主要な目的はチップ1つ1つの性能、効率を最大限に発揮し、最適化を実現することだという。独自のユースケース、ワークロード、サーバ、ラック、さらには独自のデータセンターを中心にカスタマイズされます。GPTなどの技術の発展に伴い、データ量と計算量はますます大きくなるだけだ。チップのカスタマイズにより、ベンダーは最適化により、急増するデータ量と計算量をサポートすることができます。

コスト削減も大手各社の現実的な考えかもしれない。バーンスタインアナリストのStacyRasgon氏の分析によると、ChatGPTの検索規模がグーグル検索の10分の1に増えた場合、当初は約480億ドルのGPUが必要で、年間約160億ドルのチップが運用を維持する必要があった。高い運営コストに直面して、自己研究によるカスタマイズチップは科学技術の大工場の一致した選択となった。ある分析機関によると、Microsoftの開発コードネームであるAthenaのチップは、偉達を採用した製品に比べて大モデルの処理に使用されており、1チップあたりのコストを1/3削減できる見込みだという。

クラウドからエッジへの未来の延長

Mohamed Awardは、将来的にはインフラストラクチャの分野で、カスタマイズされたチップソリューションを採用するメーカーが増えていくと考えています。従来のサーバシステムの多くは、1つのCPUが標準バスを介して複数のアクセラレータを接続するアーキテクチャモデルを採用している。しかし、AI時代には、このようなアーキテクチャは、十分なメモリ帯域幅を得ることができなかったため、増加するデータと計算量の需要を満たすことが難しくなっていました。そのため、チップアーキテクチャを柔軟に調整し、システムを再構築するためにカスタムチップを選択するモデルメーカーが増えています。

実は、カスタムチップは各大手科学技術メーカーにとってよく知られていません。アマゾンクラウドテクノロジーは2018年にカスタムAIチップの設計を開始し、自己研究AI推理チップInferentiaを発売し、2023年にInferentiaの反復版Inferentia 2を発売し、計算性能を3倍に高めた。アマゾンのクラウドテクノロジーはこのほど、トレーニングチップTrainium 2を発表した。次世代製品Trainiumは2020年末に発売されます。グーグルのカスタムチップの歴史はもっと早い。2020年にグーグルは実際にそのデータセンターに人工知能チップTPU v 4を配備した。現在、グーグルはAIチップを担当するエンジニアリングチームをグーグルクラウドに移し、グーグルクラウドのAIチップ開発能力を高めることを目指している。

カスタムチップ市場の将来の発展について、関連専門家は、AIビッグモデル、自動車などの人気応用の推進に伴い、カスタムチップ市場はさらに拡大し、現在テスラなどの自動車メーカーはすでにカスタムチップの開発と商用に投入されていると指摘した。将来的には、カスタムチップはクラウドコンピューティング、HPCからエッジコンピューティングに拡張されます。これらのアプリケーションは汎用チップで処理することができますが、特定のワークロードで注文されたチップに対して、より良いコストと消費電力効率の下で、性能や機能の最適化を達成し、より良い需要を満たすことができます。専門家も、この傾向は汎用チップメーカーにとってあまり有利ではないと述べている。しかし、IC産業チェーンの他のメーカーにとっては、EDAメーカー、IPメーカー、ウェハメーカーなどが利益を上げている。