
シリコンの中年の危機
AIは、古典的なMLから深い学習、生成AIに進化しました。 AIを主流にした最新の章は、計算、データの動き、冷却の観点からデータとエネルギー集約型の2つのフェーズ(トレーニングと推論)にかかっています。同時に、チップのトランジスタの数が2年ごとに2倍になると判断したムーアの法律は、 物理的および経済的高原に到達します。
過去40年間、シリコンチップとデジタルテクノロジーはお互いを前進させてきました。処理能力の一歩は、より多くのパワーを実行する必要がある新製品を想像するためのイノベーターの想像力を解放します。それはAI時代に光速で起こっています。
モデルがより容易に利用できるようになると、規模の展開は、日常のユースケースのために訓練されたモデルの推論と適用にスポットライトを当てます。この遷移には、推論タスクを効率的に処理するための適切なハードウェアが必要です。中央処理ユニット(CPU)は何十年もの間一般的なコンピューティングタスクを管理してきましたが、MLの幅広い採用により、従来のCPUの機能を拡大する計算需要が導入されました。これにより、グラフィックプロセシングユニット(GPU)およびその他のアクセラレータチップが、並列実行機能と大規模な数学操作を効率的に処理できるようにする高メモリ帯域幅のため、複雑なニューラルネットワークをトレーニングするためのその他のアクセラレータチップを採用しました。
しかし、CPUはすでに最も広く展開されており、GPUやテンソル処理ユニット(TPU)などのプロセッサの仲間になる可能性があります。 AI開発者はまた、特殊なハードウェアまたはオーダーメイドのハードウェアに合わせてソフトウェアを適応させることをためらっており、CPUの一貫性と遍在性を支持しています。チップデザイナーは、最適化されたソフトウェアツールを通じてパフォーマンスの向上を解き放ち、MLワークロードを提供するための新しい処理機能とデータ型を特に追加し、専門ユニットとアクセラレータを統合し、 シリコンチップイノベーションの進歩、カスタムシリコンを含む。 AI自体は、チップ設計に役立つ援助であり、AIが実行する必要があるチップの最適化に役立つ肯定的なフィードバックループを作成します。これらの強化と強力なソフトウェアサポートは、現代のCPUがさまざまな推論タスクを処理するのに適した選択であることを意味します。
シリコンベースのプロセッサを超えて、AIの計算とデータの需要の増加に対処するために、破壊的な技術が出現しています。 ユニコーンスタートアップライトマッター、たとえば、データ送信に光を使用して速度とエネルギー効率の大幅な改善を生み出すフォトニックコンピューティングソリューションを導入しました。 量子コンピューティング AIハードウェアの別の有望な領域を表します。まだ数年または数十年先でさえ、量子コンピューティングとAIとの統合は、創薬やゲノミクスなどの分野をさらに変換する可能性があります。
モデルとパラダイムの理解
ML理論とネットワークアーキテクチャの開発により、AIモデルの効率と機能が大幅に向上しました。今日、業界はモノリシックモデルから、スマートフォンや最新の車両などのデバイスで、エッジでより効率的にタスクを完了するために協力する小規模で専門的なモデルを特徴とするエージェントベースのシステムに移行しています。これにより、モデル応答時間の速度など、コンピューティングの低下など、パフォーマンスの増加を抽出できます。
研究者は、少数のショット学習を含む技術を開発し、より小さなデータセットとトレーニングの反復を少なくしてAIモデルをトレーニングしています。 AIシステムは、限られた数の例から新しいタスクを学ぶことができ、大規模なデータセットへの依存とエネルギー需要の削減を減らすことができます。精度を選択的に削減することによりメモリ要件を低下させる量子化などの最適化手法は、パフォーマンスを犠牲にすることなくモデルサイズを削減するのに役立ちます。
検索された生成(RAG)のような新しいシステムアーキテクチャは、トレーニングと推論の両方でデータアクセスを合理化し、計算コストとオーバーヘッドを削減します。オープンソースLLMであるDeepSeek R1は、同じハードウェアを使用してより多くの出力を抽出する方法の説得力のある例です。補強学習技術を斬新な方法で適用することにより、R1は遠くを使用しながら高度な推論機能を達成しました 一部のコンテキストでの計算リソースが少なくなります。