AIのモデルサイズが爆発的に膨らむにつれ、データを処理するインフラが大規模化しつつあります。それに伴って右肩上がりに増えているのが電力消費量で、データセンターの電力需要は2030年までに160%増える見通しです。そのため、クラウドおよびデータセンター事業者には効率的なコンピューティングリソースの活用が求められており、現在クラウドAIとエッジAIの両方においてチップレベルでの技術革新が進んでいます。
なかでも注目したいのがエッジAIの進化です。Gartnerによると、今後5年間で企業データの75%以上がデータ センターやクラウドの外部で作成および処理されると予想されています。
そこで本記事では、エッジAIを取り巻く最新トレンドと、イベント「AI Hardware & Edge AI Summit 2024」で紹介されたユースケース、さらには注目のスタートアップ9社をまとめました。
技術革新が進むクラウドAIとエッジAI
すべての学習や推論がクラウド上で行われるクラウドAIに対して、エッジAIは端末で処理されます。クラウドを経由する必要がない分、高速なレスポンスが可能で、プライバシーが守られるのが特徴です。現在は、小規模AIモデルの精度向上も進んでいます。
一方、クラウドAIは扱えるデータのサイズが大きいため、大規模な計算が得意です。またスピードについても、5GやNetwork For AIなどの高速な通信技術などと併用することで対処が可能です。
これらは決して、「クラウド対エッジ」のような単純な二元論で語れるものではありません。それどころか、お互いの欠点を補完するためにハイブリッドでの利用が望ましい場合もあります。実際、短期的な予測はエッジで、長期的なパターン学習はクラウドで行うというハイブリッド形式を採用している例もあり、同様のケースは現在増えつつある印象です。
AIインフラ設計で重要な3つのポイント
AIインフラを設計する際、利用用途のほかに重要なポイントが3つあります。
- エッジでのワークロードの最適化:エッジ側でのパフォーマンス、セキュリティ、開発の難易度、規制などを考慮する
- コストの検討:長期的なコスト効率を検討する(長期的にはクラウドより端末での処理の方が優れている場合もある)
- 収益化方法:業務生産性の向上や、人員コスト削減などのシナリオが自社に当てはまるのか、さまざまなユースケースを学んで検討する。例)自動運転車は故障やメンテナンスの情報をリモートですばやく把握することでサポートの生産性が向上するほか、新機能で安全性や運転体験が上がると売上に直結するため、AIへの投資回収率が高い
エッジAIの最新ユースケース
ここでは、「AI Hardware & Edge AI Summit 2024」で紹介されたエッジAIの最新ユースケースを2つ紹介します。
AIでパイロットの状況認識や視界確保をサポート
まず紹介するのは、エアバスの開発会社、Aキューブが取り組むWayfinderという自律飛行システムです。同社はエアバスの航空機に、パイロットの視覚をサポートするカメラのほか、さまざまなセンサーを搭載し、地上での対応や不測の事態に対処できるようにしています。
パイロットにとって、もっとも高度な状況認識能力が必要なのは着陸の場面です。空港ごとに異なる環境への適応が求められるなか、大規模で複雑な空港のどこにどのように着陸するかを判断しなければなりません。
そこで同社は、米国全土の100を超える空港から大量の地図画像を取得し、それらのデータに加えて衛星データや不動産データを学習させたAIシステムを開発。そこから3Dのマップを生成し、着陸時の正確かつ安全な操縦をガイドする機能を生み出しました。
また、着陸に際しては夜間や悪天候時の視界確保も重要です。それに対して同社は、航空機のカメラで撮影された映像と生成されたマップを組み合わせて、視野確保が困難な状況でのアシスタント機能を各機体に提供しています。
自動運転タクシーの安全性を向上
エッジAI技術は、自動運転タクシーCruiseの安全性も支えています。Cruiseの各車体には大量のセンサーを搭載し、そこから生成されるデータは1日1台あたり5TB。それらは基本的にエッジ側で処理されています。
エッジAIの実装には、エネルギー消費、コスト、処理能力の3つを考慮しなければなりません。これに対してCruiseでは、バックエンドベースの大規模な基礎モデルを構築し、エッジAI用にカスタマイズした小型化モデルを作成。このモデルには、あらゆる運転シナリオを一般化するためのものが含まれます。なお、同社ではオープンソースを一切使わず、独自の大規模な運転モデルを構築しています。
GoogleとMetaにおけるAI基盤の取り組み
膨大なモデルを支えるAI基盤も進化しています。「AI Hardware & Edge AI Summit 2024」では、GoogleとMetaの取り組みが紹介されました。
生命科学のイノベーションを支えるGoogleの最新基盤技術
Googleが進めるアルファプロテオというプロジェクトでは、タンパク質の構造を解明するためにAI基盤が活用されています。約2億個までのタンパク質の結合パターンをAIが短時間で解明することで、抗生物質やワクチンの開発、疾病予防、新しい分子の創出などへの応用が期待される生命科学の取り組みです。
こうした進化を支える基盤の鍵が、ソフトウェアとハードウェアの共同設計です。Googleではチップからシステムまで全体的な設計を重視し、MEMS光学技術による光回路スイッチングなどの新技術を導入してパフォーマンスと効率性を向上。その結果、コストが30%削減し、エネルギー効率は40%上がりました。さらに自動機械学習のアルゴリズムを、ハードウェアの制約なども加味して最適なモデルを選択するよう変えたことで、パフォーマンスの最適化に成功しています。
Metaが取り組むAIシステムの回復力と信頼性の向上
MetaのAI基盤では、Nvidia H100 GPU 16,000個のクラスタを使用しています。実は運用当初、同社ではハードウェア関連の障害が全体の71%を占めていました。現在はシリコンパートナーとの協力で55%まで改善したものの、依然として試行錯誤は続いています。
一方で、同社はAI基盤の信頼性を担保する目的でプレフライトセンターという事前チェックシステムを導入し、学習の質を向上。また、難易度が非常に高いサイレントデータ破損の検出にも取り組んでいます。
Metaは、今後あらゆるサーバーやブレードの修理履歴、すべてのジョブの成功・失敗の履歴、そして、対象国における長期的なトレンドを把握できる機械学習モデルの構築を目指しています。興味深いのは、ゲームエンジニアリングのチームがこのプロジェクトに参画している点です。個人的には、デジタルツインのようなグラフィカルなレポーティングを取り込むことで効率的な運用をサポートするのではないかと予想しています。
注目スタートアップ9社
では、注目のスタートアップです。今回はエッジAIまたはAIインフラ関連スタートアップを9社紹介します。
Positron
2023年に設立されたシード期のスタートアップです。製品の特徴は、AI推論用に特別に設計されたチップを搭載したハードウェア(4U)で、今年8月に出荷を開始しました。あらゆる学習済のHugging Face「Transformers」を直接搭載でき、OpenAIとの互換性を持っています。
また既存のGPUと比較して4倍のワット/パフォーマンス、H100と比較して2.5倍のコストパフォーマンスを実現しました。中規模のAIおよび機械学習に重点を置く企業や、CSP、研究機関が中心となる見込みです。
Cerebras
Nvidiaの市場独占を崩す可能性もあるとも評されるスタートアップです。超高速処理を実現できるウエハー大のチップを用いたAI基盤およびHPC(ハイパフォーマンス・コンピューティング)基盤を提供し、Nvidia GPUよりもはるかに大規模なモデルの学習が可能です。
医療および製薬や航空宇宙およびエネルギー研究、金融サービスなど膨大な処理を必要とする分野で利用されているほか、ドイツ軍などの国家安全保障および防衛AIアプリの開発も受託。機密度の高いシステム構築のニーズから新興のSovereign AI (※) 市場の最前線に立つと期待されています。
※Sovereign AI:特定の国や地域が独自に開発し、管理するAI技術やインフラのこと
d-Matrix
生成AIの推論に最適化されたインメモリのAIチップと、チップを効率的に接続するインターコネクトを開発する企業です。
従来の設計では、コンピューティングとメモリは別のモジュールで、これらのやり取りによって電力消費やパフォーマンスの問題が生じていました。D-Matrixではメモリをコンピューティングリソースに同化させることでその問題を回避する技術を提供しています。
拡張性にも優れており、AI基盤のハイパースケール化にも使い勝手のよい製品です。データセンターや、大規模AIモデルを展開する企業をターゲットとしています。
Ayar Labs
光を用いたチップ同士および外部との高度な接続技術を提供しています。従来、チップ同士、あるいはチップとメモリの接続は銅線が主流でしたが、そこに光技術を応用したのが同社です。
光の生成技術では、一度に複数の波長を生成するマルチ波長出力(256 のデータ チャネル)を業界で初めて実現。マルチポートをサポートすることで、高速かつ効率的なシステム設計を可能にしました。現在、NVIDIA、Intel、Lockheed Martin、GlobalFoundriesなどと提携しながらビジネスを展開中です。
Celestial AI
AIインフラの強化を目的とした「Photonic Fabric」を開発する企業です。「Photonic Fabric」とは、チップ内およびメモリ、コンピューティング基盤間のデータ移動に光を活用できる技術です。これにより、AIや高性能コンピューティングシステムでの利用における帯域幅を25倍向上させ、遅延や消費電力を10分の1に削減するとしています。
主なターゲットは、ハイパースケールデータセンターやAIに積極的に取り組む大手企業です。また、BroadcomやSamsungなどの半導体部門と積極的に協力しながら製品の展開を図っています。
GigaIO
GigaIOは、コンピューティングおよびアクセラレーション(CPU、GPU、FPGA、ASIC)、ストレージ、メモリ(3D-XPoint)、またはネットワークリソースをオーケストレーションするソフトウェアを提供しています。
注目は、スポーツスタジアムからの持ち運び動画配信システムなどを構築できるキャリーバッグ型のGryfという製品です。解体や再構築も簡単で、その他のユースケースにも再利用可能です。
研究機関、政府機関(特に国防および諜報部門)、航空宇宙、金融、ヘルスケアなどの業界に導入実績があるほか、VisaやNTT、Morgan Stanleyなども利用しています。
Recogni
独自の生成AI推論ロジックを用いたAI推論チップを提供する企業です。同社はパレート法という対数を使った計算手法をAI推論システムに適用し、計算効率を高めるプログラムで特許を取得。複雑な計算をシンプルにすることで、チップの小型化とエネルギー消費量の削減を実現しました。
同社のチップは精度が非常に高く、GPUと比べても安価で十分なコンピューティングパワーを備えています。当初は自動運転車業界に焦点を当てていましたが、現在はデータセンター業界や航空業界にも展開中です。
MinIO
オープンソース型のオブジェクトストレージソフトウェアを提供する企業です。企業がAIモデルを構築する際に、AI基盤がストレージからデータをスムーズに取得できるよう、AWSのS3ストレージからエッジのストレージまで幅広くサポートしています。
なかでも強みはデータの同期技術です。これにより、オンプレミス上のデータのクラウド移行が容易になるほか、コスト削減を目的としたリパトリエーション (※) にも役立ちます。
※リパトリエーション:パブリッククラウドからプライベートクラウドやオンプレストレージへのデータ移行
VMware、Intel、Snowflakeなどの大手テクノロジー企業と戦略的パートナーシップを締結して市場展開しているほか、Home Depot、Box、エアバス、デンソーなど多くの企業に導入実績があります。
Lightning AI
AI開発のためのオールインワンプラットフォームです。AI開発プロセスにおけるプロトタイプ作成、コーディング、学習、チューニング、実装、プロファイリングを1つの基盤上で実行できます。
導入企業は同社が保有する1,000 個のクラウドGPUを利用でき、秒単位で使った分だけ支払います。大規模環境の構築にも適用が可能で、専門的なチュートリアルを提供するほか、共同作業やワークフロー作成などの機能も実装。高い開発エクスペリエンスが多くの支持を集め、10万人がこの基板上でAIのプログラミングを行っています。中規模、小規模なAI開発を効率的に行いたい企業に最適です。
最後までお読みいただきありがとうございました。
Nissho USAは、シリコンバレーで35年以上にわたり活動し、米国での最新のDX事例の紹介や、斬新なスタートアップの発掘並びに日本企業とのマッチングサービスを提供しています。紹介した事例を詳しく知りたい方や、スタートアップ企業との協業をご希望の方は、お気軽にお問い合わせください。