自動運転技術、継続的な健康モニタリング、リアルタイムの不正分析といった新たなAIユースケースが主流になるにつれ、企業はデータが生成および利用される場所の近くで、超高速なデータ処理を行う必要性にますます迫られています。同時に、データプライバシーへの懸念、データ主権に関する法律、その他の規制が、データを可能な限りソースの近くに留め置く動機となっています。
AIが不可欠な企業技術として急速に成長する中、企業や組織は、ITアーキテクチャ全体におけるエッジ展開の重要性を認識し始めています。これまでクラウドやオンプレミスのデータセンターに依存してきた企業は、低遅延が求められるAI推論ワークロードに対する中央集権型処理モデルの限界を実感しています。
クラウドでAI処理を行う場合:
- データに対する管理能力が低下し、コンプライアンス上の問題につながる可能性があります。
- データ転送料(エグレス費用)と転送ネットワークのコストの両面で、クラウドとのデータ授受にかかる費用が増大します。
- 低遅延が求められるユースケースではデータ転送に時間がかかりすぎ、リアルタイムのAI推論が不可能になります。
- ローカルなクラウドリージョンが利用可能であっても、トレーニングのためにデータを中央拠点に移動させる際には、データ転送料を支払う必要があります。
中央集権型のデータセンターでAI処理を行う場合:
- クラウドよりはデータ管理能力が高いものの、その場所がデータ保管場所の要件(データレジデンシ)を満たさない可能性があります。
- データ転送における大きな遅延とネットワークの混雑という課題が依然として残ります。
- データ量の増大に伴い、拡張する能力に限界があるかもしれません。
どちらの場合も、中央集権型の処理モデルは、データが移動しなければならない距離のためにAIワークロードのボトルネックとなりえるほか、AI関連の予算を消耗させる可能性があります。AIの初期段階にある一部の組織は、現在のクラウドやデータセンターの構成で十分だと考えていますが、AIプロジェクトをテスト段階から本番環境に移行する時、そのインフラストラクチャがAIの能力を損なうことになりかねません。
最善の進むべき道は、AIへの分散型アプローチです。このアプローチでは、AIワークフローのいくつかの重要な側面はエッジロケーションで行い、その他は中央集権型のデータセンターで行います。最も低い遅延を実現するため、AI推論、ファインチューニング、そして一部の特定領域向けトレーニングはエッジで行う必要があり、一方、汎用的なAIモデルのトレーニングは、複数のデータソースの拡張や集約が容易な中央集権型インフラストラクチャやクラウドで行うことができます。このアプローチには、エッジロケーションにデジタルハブを組み込んだ、相互接続されたハイブリッドインフラストラクチャの活用が不可欠です。現在エッジ戦略を持たない組織も、いずれは必要となるでしょう。なぜなら、計算能力をデータソースの近くに配置することで、AIアプリケーションが要求する低遅延処理が可能になるからです。
AIにとって低遅延が重要な理由
AIアプリケーションに関して考慮すべき遅延には3つの側面があります。
- データを生成するオブジェクトから推論ノードへデータを移動させる時間
- 推論ノードがトレーニング済みモデルでデータを処理する時間
- 推論ノードがデバイス上でアクションを起こす、またはレポートを提供するのに要する時間
これらのデータ転送は、エッジロケーションにいればわずか数ミリ秒で済むかもしれませんが、データを中央拠点に送り返す(バックホールする)必要がある場合、その遅延は致命的となり得ます。
図1:中央集権型データセンターの利用は、データ転送のコストと時間が増加する
遅延は、ユーザーエクスペリエンス、事業コスト、そして時には人命や安全にさえ悪影響を及ぼす可能性があるため、AI推論にとって特に重要です。以下の例を考えてみましょう。
- 自動運転は、事故を防ぐために、センサーデータが前方に歩行者がいることを示した際に即座に反応できなければなりません。
- コネクテッド救急車システムは、搬送中に患者のバイタルや診断データをリアルタイムで処理するためにネットワークエッジノードを使用し、病院が緊急事態の受け入れ準備を整えるのを助けます。
- 公共事業やエネルギー生産会社は、安全上の理由から、天候の変化や緊急事態に迅速に対応する必要があります。
- 産業オートメーションでは、エッジのAIモデルがセンサーやカメラのデータを瞬時に分析し、機器の異常、製品の欠陥、あるいは急激な温度上昇のような突然の環境変化といった重大な事象への即時対応を可能にします。
これらのすべてのケースにおいて、組織は中央集権型またはクラウドベースの処理が伴う遅延を許容することはできません。
AI推論はエッジで行う必要がある
AIトレーニングは大量のデータを扱い、その多くは遅延に制約されないため、中央集権型の処理が理にかなっています。中央集権型インフラストラクチャは、必要とされる規模に対応するのにより適しており、新しいデータを授受するのを待つ間、トレーニングを一時停止することもできます。
一方、AI推論は、デバイスから送受信される新しいデータによってトリガーされます。推論ノードはそのデータに迅速に反応する必要があるため、処理のために中央拠点に戻る時間はありません。推論ノードがデータに近ければ、リアルタイムのアクションをトリガーできます。企業インフラストラクチャ全体のさまざまなエッジロケーションに推論ノードを配置することで、企業はサービスの可用性を向上させ、より狭いデータセットで動作し、トレーニングの高速化と低いコンピューティング要件の削減につながる特定領域向けのAIモデルを展開できます。例としては、医療画像分析や疾患診断支援が挙げられます。エッジインフラストラクチャはまた、空港のセキュリティのためのリアルタイム映像分析のような、場所固有のサービスも可能にします。
しかし、エッジAIは単に遅延だけの問題ではありません。コストとプライバシーの利点もあります。前述のコネクテッド救急車の例では、ネットワークエッジでデータをローカルに処理することで、クラウドのみのソリューションと比較して遅延を大幅に削減でき、脳卒中検知のようなリアルタイムのアラートを可能にし、救急医療における貴重な時間を節約できます。さらに、ローカルでのデータ処理は、不可欠な要約情報のみを送信することで、帯域幅の使用を最小限に抑え、データプライバシーを強化します。これにより、機密性の高い患者情報を保護しつつ、運用の効率性を維持します。同様に、産業オートメーションにおいても、エッジAIはクラウドベースの処理による遅延をなくし、意思決定がリアルタイムで行なうことができます。これは、製造業や産業環境における運用効率の向上、ダウンタイムの削減、そして全体的な安全性と製品品質の改善に貢献します。
AI向けエッジコンピューティングにおけるネットワーク技術の役割
リモートダイレクトメモリアクセス(RDMA)のような新しいネットワーク技術が、広帯域高遅延ネットワーク、すなわち長距離にわたる広帯域や大きな遅延という課題に対処することで、ゲームチェンジャーとして登場しています。RDMAは、CPUを介さずにシステム間の直接メモリアクセスを可能にし、遅延を大幅に削減し、スループットを向上させます。これは、エッジの推論ノードと中央集権型のトレーニングクラスターとの間で迅速かつ大規模なデータ転送を必要とするAIワークロードにとって極めて重要です。
RDMAとエッジコンピューティングは、連携してAIの遅延を最小化することができます。RDMAはデータ転送と集約を高速化し、エッジインフラストラクチャは処理のためのデータ移動距離を短縮します。このように、RDMAはエッジとコアのインフラストラクチャ間でデータを戦略的に分散させることを可能にすることで、AIへの分散型アプローチの採用を支援します。ビジネスの観点から見ると、このようなソリューションの採用は、AIの導入サイクルを加速させるだけでなく、運用効率を高め、リアルタイムの洞察と大規模なイノベーションの迅速化を可能にします。
相互接続されたエッジインフラストラクチャ
データ駆動型のインテリジェンスの時代において、エッジコンピューティングは必須です。AIの成功は、最終的には中央集権型のトレーニングとローカルでの推論との連携にかかっています。これを達成するためには、データソースやエンドユーザーの近く、そしてクラウド、SaaSプロバイダー、AIエコシステム内の他のパートナーと接続された、適切な場所にある相互接続されたエッジインフラストラクチャが必要です。
図2:エッジにおける相互接続されたデジタルハブ
エクイニクスは、世界76の市場に270以上のデータセンターを展開しており、AI向けのエッジ展開をサポートするグローバルな拠点を有しています。当社のAI対応ハイパフォーマンスデータセンターでは、コストを最適化し、規制コンプライアンスを維持しながら、必要な場所に柔軟なインフラストラクチャを展開できます。
AIのためのネットワーク遅延削減におけるエッジコンピューティングの重要性についてさらに詳しく知るには、当社のホワイトペーパー「エッジで拡大するAIの未来」をダウンロードしてください。

