昨今、ITリーダーは、自社のAI戦略を支える適切なインフラストラクチャをいかに構築するかに多くの時間を費やしています。しかし、そのインフラストラクチャをどこに展開するかまで考慮しているリーダーは必ずしも多くありません。適切な場所を選ぶことは、インフラストラクチャそのものと同じくらい重要なのです。
これは特にAI推論ワークロードに関して言えることです。すべての組織が独自のAIモデルをトレーニングするためのリソースや意欲を持っているわけではありません。つまり、すべての組織が独自のトレーニングインフラストラクチャの導入について悩む必要はないのです。AIモデルマーケットプレイスの利用や、フェデレーテッドAIアプローチによるパートナーとの協業など、モデルを取得するための他の選択肢があります。対照的に、推論はあらゆる企業のAI戦略において不可欠な要素であり、適切な場所で実行することが極めて重要です。
単純化のために、多くの組織は既存のクラウド環境やオンプレミス環境で推論を実行することを好みます。しかし、この記事で詳しく説明するように、クラウドと従来のオンプレミスデータセンターの双方には限界があります。メトロエッジは、これらの限界を回避するための最適な選択肢となります。メトロエッジは、主に以下の3つの利点を理想的な形で組み合わせ提供します。
- 最適化されたパフォーマンス
- データプライバシーとデータ主権の管理
- より高いリソース効率
メトロエッジとは何か?
推論ワークロードが遅延の影響を受けやすいことは周知の事実です。デジタルエッジにインフラストラクチャを展開することで、データソースと処理拠点間の近接性を確保し、結果としてレイテンシてレイテンシを低く抑えることができます。しかし、企業がエッジに展開する際に直面する課題は、「エッジ」が特定の単一の場所ではないという点です。さまざまな場所にさまざまな階層のエッジが存在し、それぞれが異なる方法で推論を処理します。
デバイスエッジ: スマートフォンなどの接続されたデバイス上で直接推論が行われます。これは、データが生成されたのと同じデバイスで推論を実行することを意味し、ネットワーク遅延を完全に排除できます。
ファーエッジ: 企業が遠隔地にある自社施設内などで運用するプライベートインフラストラクチャ(いわゆる「クローゼットの中のサーバー」)で推論を実行します。
メトロエッジ: 企業が推論データを同じ都市圏内の別の施設に移動させます。この施設は通常、コロケーションデータセンターです。
これらのエッジに加えて、クラウドデータセンターやホールセールデータセンターも存在します。これらは企業の広範なエッジ・ツー・コア・ツー・クラウドのAIデータ戦略の一部となり得るため、上記のエッジと同じ文脈で考慮することが有益です。
なぜメトロエッジで推論を行うのか?
以下の図が示すように、メトロエッジは、クラウドからワークロードを引き込む場合でも、ファーエッジからワークロードをプッシュアウトする場合でも、企業が推論ワークロードをホストするための論理的な場所です。
最適化されたパフォーマンス
メトロエッジは、集約するデータソースと同じ都市圏内に位置しており、通常10ミリ秒未満の低遅延を実現します。適切なコロケーションパートナーと共にメトロエッジインフラストラクチャを展開することで、専用のインターコネクション(相互接続)(相互接続)サービスへのアクセスも可能になり、さらなるパフォーマンス向上が期待できます。
対照的に、企業はクラウドワークロードが物理的にどこでホストされているかを常に管理できるわけではありません。これははるかに高いレイテンシレイテンシにつながる可能性があり、結果として推論の効果を低下させます。
メトロエッジのワークロードは、ファーエッジよりもわずかに遅延が増加する高くなるのは事実ですが、それでも推論には許容範囲内のレベルです。
データプライバシーとデータ主権の管理
企業がファーエッジで推論を実行する場合、自社で物理的なセキュリティを確保する責任があり、これは複雑でコストがかかる可能性があります。データセンターとして機能することを意図していなかった施設内でサーバーを実行しているため、専用のコロケーションデータセンターで見られるような物理的なセキュリティ管理を利用できないのは当然です。
店舗内でサーバーを実行している小売業者を例に考えてみましょう。彼らのビジネスモデル全体が、買い物客が自由に出入りすることを中心に展開しているため、コロケーションデータセンターがメトロエッジで行っているのと同じ方法でサーバーへのアクセスを管理することは不可能です。そして、それらのサーバーを保護できないのであれば、それらのサーバーでホストされている機密データセットのセキュリティについて、どうすれば確信を持てるでしょうか?
一方、推論ワークロードとデータをクラウドに配置すると、管理権限権を失う可能性があります。企業は、クラウドプロバイダが自社と同じ重要度でデータプライバシーやデータ主権の要件を扱ってくれるとは期待できません。
これをメトロエッジと比較してみてください。メトロエッジでは、企業は自らが選択した場所で、自らが管理するインフラストラクチャを展開できます。AI戦略にクラウドサービスを組み込むことを選択した場合でも、メトロエッジに併設されたクラウドオンランプにアクセスすることで、ソブリンクラウドのアプローチを通じて実現できます。
リソース効率
組織がファーエッジで推論を実行する場合、サーバーの展開と管理に関連する費用を支払う必要があります。これは、同じ都市圏内に複数の施設を運営するあらゆるビジネスにとって、負担が増大する可能性があります。
推論をメトロエッジに移行することで、企業はより効率的に運用できるようになり、コスト削減に貢献します。例えば、同じ都市に多くの店舗を持つファストフードチェーンは、個々のレストランごとにハードウェア費用を支払う代わりに、すべての推論ワークロードを1か所に集約できます。
さらに、あまりにも多くのAIデータをクラウドに配置すると、高額なデータ転送料が発生する可能性があります。これらの料金は全体のコストを押し上げるだけでなく、データモビリティも制限します。AIワークロードは本質的に分散型であり、企業は必要に応じてクラウド環境であれ他の環境であれ、AIデータを異なる環境間で移動できる必要があります。データ転送料は、特定の移動がコストに見合うかどうかを企業に検討計算させることになるため、これをより困難にします。
データセットをメトロエッジでホストすることで、企業はデータをより適切に管理できます。これには、特定のデータセットのみを、真に移動が必要な場合にのみクラウドに移動させることでデータ転送料を制限する、ハイブリッドマルチクラウド環境の運用が含まれる場合があります。
エクイニクスがお客様のメトロエッジでの推論活用を支援
IBX®コロケーションデータセンターは6大陸75の都市圏(メトロ)で利用可能であり、メトロエッジでの推論展開を検討しているお客様にとって、展開場所の選択肢に不足はありません。また、Equinix Fabric®のようなプライベートで専用のネットワークソリューションを活用して、処理拠点間でデータを迅速に移動させ、転送中のデータを保護することも可能です。メトロエッジインフラストラクチャと並行してクラウドサービスを組み込みたい組織は、世界中の多くの拠点で提供されている、業界をリードする当社のクラウドオンランプのポートフォリオを活用できます。
AIには、パートナーやサービスプロバイダーの活気に満ちたエコシステムへのアクセスが必要です。そして、業界最大級のグローバルエコシステムがエクイニクスにはあります。これには、数千もの企業、クラウド、ネットワーク、その他のサービスプロバイダが含まれており、そのすべてと直接、プライベートかつリアルタイムに接続することが可能です。
エクイニクスのエコシステムに最近加わった企業の1つが、AI推論分野のパイオニアであるGroqです。Groqは、テキスト、音声、視覚モデルに対して、より高速でリソース効率の高い推論をサポートすることを目的とした、新しいカテゴリの専用AIプロセッサであるLanguage Processing Units(LPU)を提供しています。同社はエクイニクスのインフラストラクチャをゲートウェイとして活用し、ユーザーがGroqCloud™プラットフォームに接続するのを支援することで、プラットフォームに組み込まれた速度とコスト効率をさらに向上増幅させています。
エクイニクスは、お客様がメトロエッジにGroqソリューションを展開し、上記で説明したパフォーマンス、プライバシー、リソース効率のすべての利点を享受できるよう支援します。エクイニクスとGroqのパートナーシップについてさらに詳しく知りたい場合は、先週開催されたDell Tech Worldイベントで収録されたtheCUBEによる当社のインタビューをご覧ください。
