プライベートAIをどのように既存ビジネスに活用するか?

プライバシーとデータ管理を維持しながらAIを有効活用する方法を紹介

Milind Wagle
プライベートAIをどのように既存ビジネスに活用するか?

AIがもたらす潜在的なベネフィットは明らかですが、企業は今まで膨大なリソースを費やしてきた貴重な知的財産をリスクにさらすことなくそのメリットを追求するために、慎重かつ戦略的なアプローチを必要としています。このため、多くの企業が独自のAIモデルを構築し、そのモデルをプライベートのインフラストラクチャでホストし、独自のデータセットのみを使い学習させることを始めています。この概念はプライベートAIとして知られるようになりました 

多くの企業は現在、ChatGPTのようなパブリックのAIサービスに機密データを転送すると、そのデータがモデルに学習されることを認識しています。これは、将来そのモデルを使用するすべてのユーザーにデータが使われる可能性があることを意味することをはらんでいます。OpenAIが示すFAQでは、ユーザーの履歴から特定のプロンプトを削除する方法がないため、ユーザーは機密情報をChatGPTと共有すべきではないと述べています 

プライベートAIを使えば、プライバシーやデータのコントロールを犠牲にすることなく、データからビジネスの優位性に関わる洞察を抽出できます。プライベートAIを成功させるために戦略に取り入れるべき4つの要素については、以下をご覧ください 

1. プライベートAIが自社に適しているか確認

まず、すべての企業がプライベートAIで成功するわけではないことを認識することが重要です。特に、それぞれの状況において成功とはどのようなものかを明確に定義した上で始めなければなりません。ヘルスケアや金融サービスのような規制の厳しい業界の企業にとって、プライベートAIのメリットは明らかです。当該業界の性質上、機密データを危険にさらすようなことは避けなければならないため、プライベートAIは自然に適合するわけなのです。

規制のない業界の企業もプライベートAIの恩恵を受けられるかもしれないですが、その価値提案は必ずしも明確ではありません。こうした企業は、データ漏えいのリスクと、パブリックのインフラストラクチャでAIを活用ことによるコストや柔軟性への影響というトレードオフを考慮しなければなりません。AIモデルが求めるスケーラブルなコンピュート能力を手に入れるためには、パブリッククラウドが簡単でコスト効率に優れていると考え、パブリッククラウドに傾倒する企業もたしかに存在していますが、しかし、パブリッククラウドのコンピュートへのアクセスは、予想以上に高価で困難であることが多く、その主な原因は高額なデータ転送料です。

パブリッククラウドインフラがもたらすと思われるメリットが、潜在的なリスクを補うには十分でないと判断した場合、そのビジネスはプライベートAIを導入するのに適したものといえるでしょう。

2. データ管理を戦略に組み込む

ここ数年のAI技術の急速な進歩をみるに、一歩下がって客観的に一つの基本的な事実を考えてみる価値があるかもしれません。こうすることで、効果的なデータ管理がプライベートAIの成功に不可欠な要素であることが理解できます。

重要なデータを適切な場所に滞りなく転送する方法を考慮する必要がありますが、AIのインフラストラクチャはデフォルトで高度に分散しているため、これは困難な場合が多いです。以下に具体的な課題を挙げてみましょう。

  • ハイブリッドマルチクラウドアーキテクチャを採用する可能性が高い、すべてのアプリケーションからデータを収集し、トレーニングモデルに供給する必要がある。
  • 推論ワークロードをエッジ(エンドユーザーがAIモデルとやり取りする場所)に配置し、データソースと処理場所の近接性を確保する必要がある。推論ワークロードはレイテンシに非常に敏感で、距離がネットワークレイテンシの主な要因であるため、これは不可欠となる。
  • これらのワークロードが要求する大容量の計算能力を提供できるコアとなるインフラストラクチャ上に、トレーニングワークロードを展開する必要がある。
  • データがソースからさまざまな処理ロケーションに迅速かつ確実に移動できるように、すべての異なるワークロード間で柔軟で高性能なネットワークが必要となる。

AI対応のデータアーキテクチャを構築する理想的な方法の1つは、クラウド隣接ストレージを使用することです。これにより、潜在的なリスク、コスト、複雑性を軽減しながら、パブリッククラウドサービスをプライベートAI戦略に組み込えます。これは、AIインフラストラクチャにとって、両方の長所を併せ持つようなものです。つまり、必要なときにサービスにアクセスできるほどクラウドに近い一方で、柔軟にクラウドから切り離し信頼できるストレージ環境を構築できるのです。

このアプローチは、パブリックAIモデルを通じてデータが漏洩したり、特定のクラウドにベンダーロックインされたりすることを心配することなく、好きなときに好きなようにデータを使用できるように、データを完全にコントロールし続けられることを意味します。データをこのような高度なレベルで確実にコントロールすることは、効果的なプライベートAI戦略の特徴の一つとなりえるでしょう。

3. コンピュートニーズを考慮

AIの爆発的な成長により、日に日に強力なGPUハードウェアの需要が高まっています。各メーカーはこの需要に応えるべく増産体制を整えていますが、それでも当面は供給不足に直面する可能性が高いとみられています。ハードウェアの供給が限られていると、プライベートAIの目標を完全に実現できない可能性があると指摘されますが、このボトルネックを回避し、必要な計算能力を確保する方法は確実にあります。

多くの人は「GPU」を「AIハードウェア」と同義と考えていますが、必ずしもそうではありません。最も負荷の高いトレーニングのワークロードをサポートするためにはGPUが間違いなく必要ですが、小規模な推論のワークロードには、より入手しやすいCPUを使用できる可能性が高いでしょう。実際、Equinix Metal®のようなBare Metal as a Serviceソリューションを利用すれば、高額な初期費用をかけずに必要なCPUをオンデマンドで導入することができます。

さらに、GPUを必要とするワークロードであっても、(納品を数カ月待って)自社でハードウェアを導入管理する以外の選択肢があります。例えば、エクイニクスは最近、NVIDIAとの提携によるフルマネージドプライベートクラウドサービスを発表しました。このサービスは、顧客が必要とする高度なAIインフラストラクチャをホストし運用するために必要なコロケーション、ネットワーク、マネージドサービスをパッケージ化し、ターンキーソリューションとして提供するものです。これは、パブリッククラウドソリューションに期待される柔軟性をすべて提供すると同時に、プライベート環境でデータの制御維持を大きく変革することになります。

4. 持続可能性と効率性のための計画

多くの人々は、現在のAIへの急激な発展が、近年一部の企業が達成した持続可能性の進歩を頓挫させるのではないかと懸念しているようです。AIのワークロード、特にトレーニングのワークロードが非常にエネルギーを消費することは事実です。これらのワークロードが二酸化炭素に与える影響を抑えるためには、可能な限り効率的に実行する必要があります 

例えば、データセンター向けの新しい液体冷却技術は、従来の空冷よりも本質的に効率的です。AIなどの高密度ワークロードをエネルギー効率よく冷却する上で、不可欠な役割を果たすでしょう。エクイニクスでは、数年前から液冷を幅広くテストしており、本番環境向けのワークロードのサポートに使用し始めています。 

さらに、ワークロードの配置が持続可能性にどのような影響を与えるかを考慮することも重要です。ワークロードは、ローカルグリッドから最も二酸化炭素排出量の少ないエネルギーをもたらす場所に配置したいと考えることが一般的です。これを実現する一つの方法は、再生可能エネルギーへの投資を優先しているデジタルインフラストラクチャパートナーと協力することです。 

エクイニクスでは、2030年までに全世界で再生可能エネルギーを100%普及させるという目標の達成に向けて確実に進んでいます。より環境フレンドリーな送電網を構築するため、当社は世界中の地域で再生可能エネルギープロジェクトを支援する電力購入契約(PPA)に投資しています。当社のお客様は、持続可能な方法でAIを行うという目標を達成するために、この再生可能エネルギーの適用範囲の拡大から利益を得ることができます。 

プライベートAIのインフラ要件を満たす

適切なデジタルインフラによってプライベートAIを実現する方法について詳しくは、エクイニクスのインディケーター(英語)をご覧ください。 

このサイトでは、AIに適したデータアーキテクチャを実装する方法、相互接続を利用してAIインフラストラクチャのさまざまなコンポーネントをまとめる方法、持続可能なAIインフラストラクチャの構築に伴う課題を克服する方法について、業界のエキスパートから洞察を得ることができます。 

[1] What is ChatGPT?, OpenAI.

アバター画像
Milind Wagle Chief Information Officer
Subscribe to the Equinix Blog