AI導入における3つの主要な課題

AI導入における3つの主要な課題
非構造化データに関する Alvarez のプレゼンテーションからのグラフ。
画像: ドリュー・ロブ

AIはITのあらゆる側面を破壊しています。高密度のGPUラックを追加すると、ネットワーク帯域幅がボトルネックになることがよくあります。これを解決しようとすると、データストレージ、データセンターへの電力供給不足、データセンター内の電力供給インフラの限界、冷却不足といった新たなボトルネックが発生します。

今月ラスベガスで開催されたPure StorageのPure//Accelerate 2025において、同社は現代のAIエンタープライズに向けた高性能ストレージのビジョンを明らかにしました。Pure StorageのシニアAIソリューションアーキテクトであるロバート・アルバレス氏は、生データと変換済みデータの両方への高速で構造化されたアクセスを確保する手段として、エンドツーエンドのAI/MLワークフローを実現する上でフラッシュストレージが果たす重要な役割について説明しました。

「ストレージは AI の中でもあまり話題に上らない部分ですが、AI と分析パフォーマンスの要となっています」とアルバレス氏は語ります。

彼は、AI 実装が直面するいくつかの課題について概説しました。

1. 非構造化データ

アルバレス氏はIDCのデータを挙げ、2025年末までに全世界で存在するデータ総量181ゼタバイト(ZB)のうち、80%が非構造化データであると指摘しました。10年前はわずか18ZBでした。この急速なデータ増加の傾向は今後も続くと予想され、その大部分は非構造化データで占められることになります。

「データの80%が非構造化であることは、AIにとって問題です」とアルバレス氏は述べた。「AIとアナリティクスで効果的に活用するには、少なくとも半構造化形式に整理する必要があります。」

2. 導入費用

アルバレス氏によると、DatabricksのData + AIレポートによると、生成AIのパイロットプロジェクトが概念実証から実稼働に移行するには平均8ヶ月かかるという。それでも、AIプロジェクトの完全導入に至っているのはわずか48%に過ぎない。

「生成AIにNVIDIA GPUを利用する場合、サプライチェーンの問題によって開発期間がさらに延びる可能性があります」とアルバレス氏は述べた。「立ち上げが遅いとAIのコストが膨らみます。」

すべてを社内でゼロから構築しようとすると、高額な初期費用がかかることが予想されます。データレイクハウスやリアルタイム処理アーキテクチャといったスケーラブルなプラットフォームの導入には、多額の初期投資が必要です。アルバレス氏は、大規模言語モデル(LLM)を導入する企業に対し、まずクラウドでAIコンセプトを具体化し、その後社内導入に移行することを推奨しています。

  • 彼らがやろうとしていることに自信を持ち、
  • クラウドコストが急激に上昇する兆候が見られるとき。

彼は、クラウドコストが制御不能に陥り、第1四半期末までに年間AI予算を300万ドル超過した企業を例に挙げました。しかし、オンプレミスシステムが限界に達した場合は、クラウドリソースの利用を推奨しました。突発的なピーク需要や四半期ごとのトラフィック急増など、様々なケースが考えられます。クラウドは、時折発生するピーク需要への対応に活用することで、社内システムへの多額の設備投資を回避できます。

「データには重力があります」とアルバレス氏は述べた。「データが増えれば増えるほど、そしてAIに活用しようとすればするほど、管理と維持にかかるコストは増大します。」

AIの成熟度

最後の課題は、AIの成熟度です。AIはまだ初期段階にある分野です。イノベーションは猛スピードで進行中です。Databricksによると、現在、数百万ものAIモデルが利用可能であり、2024年にはAIモデルの数は1,018%増加すると予想されています。企業には選択肢があまりにも多く、どこから始めればよいのか判断に迷うこともあります。

社内スキルを持つ企業は、もちろん独自のLLMを開発またはカスタマイズできますが、そうでない企業は実績のあるモデルに固執し、クラウドに依存したAI導入は避けるべきです。アルバレス氏は、クラウドがAIの生産性を阻害する要因となる場合があることを示す別の顧客事例を挙げました。

「AWS のアクセス速度のせいで、機械学習チームは新しいモデルを反復するのに何日もかかりました」とアルバレス氏は語る。

このケースでは、オンプレミスのシステムとストレージへの移行により、データパイプラインが合理化され、コストの大部分を削減できました。彼は、Kubernetesとコンテナ管理のためにPortworxプラットフォームを使用してクラウドリソースを最初に展開することを提案しました。組織がオンプレミスへの移行準備が整ったら、Portworxは移行を大幅に容易にします。

彼の主張は、「すべてのLLMとすべてのAIアプリケーションの基盤には大量のストレージがある。したがって、高速で効率的、拡張性が高く、費用対効果の高いストレージプラットフォームを導入することは理にかなっている」というものです。

「AIはストレージワークロードの一つに過ぎません」とアルバレス氏は述べた。「ストレージは、メタデータの読み取り、書き込み、アクセスを行う際に利用されます。ほぼすべてのワークロードがストレージにアクセスします。Pure Storageはワークロードに依存しないため、あらゆるワークロードを非常に高速に処理します。」

Tagged: