HPE Discover: GreenLakeがLLMクラウドサービスでAI市場に参入

HPE Discover: GreenLakeがLLMクラウドサービスでAI市場に参入
人工知能とエッジコンピューティングの概念的な技術イラスト。
画像: kras99/Adobe Stock

ヒューレット・パッカード・エンタープライズ(HPE)は火曜日に開催されたHPE Discoverにおいて、新たなスーパーコンピューティング・クラウドサービス「GreenLake for Large Language Models(大規模言語モデル向けGreenLake)」を2023年末または2024年初頭に米国で提供開始すると発表した。GreenLake for LLMsにより、企業は各事業に特化した大規模人工知能(AI)のトレーニング、チューニング、導入が可能となる。

LLM 向けの GreenLake は、米国でのリリースに続いて欧州の顧客にも提供される予定で、リリース時期は 2024 年初頭を予定しています。

ジャンプ先:

  • HPE、AIソフトウェアスタートアップAleph Alphaと提携
  • HPEのCray XDスーパーコンピュータがエンタープライズAIパフォーマンスを実現
  • 再生可能エネルギーからより多くの電力を得る
  • LLM向けHPE GreenLakeの代替品

HPE、AIソフトウェアスタートアップAleph Alphaと提携

「AIは転換点を迎えており、HPEでは、生成AIを活用し始めているさまざまな顧客からの需要が高まっているのを目の当たりにしています」と、HPC & AIビジネスグループおよびヒューレット・パッカードラボのエグゼクティブバイスプレジデント兼ゼネラルマネージャーであるジャスティン・ホタード氏は、オンラインプレゼンテーションで述べた。

LLM向けGreenLakeは、ワークロードに応じて数百から数千のCPUまたはGPUにまたがるAIネイティブアーキテクチャ上で動作します。HPEによると、単一のAIネイティブアーキテクチャ内で実現されるこの柔軟性により、複数のワークロードを並列実行する汎用クラウドオプションよりも効率的になります。LLM向けGreenLakeは、ドイツのAIスタートアップ企業Aleph Alphaとの提携により開発され、同社はLuminousと呼ばれる事前学習済みLLMを提供しています。Luminous LLMは、英語、フランス語、ドイツ語、イタリア語、スペイン語に対応し、テキストと画像を使用して予測を行うことができます。

このコラボレーションは双方向で行われ、まず Aleph Alpha が HPE インフラストラクチャを使用して Luminous をトレーニングしました。

「HPEのスーパーコンピューターとAIソフトウェアを活用することで、Luminousを効率的かつ迅速に学習できました」と、Aleph Alphaの創業者兼CEOであるJonas Andrulis氏はプレスリリースで述べています。「大規模言語モデル向けHPE GreenLakeのローンチパートナーになれたことを誇りに思います。HPEとの協業を拡大し、Luminousをクラウドに拡張し、エンドユーザーにサービスとして提供することで、ビジネスや研究活動のための新たなアプリケーションの開発を加速させていきたいと考えています。」

最初のリリースには、再学習または微調整のためのオープンソースおよび独自仕様のモデルセットが含まれます。HPEは将来的に、気候モデリング、ヘルスケア、金融、製造、輸送関連のタスクに特化したAIの提供を目指しています。

現時点では、LLM 向けの GreenLake は、Luminous モデル、機械学習開発、データ管理および開発プログラム、Cray プログラミング環境を含むHPE の全体的な AI ソフトウェア スタック (図 A )の一部となります。

図A

HPE の AI ソフトウェア スタックの図。
HPEのAIソフトウェアスタックの図解。画像:HPE

HPEのCray XDスーパーコンピュータがエンタープライズAIパフォーマンスを実現

GreenLake for LLMは、HPEのCray XDスーパーコンピューターとNVIDIA H100 GPU上で動作します。このスーパーコンピューターとHPE Crayプログラミング環境により、開発者は、コストがかさみ、スーパーコンピューティング特有の専門知識が必要となる独自のハードウェアを実行することなく、高性能コンピューティングおよびAIアプリケーション上でデータ分析、自然言語処理、その他の作業を実行できます。

プレゼンテーションの中で、ホタード氏は、AI の大規模企業生産には膨大なパフォーマンス リソース、熟練した人材、セキュリティと信頼が必要であると指摘しました。

参照: NVIDIA は DGX スーパーコンピューターで AI テナンシーを提供します。

再生可能エネルギーからより多くの電力を得る

HPEはコロケーション施設を活用することで、スーパーコンピューティングを100%再生可能エネルギーで稼働させることを目指しています。HPEは、北米のコンピューティングセンター専門企業であるQScaleと協力し、この目的に特化した設計を進めています。

「当社のクラウド導入はすべて、お客様に100%カーボンニュートラルなサービスを提供することを目標としています」とホタード氏は述べた。「液冷の利点の一つは、廃水や温水を実際に回収して再利用できることです。これは他のスーパーコンピューター設備でも採用しており、今回のクラウド導入でもその専門知識を活用しています。」

LLM向けHPE GreenLakeの代替品

LLM を実行するための他のクラウドベースのサービスには、NVIDIA の NeMo (現在は早期アクセス中)、Amazon Bedrock、Oracle Cloud Infrastructure などがあります。

ホタード氏はプレゼンテーションの中で、HPE 向けの GreenLake は AWS や Google Cloud Platform などの大規模なクラウド サービスの代替ではなく、補完するものになると述べた。

「パブリッククラウドとの統合は可能であり、今後もそうするつもりです。これは補完的なサービスであり、競合相手とは考えていません」と彼は述べた。

Tagged: