Microsoftは本日、Microsoft Igniteカンファレンスにおいて、Azureを利用するITチーム向けに、生成型AIアシスタント「Copilot」の限定プレビュー版の提供を開始したことを発表しました。Microsoftは、今後、未定の時期にAzureモバイルアプリとAzureコマンドラインインターフェースにCopilot for Azureを拡張する予定です。
Microsoft Igniteでは、NVIDIAの生成AI基盤モデルサービスも発表されました。NVIDIA AI基盤モデルは、NVIDIA NGCカタログ、Hugging Face、またはMicrosoft Azure AIモデルカタログから、世界中で提供されているあらゆる場所でご利用いただけます。Microsoft Copilot for Azureは、Azureポータルがパブリッククラウドで実行できる環境であればどこでもご利用いただけます。
ジャンプ先:
- Copilot が IT 管理のために Microsoft Azure に登場
- Microsoft Azure に Generative AI 基盤モデル サービスが追加されました
- Microsoft Ignite からの NVIDIA のその他のニュース
Copilot が IT 管理のために Microsoft Azure に登場
ITチームは、Microsoft Azure(図A)内でCopilotを使用してクラウドインフラストラクチャを管理できます。Copilotは、Microsoft Azureの管理ツールと同じデータとインターフェース、そして同じポリシー、ガバナンス、そしてロールベースのアクセス制御を使用します。
図A

Copilot for Azure では次のことが可能です。
- サービスの設計と構成を支援します。
- 質問に答えます。
- 著者のコマンド。
- Azure サービス全体からオーケストレーションされたデータを使用して問題をトラブルシューティングします。
- 支出の観点から IT 環境を最適化するための推奨事項を提供します。
- 拡大するクラウド環境に関する質問に答えます。
- Azure Resource Graph 内で使用する Kusto クエリ言語クエリを構築します。
- Azure コマンド ライン インターフェイス スクリプトを記述します。
Microsoft Azure に Generative AI 基盤モデル サービスが追加されました
NVIDIA は 11 月 15 日、企業向けの NVIDIA AI Foundation モデルが Microsoft Azure 上で実行できるようになり、生成 AI の作成と実行が高速化されたと発表した。Llama 2 や Stable Diffusion などのモデルには、NVIDIA の AI Foundation Endpoints を通じてアクセスできる。
このサービスを利用するすべての企業は独自のデータウェアハウスを保有し、それらには検索拡張生成(Retrieval-Augmented Generation)を通じてアクセスされます。既存のデータウェアハウスに接続するためにSQLクエリを作成する代わりに、検索拡張生成は埋め込みモデルを介してデータにアクセスします。埋め込みモデルは、コンテンツの意味的表現をベクトルとしてベクトルデータベースに保存します。従業員がそのデータベースを検索すると、クエリは埋め込み形式に変換され、ベクトルデータベースを検索して、意味的に最も近いコンテンツを見つけます。そして、大規模な言語モデルがそのコンテンツをプロンプトとして用いて、キュレーションされた応答を生成します。
「LLM を使用して応答や回答を作成するのと同じワークフローですが、エンタープライズ企業のエンタープライズ データ ウェアハウスを活用して、時事的で最新の適切な回答を作成できるようになりました」と、NVIDIA のエンタープライズ コンピューティング担当副社長であるマヌビル ダス氏は、Microsoft Ignite の開始に先立つ 11 月 14 日の事前説明会で述べました。
NVIDIA は、エンドツーエンドのエンタープライズ生成 AI ワークフローのハードウェアとソフトウェアがすべて Microsoft Azure 上で実行されるようになったと発表した。
「このユースケースが非常に強力なのは、業界や企業が何であっても、またその企業の特定の従業員がどのような職務に就いていても、生成AIを使用してその従業員の生産性を向上できる点です」とダス氏は事前説明会で述べた。
参照: Microsoft Azure がライバルのエンタープライズ クラウド コンピューティング サービス Google Cloud とどう違うのかをご覧ください。(TechRepublic)
開発者は、NVIDIA AI Foundation Models サービスを利用して、NVIDIA の新しい NeMo Megatron-LM 3 モデルファミリーなどをベースとした生成 AI をブラウザ上で実行できるようになります。NVIDIA は生成 AI 製品とプラットフォームを積極的にリリースしていく予定であり、今後は数千億のパラメータを持つ NeMo のより大規模なモデルをリリースしていく予定だと Das 氏は述べています。
基盤モデルサービスにより、開発者はLlama 2、Stable Diffusion XL、MistralなどのコミュニティAIモデルにアクセスできます。NVIDIA AI基盤モデルは、NVIDIA NGCカタログ、Hugging Face、Microsoft Azureモデルカタログから無料で入手できます。
Microsoft Ignite からの NVIDIA のその他のニュース
Tensor RT-LLM v0.6はWindowsで利用可能になり、NVIDIA RTXデバイス上のローカルAI向けに推論の高速化と開発ツールの追加を提供します。Stable Diffusion、Megatron-LM、その他の生成AIモデルはWindowsデバイス上でローカルに実行できるとDas氏は述べています。
これは、GPUを搭載したクライアントデバイス上で生成AI機能を活用するためのNVIDIAの取り組みの一環であるとダス氏は述べた。例えば、VS CodeのTensorRT-LLMを利用したコーディングアシスタントは、Continue.devプラグイン内のOpenAI Chat API用のローカルTensor RT-LLMラッパーを使用することで、OpenAIのクラウドではなくローカルLLMにアクセスし、開発者にクエリへの回答をより迅速に提供できるようになる。
さらに、NVIDIA は、自動車業界向けの仮想工場計画や自律走行車シミュレーションを作成する Microsoft Azure 上の Omniverse クラウド サービスの形で自動車メーカー向けの新しい機能を発表しました。