生成AIの導入・活用を阻む3つの逆風を解消 「Dell AI Factory」の全貌に迫る

生活やビジネスを大きく変えつつある生成AI。しかし実際の業務に適用するには、まだ様々な障壁が存在するのも事実だ。これらを解消するためにデル・テクノロジーズが提唱しているのが「Dell AI Factory」だ。ここではその全体像について紹介していく。中でも生成AIの導入・活用を阻む逆風とそれを解消するアプローチについて考察したい。

生成AIの導入を阻む3つの逆風を跳ね返す方法は

デル・テクノロジーズ株式会社
データワークロード・ソリューション本部
シニアビジネス開発マネージャ/AIスペシャリスト
増月 孝信氏

2022年以降、急速に注目を集めるようになった生成AI。既にクラウドで提供されているサービスを利用しているビジネスパーソンも多いはずだ。しかしこれを、いざ本格的に業務で活用しようとすると、意外と高いハードルに直面する。

「生成AIには導入を遅らせる“3つの逆風”があります」と語るのは、デル・テクノロジーズでAIスペシャリストを務める増月 孝信氏だ。それは、複雑さがもたらす「スキルと人材の問題」「セキュリティーやリスク」そして「導入コスト」だという。

「生成AIのユースケースは実に多種多様であり、その導入パターンも事前トレーニング済みモデルの導入から、RAG(Retrieval-Augmented Generation:検索拡張生成)によるモデルの拡張、ファインチューニング、モデルのトレーニングまで、複数存在します。あらゆるユースケースに適応できる万能なアプローチはないため、検討段階から複雑さに直面することになるのです。またユースケースや導入モデルに適した環境を用意しないと、コストが必要以上にかさんでしまう結果になりがちです」(増月氏)

こうした3つの問題を解決するためにデル・テクノロジーズが提唱しているのが「Dell AI Factory」である。これは生成AI導入に関する幅広い要素を包含したものだという。

Dell AI Factoryは特定のソリューションを指すのではなく、生成AI導入に関する幅広い要素を包含したアプローチだ

実際の生成AIの活用に向け、最初に考えるべきなのが図の右に位置するユースケースである。ここで何を選択するかによって、最適な導入パターンや必要なデータ、インフラストラクチャの規模などが変わってくるからだ。

そうしたユースケースの一例が、「Dell Technologies World 2024」で発表された「デジタルアシスタント」だ。これは生成AIを活用した「デジタルヒューマン」で、自然言語を音声でやり取りできるだけではなく、相手の言葉や発音のニュアンスなどから感情も読み取り、それに合わせた対応も行えるという。

「既に、米国テキサス州にあるアマリロ市で利用が始まっています。同市は小さな町ですが自然災害が多く、その情報を適宜提供していかなければなりません。しかし英語を話せない移民が多いため、このデジタルアシスタントを活用しているのです。この事例は世界的に大きな注目を集めており、今後様々な領域で活用されることになるはずです」(増月氏)

社内データ活用で重要になるオンプレミスインフラ

ユースケースを決めて導入パターンの選択を行ったら、次にどのようなデータを使うかを検討することになる。

「ここで重要なのは、『生成AIにデータを提供する』というのではなく、『データに生成AIを寄せていく』という考え方です。つまり、まずはデータ基盤を整備してデータを管理し、これを生成AIの原動力として活用するのです。そのためにDell AI Factoryでは『Dell Data Lakehouse』というデータ管理ソリューションを用意しています」(増月氏)

ここで悩ましいのが、「このデータをどこに配置するか」という問題である。社内データはビジネス差別化の根源の1つであり重要な経営資源だ。これをクラウドなどの社外インフラに載せるかどうかは高度な判断を伴う。データに生成AIを寄せて本格的にビジネスでの活用を進めていくには、どうしても「データと生成AIの両方をオンプレミスに配置する」という選択肢を検討することになる。

しかし、オンプレミスで生成AI用のインフラを用意するには、大きく2つのハードルを超えなければならない。1つ目が、ユースケースに最適な規模・能力のインフラを選択すること。2つ目が、そのインフラで生成AIが問題なく動くことを事前に検証しておくことだ。

「まず1つ目のハードルをクリアしやすくするために、デル・テクノロジーズではAI PCやワークステーションから、エッジサーバー、ハイエンドサーバー、クラウドまで、業界で最も幅広いAI向けインフラのポートフォリオをご用意しています」と増月氏は語る。

その中には、NVIDIAのGPUを搭載したラップトップモデルから、2024年3月にNVIDIAが発表したAI向け新GPU「B200」を1ラック(52U)で72基搭載できる液冷サーバーまで含まれている。

「エントリーレベルでは“Tシャツサイズ”と呼ばれる小規模な構成、RAGを行う場合には中規模な構成、モデルをトレーニングするハイエンドな使い方ではNVIDIAのSuperPODに匹敵するようなアーキテクチャまでカバーしています。またエッジでは、NVIDIAのAIソフトウエアとデル・テクノロジーズのNativeEdge統合フレームワークを連携させ、NVIDIAフレームワークの配信を自動化したソリューションも用意しています」(増月氏)

様々なレベルのパフォーマンスとスケールに対応した構成が、すべて事前検証された状態で提供される

クラウドに比べて大幅なコスト削減が可能

このラインアップでもう1つ注目したいのは、これらがすべて事前検証された状態で提供されている点だ。つまり2つ目のハードルも解消できるのである。

「このようにエンド・ツー・エンドで検証済みモデルを用意することで、多様なユースケースと導入パターンに最適なインフラを、シンプルかつ短時間で導入することが可能です。その結果、AIへの投資を適切な規模に設定することも容易になります」(増月氏)

これによって、幅広いユースケースと導入パターンに対して、最適な投資を行うことが容易になる

ここで気になるのが、クラウドと比較した場合のコストだ。これも既に、第三者機関による検証が行われている。市場調査・分析サービス会社のEnterprise Strategy Group (ESG) が、デル・テクノロジーズのインフラを利用したオンプレミスの推論LLM(大規模言語モデル)と、パブリッククラウドのIaaSおよびAPIサービスとで、コストを比較する調査を実施している。

オンプレミスで推論LLMを動かした場合、IaaSに比べて4倍、APIサービスに比べて8倍のコスト効率が実現できる

「この調査結果では、オンプレミスはパブリッククラウドに比べて4倍、トークンベースのAPIサービスに比べて8倍のコスト効率になることが判明しています。またこのコスト比は、ユーザー規模に比例して大きくなることも分かっています」(増月氏)

つまり、デル・テクノロジーズのインフラをオンプレミスに導入した場合、ユースケースに最適な投資規模を選択できるだけではなく、コスト効率も高くなる。そのため生成AI導入の“逆風”の1つであるコストの問題を、クラウドに比べて簡単に解決できるわけだ。

オープンなエコシステムも重視

デル・テクノロジーズ株式会社
データワークロード・ソリューション本部
シニアシステムエンジニア /AIスペシャリスト
山口 泰亜氏

ただし、生成AIの環境整備を単一ベンダーだけですべて提供しきれるものではない。そのためにデル・テクノロジーズが重視しているのが、広範かつオープンなエコシステムだ。NVIDIAに代表される「シリコンプロバイダー」との緊密な連携もその1つ。また、それと同様に重要となるのがソフトウエアパートナーとの連携だという。

「例えばMetaとは、Meta Llama 3に最適化されたパッケージの作成・検証を行っており、これをHugging Face経由で提供しています。またデル・テクノロジーズは、Hugging Faceの優先オンプレミスインフラストラクチャプロバイダーになっています」とデル・テクノロジーズでAIスペシャリストを務める山口 泰亜氏は語る。

Hugging Faceとは2016年に設立された、オープンなアプローチによって「AIの民主化」を推進している企業。当初はチャットボットアプリの開発を行っていたが、その後事業方針を転換し、LLMやその活用に役立つツールやプログラム、スクリプト、ドキュメント、フレームワークなどを、誰でも無償で使えるように公開している。デル・テクノロジーズはそのサイトの中にポータルを立ち上げ、自社のインフラに最適なコンテナイメージを無償ダウンロードできるようにしているという。

「このポータルにアクセスするとカタログメニューが表示され、その中から生成AIモデルを選択できるようになっています。モデルをクリックすると、モデルの詳細が表示されるほか、パフォーマンスなどの比較情報や、そのモデルがどのインフラで動くのかも分かるようになっています。ここでデプロイタブをクリックしてターゲットとなるインフラを選ぶと、そのインフラに最適化されたDockerイメージがダウンロードされ、オンプレミスのサーバーで実行可能になります。現在はサーバーがターゲットになっていますが、近い将来にはワークステーションにも拡大予定。またKubernetesのサポートも計画されています」(山口氏)

ここから自社のインフラに最適な、生成AIのDockerイメージをダウンロードできる

こうしたポータルがあれば、オンプレミスにインフラを整備した後、すぐに生成AIの活用を開始できる。またワークステーションまでターゲットが拡大すれば、個人でのダウンロード利用も容易になるだろう。

調査会社も「リーダー」として評価

そして最後に紹介したいのが、各種要素の上に位置する「サービス」だ。デル・テクノロジーズには生成AI導入ステップのベストプラクティスがあり、これに基づいた各種サービスを提供している。

その中には、コンサルティングサービスに加え、ユースケース実装支援、Dell Precisionワークステーション上のRAG向けアクセラレータサービス、Microsoft Copilot向けサービスなどが含まれる。

「戦略立案からデータの準備、インフラ構築、モデルのデプロイとテスト、運用と拡張までカバーしています。これによって、いきなりハードルの高い導入を行うのではなく、エントリーポイントの難易度を大幅に下げ、様々な活用を行える“糸口”をつくりたいと考えています」(山口氏)

これらの取り組みは、調査会社からも高く評価されている。デル・テクノロジーズは「Forrester Wave」において、AIインフラストラクチャソリューションのリーダーだと認められている。その理由としては、シングルベンダーでエンド・ツー・エンドのインフラを提供できること、データマネジメントやサポートサービスも提供していること、幅広いエコパートナーと連携していることなどが挙げられている。

ここまで、生成AI導入の“逆風”を解消できる、Dell AI Factoryについて解説してきた。こうした考えに基づき生成AIを業務に適用すれば、高いコスト効果で成果を挙げることも期待できるだろう。


なお、デル・テクノロジーズは、2024年10月3日(木)に年次イベント「Dell Technologies Forum 2024 Japan – AI Edition」を品川のグランドプリンスホテル新高輪とオンラインで開催する。今年は、AI Editionと銘打ち、AIに関するセッションを多数実施しブース展示も行うという。生成AIやAIインフラに関する最新情報を知りたいという企業は、ぜひ参加してみてはいかがだろうか?

■Dell Technologies Forum 2024 Japan – AI Edition登録サイト https://www.dell.com/dt/forum-jp

<注目のセッション>
【AI03】生成AIモデルの開発:Meta LlamaモデルでAIを活用するためのベストプラクティス
【AI04】AI時代のセキュリティ対策:セキュリティリスクと未来の展望
【AI05】AI開発を軌道に乗せるまでのベストプラクティス


日経BP社の許可により、2024年7月26日掲載の日経 xTECH Specialを再構成したものです。
https://special.nikkeibp.co.jp/atclh/NXT/24/delltechnologies0726/

<前の記事へ   次の記事へ>

About the Author: Dell Technologies