未解決
Moderator
•
6.7K メッセージ
0
136
[Ask the Experts] Dell Technologies World 2024
今年もやってきましたDell Technologies World.
Dell Technologiesはどんな形でAIと向き合っていくのでしょうか。
興味あるセッションや現地からのレポートを紹介!
もちろん質問も皆さんどんどん書き込みしてください。
期間:2024年5月20日 ~5月23日 (太平洋標準時)
基調講演スケジュール:
5月20日(月)午前10:00~午前11:00(太平洋標準時)日本時間21日午前2時~3時
イノベーションを推進する
Michael Dell デル・テクノロジーズ会長兼CEO
5月21日(火)午前10:00~午前11:00(太平洋標準時)日本時間22日午前2時~3時
AIを現実のものにする
Jeff Clarke デル・テクノロジーズ、Vice Chairman兼COO
主なセッション予定と詳細はこちら
注目のセッション
その他注目の登壇者 (NVIDIA CEO やSabuで知られるハッカーも登場)
ayas
Moderator
Moderator
•
6.7K メッセージ
0
2024年5月16日 06:25
https://www.dell.com/ja-jp/dt/events/delltechnologiesworld/2024/featured-sessions.htm#tab0=3
日本時間だと5月22日(水)朝7時くらいなので配信かなあ・・
ayas
Moderator
Moderator
•
6.7K メッセージ
0
2024年5月22日 05:54
イノベーションに加速度を(Igniting Innovation)
主な出演者>
Michael Dell(Chairman and CEO, Dell Technologies)
Bill McDermott (Chairman and CEO, ServiceNow)
Jensen Huang(Founder and CEO, NVIDIA)
Sungwoo Hwang (President and CEO, Samsung SDS)
♪♪Sunshine♪♪の音楽とともにマイケルが登壇。
Welcome to Dell Technologies World !
「どこから、そしていつ手をつければいいのか。」
「その答えはここに!Dell Technologies!」
Dell TechnologiesとしてAIを全面に押していくことを最初に宣言します。
Age of AI(AI時代の幕開け)
昔の工場を例に話を続けるMichael 。その昔、仕事の効率を上げるため工場では車輪を動かす動力として水力や風力を使っていた。そして電気という便利なものが出た時、人間は車輪を回すだけでなく、あらゆるところで電気を活用し、効率化を図ってきたがそれは車輪を動かすことの延長線上にあった。
AIは車輪を回すために使うのではなく、仕組み自体を変える動力にするべきだ。
(AIを個々の効率化という観点ではなく、仕組みそのもの、生産性、革新、飛躍のためのGame Changerとしてみるべきだと彼は主張しているようです・・)
そしてDellTechnologiesの重要顧客でありMichael の友人でもあるServiceNow のCEO Bill McDemottが登場します。
「1000ドルしか持ってなかった19歳の若者が世界を変えたよね!」
Michaelを若い頃から知るBillがテンポよくAIが如何に今重要であるか、どれだけパワフルなのか、を熱く語ります。
AIによってすべてのビジネスが変わる!それもすごい速さで!
猛スピードで走る電車を指をくわえて眺めるのか、それともその電車に乗るのか!
(Michaelがすかさず乗る!と合いの手を入れます)
信頼は人間にとって究極の通貨、Michael以外に僕はこの通貨を与える人(会社としても)が思いつかない、という最高の賛辞でBillの話は終わりです。
ServiceNowのCEO、その熱量にはMichaelもびっくりしているようでした。ちゃっかり自社の宣伝もしてたし・・・
そしてここからAI Factoryの話
Large Language モデルの推論作業ではオンプレ環境のほうがクラウドよりも75%も経済的であることや、83%のCIOたちがワークロードをクラウドから移行しようと考えている、などデータのオンプレ回帰が始まっているというMichael。
そんな中、オンプレ志向のエンタープライズが自社にあったAI基盤を作りたいとき、抜群のエコシステムとロジスティクスを誇るDellTechnologiesにしかできないこと!
それがAI Factory
40年前にPCを顧客の好みに合わせてカスタマイズすることを思いついたMichael は、40年後にまた顧客の望む形でデータの置き場所そして彼らのAI活用に合わせた形での仕組みを提供するというわけです。
そしてAI Factoryを構築するためのハードウェア製品についての紹介が続きます。
まずは構造化データストレージであるPowerStore Prime
最大66%のパフォーマンスアップするらしい・・
次に非構造化ストレージのPowerScale F910
It brings AI to your data ! AIワークロード要件を満たすために設計されているらしい。
そしてNVIDIAのGPUを搭載した PowerEdge。
PowerEdge XE9680Lは8つのNVIDIA Blackwell GPUをサポートする高性能サーバーで、業界標準のx86ラックで最も高いGPU密度!(NVIDIAのJensen Huang言わせるとセクシーすぎる!代物らしい)
企業のAI導入のために作られたサーバー、ストレージそしてスイッチ!そしてMicrosoft CoPilotを搭載したPCも!
ハードウェア発表がおわったところで。
「Michaelがいなかったら僕は今ここにはいないだろう」と語るSamsung SDSのCEOであるSungwoo Hwangの登場です。
世界的なGPU Server不足時にDellTechnologiesの強いロジスティクスによって救われたといいます。
そしてセキュリティを気にするエンタープライズ顧客にとってオンプレはクラウドよりも魅力ある選択肢になっていること。AIサービスを提供するSamsungにとってPowerEdgeサーバは無くてはならないモノだということ。
GPU中心のコンピュートがメジャーになると考えているSamsung SDSにとってDellTenologiesとの関係はより重要になるという話でした。
そして真打ち。
AIは水や電気、インターネットのようにどこにでもあるものになるだろう。
じゃあ、AIがどれだけ大きくなるの?どれくらい投資すればいい?
今一番その回答をするのにふさわしい人の登場!・・・とMichael。
NVIDIA CEO である Jensen Huangが登場します。
立て板に水でJensenは語ります。
ソフトウェアの生産からインテリジェンス(知性)の生産が行われるようになったこの時代、さらにはCPUからGPUへ、指令型プログラムから自走型プログラム、つまりソフトウェアからインテリジェンスそのものへ、コンピュータのすべての側面が変化しているなか、企業も変化していくだろう。
企業が物理的に思考を創造しているのであればそれをデジタルで行うようになるのは何ら不自然なことではない。そうなった場合に必須となるのはAI Factoryだ。
NVIDIAとDellTechnologiesとのパートナーシップによって実現可能な業界初、かつ最強のAI市場へ参入になる!
コンピュート、ネットワーク、ストレージをカバーできる幅広い製品を有し、抜群のロジスティクス、を持つのは世界でただ一つDellTechnologiesだけ!
28年前、ワンクリックでお客様が望むカスタムPCを提供していたけれど、今やそのスケールを比べようがないほど大きく、深くしてAIを求めるお客様への環境を提供することになった!
Jensenは続けます。
僕らの使命は・・・
1兆ドル相当の世界中のデータセンターの近代化!
残りの100兆ドル業界のためのAI Factoryの構築!
僕らなら朝飯前さ!(二人でハイタッチ!)
クロージング
AIが人間、社会にもたらすものについて。
AIは人間の進化である。そして正しい判断(正しい付き合い方)をすることで将来は決まる。
AI for Human progress
最後はPower Of future(未来の力)みんなで集合してマイケルの基調講演は終了です。
(編集済)
Uehara Y.
Community Manager
Community Manager
•
5.1K メッセージ
0
2024年5月24日 01:02
基調講演の2日目、今日のメインスピーカーはJeff Clarke。
舞台上にはDell Technologies World "AI Edition"の文字が!これは完全にAIに振り切った講演であることが予想できます。
最初にこの講演のテーマを説明するJeff。
AIは過去を振り返っても、産業革命以来の破壊的で物事を根本から変える力があるテクノロジーである。
そのAIに対するDell Technologiesのブループリントを提示し、お客様にそれを活用して頂くことによりビジネスを加速するお手伝いをしたい。
とのこと。
そして現状の共通認識をもってもらうために5つの項目について説明します。
83%のデータはオンプレにあり、50%のデータはエッジでつくられている、そのようなデータを活用する者と活用しない者では大きな差がつくのは明らかである。
データを効率的かつ効果的、そしてセキュアにAIへ活用していく必要がある。
AIにはPCなどのローカルデバイス、エッジから巨大なデータセンターまで様々な適応範囲があるが、その中でどれが自分たちにはベストなのかを判断する。
今後のAIの進化スピードを考慮し、それらに対応可能となるアーキテクチャを適用する。
多くのAI関連の最新のキーテクノロジーを組み合わせ可能とするために、エコシステムはオープンなものを採用する。
これらの項目は、今後多くの企業にて活用が想定される、必要以上に大きくないオープンモデルのLLMを利用して、そこにRAGやファインチューニングを行い、量子化による効率化を行いながら、最新のデータも継続的に取り込むような最良のAIシステムを構築する際にも考慮が必要です。
そして実際のところ、本当に重要なのはAIシステムではなく、そのAIシステムを使って推論を行い有意義なアウトカムを引き出すこと。
そのために、Dell TechnologiesではDELL AI FACTORYという仕組みを考えています。
これは
最初に差別化を行うために必要なデータがあり(DATA)、
それをDell TechnologiesのプロフェッショナルサービスがAIに適用できるよう最適化するお手伝いをし(SERVICES)、
それをオープンなエコシステムを用いて活用し(OPEN ECOSYSTEM)、
それらシステムを柔軟に組み合わせて高速で効率的に動作させることが出来る、オープンでモジュラー化されたインフラストラクチャで動かし(INFRASTRUCTURE)、
多くのユースケースを出力として得る(USE CASES)、
そしてそれらユースケースからこれまで思いつかなかったような、組織や経験から得られる深い洞察力を得る(INSIGHT)。
これら一連の流れはPC内で完結するかもしれないし、サーバーやデータセンターが必要かもしれません。また規模が大きくなっていくと最適なストレージやネットワークなども必要となるでしょう。
Dell Technologiesの強みは、これらがどのような規模で必要とされた場合においてもソリューションとして提供が可能なところにあります。
ここからはそのソリューションを実現するためにDell Technologiesが提供可能な、様々な最新のテクノロジーに関する説明に入っていきます。
BroadcomのCharlie Kawwasが登壇。
最初に説明してくれたのは、サーバーとPCをつなげて高速にデータ通信をするためのフロントエンドネットワークももちろん重要だが、数百万レベルのGPU同士が連携して処理をするようなAIワークフローの時代には、実はそれらGPUをつなげるバックエンドネットワークが非常に重要であるということ。
そのためにBroadcomとDell Technologiesが協力してつくりあげたものとして、PowerSwitchには51テラビット/秒の処理が可能なチップが入り、PowerEdgeには400ギガビット/秒のPCIe gen5のNICカードが入り、さらにこの2つは5M以内であれば「銅線ケーブルで」直接接続可能という仕様になっているのだそう。
いくら仕様が良い製品があったとしても、その製品を含めた構成を取るために多大な時間や費用を必要とするのではメリットが薄れてしまいますが、ケーブリングへの考慮などの実務的なところまで考えられてつくられている製品は素晴らしいです(更に消費電力もかなり抑えられているのだそう!)。
そしてCharlie Kawwasはこれからはバックエンドネットワークの世界におけるEthernetの進化が進むだろうと予測します。その理由の一つとして、1枚のチップに8つのタイルが組み込まれた片手で持つことができる製品が、128枚の400ギガビット/秒のNICのトランシーバーの代わりとして利用できることを紹介。
Fibre Channelやインフィニバンドも進化を続けていると思いますが、Ethernetの世界の進化は本当に早いです・・・
次に登壇したのはDell TechnologiesのInfrastructure Solutions Group(ISG)のPresidentであるAuthur Lewis。
ストレージの世界ではよく知られるコンピュート、ネットワーク、ストレージの3階層モデルについて説明していきます。
水冷を採用し、様々な種類の多数GPUを搭載可能となり更に高速に動作するPowerEdge(コンピュート)、Broadcomの説明にもあったPowerSwitch(ネットワーク)、そしてAI向けのストレージとして市場で存在力を高めるPowerScale(ストレージ)。
これらすべてが進化していることを多くの数字を用いて説明した後に、プロジェクト・ライトニングなるものが登場。
これは機種名は語られなかったので、PowerScaleの進化版なのかそれとも全く別の製品なのかはわかりませんでしたが、AI向けのファイルストレージであり、現在市場に出回っているオールフラッシュのスケールアウトファイルストレージに比べるとIOPSで20倍、スループットで18.5倍の能力を有するらしい!
どのような点でAI向きと言えて、どのような仕組みでパフォーマンスを上げているのかが気になるところです(今後の情報公開に期待します!)。
そしてこれがDell TechnologiesはPCカンパニーでもストレージカンパニーでもなく、ソリューションカンパニーになったと感じられた点ですが、なんと現時点でNVIDIAやAMDやIntel、そしてRedHatなどと共同でテストされているターンキーソリューション(=車をパーツを組み合わせて一から自分でつくるのではなく、出来上がった車を買って来て鍵を差し込んで回せばすぐに走り出せる、つまり購入したらすぐに動作して実務に活用できるソリューション)が40個もあるとのこと。
そしてここで次の登壇者にバトンタッチ。AI, Compute and NetworkingのSenior Vice PresidentのIhab Taraziが登場します。
その後すぐにMeta社のAI Partnerships DirectorであるSy Choudhuryも紹介されて登壇。2人の会話が始まります。
話題の中心はMeta社が提供しているLLM、Llama 3。
Meta社としてはこのモデル開発のためにいろいろな仕組みを考えて効率的に運用をしているそうですが、そういった運用のベースとしてDell Technologiesが提供するAI開発に適したITインフラストラクチャが必須であると語り、
Dell TechnologiesとしてはLlama 3はオンプレのシステムに組み込むことができる上に独自のファインチューニングなども可能ということで、お客様に提供するソリューションとして相性がいいというWin-Winの関係にある模様。
「実際にDell TechnologiesのITインフラストラクチャの上でLlama 3を動作させて、ファインチューニングなりRAGなどを使って自社専用のAIエージェントをうまく構築できると何ができるのか?」という問いへの回答として、Ihabが説明していたのは製品開発への活用例。
製品を開発するのには、マーケットリサーチ、製品デザイン、コーディング、検証作業などが必要なのだが、これら全てにLlama 3を用いた自社専用のAIエージェントを準備することにより、これまで考えられないくらいの効率で開発が進むらしい。
正直「そこまでうまくいくかな・・・」と少し思うところはありましたが、AIとは人間(従業員)をインフラ化するものであるという自分が持っている考え方が正しければ、優秀な専門の従業員をたくさん雇っているような環境と同じになるので「あー、なんかうまくいくのかも」などと考えてしまいました。
次の登壇者はHugging Face社のJeff Boudier。
MetaといいHugging Faceといい、現在AIを牽引している会社と仲良く協業できていることは素晴らしいです!
AIの民主化を目指し、100万を超えるAI/機械学習モデルを提供しているHugging Face。
AI業界のデファクトスタンダードといってもいい存在になっていますが、その膨大なカバーエリアから、最初のフレーズで「お客様のセキュアなデータを外に持ち出すことなくAIの恩恵をフルに受けるために、オープンソースAIはとても重要である」と話し、今後の会話を特定エリアにフォーカスするのはさすがです。
そしてここ6か月でHugging FaceとDell Technologiesが議論してきたことが2つあると言います。
一つ目はオープンモデル利用時のセキュリティ、プライバシー、コンプライアンスなどをどう担保していくのかということ。
二つ目は開発者が(Hugging Faceが一般に提供している)モデルレポジトリを利用してオンプレミスの商用環境にモデル展開をした場合、コンテナ環境の整備、量子化の適用、メモリ管理などのITインフラに必要な設計/構築を各会社ごとの環境に合わせて適切に行い、安定運用をするのが非常に難しいという問題をどう解決するのかということ。
これらの問題を解決するためにつくられたもの、それが
「Dell Enterprise Hub」
分かる人は分かる!ということでここでもしかするとこの基調講演で一番大きな歓声が上がります。
この仕組みを使うと、オンプレミスで信頼性が高い最新のAIモデル(もちろんLlama 3も!)が簡単に利用できるようになり、更にはファインチューニングなども容易にできるようになるらしい。。
ここでDell Enterprise Hubの短いデモが行われたのですが、必要な項目をクリックするだけで、PowerEdgeサーバー上にチャットモデルが展開されていました。
しかもこのサービスはもう利用できるらしい!
PowerEdgeを持ってないと使えないのか?とかアカウントはどうやってつくるんだ?などの疑問はありますが、これはできるだけ早く触ってみたいサービスです!
ここで再度バトンタッチが行われ、壇上にはClient Solution Group(CSG)のPresidentであるSam Burdが登場します。
これまでオンプレミスAIの利点である、セキュアであるとか、パフォーマンス/レスポンスが良いなどを話してきたけれど、
「これってオンプレのシステムで対応するのではなくて、PCの中で完結/対応できちゃったら最高じゃない?」
というようなことを熱く語ります!
そして壇上にはDeloite ConsultingのChief Commercial OfficerであるDounia Senawiが登場。
どうもDeloiteはPC単体で動作するAIを搭載したAI PCを利用したトライアルを行っていた模様で、それに関するこれまでの結果を説明してくれます。
あまり具体的な例は出てこなかったのですが、面白かったのは、従業員がAI PCを利用して効率が上がったこと自体がモチベーションとなり、さらに効率が上がっていくという話でした。
こういう話を聞くと、今後の世界ではAIを活用する人としない人のアウトプットの差は大きく開いていくのだろうと考えてしまいます。
しかしそれと同時にAI PCがとても有用であるのならば、おそらくAIスマホ(Google Pixcelなんかは実現してますが)の活用や、スマートグラスや人体への埋め込みチップというように進化が進んでいくのではないかということも考えさせられました。
AI PCの素晴らしさを聞きながら、逆にPCの存在価値を今一度考えなおす必要があるのかもしれないな・・・などとも考えてしまったということです。
次に現れたのはMicrosoftのCorporate Vice PresidentであるMatt Barlow。
ここではDeloiteのケースとは逆に具体的な例がデモと共にいくつか紹介されました。
利用しているのはMicrosoftのCopilot。それにより
- 過去のPC内での作業をすべて覚えているのでPC内にあるデータを探す(検索する)のがとても楽
- PowerPointの内容などを要約してくれる
- ビデオ会議の録画に同時通訳的に字幕をつけてくれる
などがネットがつながっていない環境においてもAI PC単体で実現できているのだそう。
「これ欲しいな。。と本当に思います。
(近い将来に会社で配ってもらいたいです)
そしてここからラップアップに向かいます。Jeffの再登壇です。
とはいえここで最後のゲストであるMcLarren Racing CEOのZak Brownも登壇。
ある程度予想はしていたことですが、やはりF1の世界ではAI活用はかなり進んでいることを説明してくれます。
毎週毎週コンピューターでシミュレーションを行いマシンのパフォーマンス向上を図るのは当然として、それ以外に実際のレース時のピットインのタイミングでどのタイヤを選ぶのかなどの判断時間は2秒しかない中でAIの力を借りる必要があるという、IoTを活用したリアルタイムAIシステムのような話も聞けたのは面白かったです。
そして、やはり実際の経験からくる言葉は説得力がすごいです。
Dell TechnologiesはMcLarenと契約しているようですが、他のチームはおそらく別の競合他社と組んでいるでしょう。
そう考えるとMcLarenには頑張ってもらってDell TechnologiesのAIカンパニーとしての立場の向上に貢献してもらいたいところです!
最後にJeffはこの2日目の基調講演の内容がまとまった1枚のブループリントを見せ、
「DELL AI FACTORYが皆様に貢献できますように」
と手を振って基調講演は終了しました。
(編集済)
ayas
Moderator
Moderator
•
6.7K メッセージ
0
2024年5月29日 06:51
全部ではないけれどReplayがここで視聴できます。
Watch the sessions you want, when you want
その中でAyasが見つけたPowerStore Primeについての話をちょっと・・
Product Marketing VP Shannon ChampionとISG VPのDrew SchukeがオープンソースコミュニティであるCUBE Researchの共同創設者、アナリストでもあるDave Vellanteの質問に答えます。
まずはPowerStore Primeの概要について
Shannon :
誕生から4年のPowerStoreはすでに7回のソフトウェアリリースを経たのですが
今回新たにソフトウェア主導の機能向上中心にPowerStore Primeとして登場しました。
Dave :
なんだかいろいろ機能向上しているようだけど。。何か仕掛けがあるんじゃ・・・
5:1のデータ削減なんて本当なの?どうやって実現できるの?
Drew :
PowerStoreエンジニアリングでの圧縮機能の微調整や、
さらに今までのノウハウを生かし、インストールベースデータから各機器の業務負荷状態をもとにさらなる微調整を続けてデータ削減を実現できたというわけです!
(あるお客様では5:1ではなく12:1までデータ削減ができた事例もあるらしい)
Dave:
今はやりのAIとの兼ね合いは?PowerStoreはどうかかわってくるの?
Drew :
AIとPowerStoreを考える場合、データにまつわるすべてを考慮に入れることが必要。
その中でもデータの安全性、データの保護、などがあるわけだけれどPowerStoreでは多要素認証を実装したり、
同期非同期レプリケーションでデータ保護はお手の物です。
さらにStorage Direct というバックアップリカバリ製品との融合でオンプレ、オフプレ、クラウド、
どこで何が起きようとデータを守る機能が備得ることも可能。
しかも最初から大それたシステムにしなくてもスケールアウト、スケールアップが柔軟にできるから
その点も日々変わるAI環境では使い勝手がいいと思っています。
Dave :
データ削減、データ保護もばっちり、そのうえパフォーマンスがよくなった!ってなんかいいことづくめだけど
このパフォーマンス向上を実現したからくりは?
Shannon :
ソフトウェア機能でのパフォーマンス向上。PowerStore4.0では66%高速化も期待できます。
そして新しハードウェア・・Q ! (PowerStore 3200Q )
これはQLCテクノロジーを採用して今まででパフォーマンスをとるか、予算をとるか、
の間で苦しんでいた人々には朗報!「いいとこどり」のハードウェアになっています。
Dave :
QLCをはじめNANDについてもうちょっとわかりやすく、プリーズ。
Drew :
TLCは一つのセルに3ビットの情報を入れて運べるものですがQLCは4ビット、すなわち
NANDで一度に運べるデータが多くなる。ということは経済的にもよいわけです。
ただ!ここでの考慮事項はフラッシュストレージならではの懸案、ドライブの摩耗。
しかしPowerStore 3200Q ではその考慮事項を解決した形でQLCテクノロジを実装しました。
だから最小構成のフラッシュドライブ搭載でもドライブ消耗や、さらに業界のQLCストレージでよく言われる
パフォーマンスの低下に関しても心配する必要はない、と言えます。
Dave :
どうしてパフォーマンス低下もないと言えるの?
Drew :
書き込み時に書き込み先をきちんと意識するようになったということなんじゃないかな・・
Dave :
なるほど、書き込み先をきちんとマッピングできているからその分きっとPowerStore3200Qでは書き込み時のパフォーマンスもそれほど遅くはならないだろうってことなのかな!
PowerStore PrimeというのはOE4.0 を中心とした既存のPowerStoreだけでなく、新しいハードウェアPowerStore 3200Qも合わせたものだということ、そしてとっても速くなった!という話だけれど
Drewがストレージ内で完結してきたデータの暗号化は絶対やめることはないが、一応、AI環境向けにも
相互のやり取りができる暗号化へと注力していく必要がある、といっていたのはなんだか印象的でした。
(編集済)