SlidePub
Home
Categories
Login
Register
Home
General
Japan VMUG vExpert が語る #49_VMUG登壇資料_公開版
Japan VMUG vExpert が語る #49_VMUG登壇資料_公開版
shomayama0221
24 views
43 slides
Sep 24, 2025
Slide
1
of 43
Previous
Next
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
About This Presentation
https://vmug-jp.connpass.com/event/369326/
Size:
62.35 MB
Language:
none
Added:
Sep 24, 2025
Slides:
43 pages
Slide Content
Slide 1
自宅でもできる!! AI on vGPU 2025/09/24 @K_Nitori0221 ローカル LLM 編 Japan VMUG vExpert が語る #49 +VCF9
Slide 2
日本のどこかのディストリビューターのインフラエンジニア。 研修時に ESXi を知り vMotion に感動し VMware の沼へ。 最近自分自身も vMotion しました。 K_Nitori0221 1 自己紹介
Slide 3
はじめに 発言は個人の意見です。 ただの趣味です。 今回話す内容は公式には非推奨です。 ・ 内容に誤りが含まれている場合があります。 お気づきの点がありましたら、ご指摘・ご教示いただけますと幸いです。 2
Slide 4
はじめに 3
Slide 5
01 04 モデル 運用 03 Ollama & Dify 構築 02 AI 実行環境 セットアップ 01 ご自宅 VCF 基盤 準備 4 STEPS Build Your Home AI Lab With VCF 9
Slide 6
01 04 モデル 運用 03 Ollama & Dify 構築 02 AI 実行環境 セットアップ 01 ご自宅 VCF 基盤 準備
Slide 7
はじめに 6 参考 : VMware Explore 2025 Las Vegas 速報レポート これっぽいものを 作ってみたい
Slide 8
VCF 編 7 ご自宅 VCF9 始めました。
Slide 9
VCF 編 8
Slide 10
VCF 編 9
Slide 11
ハード編 10
Slide 12
ハード編 11 RTX1300 WAN 10G ONU VCF MG Domain ESX02 VCF MG Domain ESX01 共有ストレージ (ONTAP Select NVME of TCP) コア 10G L3 SW BGP etc.. 管理 L2 RTX1300 WAN UPS 1500w 10G ONU
Slide 13
ハード編 12 VCF MG Domain ESX02 VCF MG Domain ESX01 共有ストレージ (ONTAP Select NVME of TCP) コア 10G L3 SW BGP etc.. 管理 L2 RTX1300 WAN UPS 1500w 10G ONU
Slide 14
ハード編 13
Slide 15
ハード編 14
Slide 16
ハード編 15
Slide 17
ハード編 16
Slide 18
主役 17
Slide 19
主役 18
Slide 20
主役 19
Slide 21
ソフト編 20 NVIDIA T4 GPU vGPU Host driver T4-8Q ? 16Q? vGPU Guest Driver Ubuntu Docker Ollama ローカルで大規模言語モデル( LLM )を実行するための 推論 API サーバ兼ランタイム環境 ご自宅 VCF9 基盤 構築がとても楽なので採用 CPU でも LLM が動かせたりする すごい T4-8Q ?16Q? ESX 01 Ollama とは? https://ollama.com/
Slide 22
ソフト編 21 Ubuntu Docker Diffy AI エージェントや RAG アプリを 構築運用できるオープンソース AI 開発プラットフォーム ご自宅 VCF9 基盤 もっと他にも色々使える。 ローコードツールらしい …? 最近書店で本をよく見かける ESX 01 Dify とは? https://docs.dify.ai/ja-jp/introduction
Slide 23
モデル編 22 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" LLM は何を使う …? https:// github.com / openai / gpt-oss
Slide 24
モデル編 23 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" 20B ならいけそう NVIDIA T4 FOR VIRTUALIZATION
Slide 25
構築編 24 この VM1 台で Ollama (LLM)+ Dify (UI) 動きはする。
Slide 26
構築編 25 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" コンテナで GPU を使うには …? ESX へ vGPU マネージャー インストール VM へ NVIDIA ドライバ インストール VM へ Container Tool Kit インストール
Slide 27
構築編 26 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" コンテナで GPU を使うには …? ESX へ vGPU マネージャー インストール VM へ NVIDIA ドライバ インストール VM へ Container Tool Kit インストール 割愛
Slide 28
構築編 27
Slide 29
Dify 構築 28 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" まずは Git clone 環境変数をコピー
Slide 30
Dify 構築 29 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" まとめてコンテナ起動
Slide 31
Dify 構築 30 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" http://hogehoge へ
Slide 32
Dify 構築 31 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" http://hogehoge へ
Slide 33
Ollama 構築 32 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" コンテナ立ち上げ
Slide 34
Ollama 構築 33 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" 解説 … -d (detached) バックグラウンドでコンテナを実行 -- gpus = device=0 Device0 の GPU をコンテナに割り当て - v ollama :/root/. ollama 永続ボリューム「 ollama 」 を / root/. ollama にマウント → モデルや設定データを保持可能 - p 11434:11434 ホストの 11434 番ポートとコンテナの 11434 番ポートを対応付け → 外部からアクセス可能に -- name ollama コンテナに「 ollama 」 という名前を付与 ollama / ollama 使用する Docker イメージ
Slide 35
Ollama 構築 34 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" 皮はできた … のでモデルを動かそう docker exec すでに起動しているコンテナの中でコマンドを実行 - it - i : 標準入力を有効にする(インタラクティブ) - t: 仮想端末を割り当てる(シェル操作を可能にする) Ollama 対象となるコンテナ名(ここでは -- name ollama で作成したコンテナ) / bin/bash コンテナ内部で Bash シェルを起動 → Linux コマンドを直接実行できる Hostname が変わりコンテナ内にいることがわかる。 → eab1406751c4
Slide 36
Ollama 構築 35 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" いざ起動 ollama run Ollama の CLI コマンドでダウンロードし、実行 gpt-oss:20b 利用するモデルの名前とサイズ → gpt-oss モデルの 20 B パラメータ版 を起動 他にも色々モデルがあったり … /bye で ollama cli から切り替え
Slide 37
Chat 構築 36 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" モデル登録
Slide 38
Chat 構築 37 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" アプリ作成
Slide 39
Chat 構築 38 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" モデル登録
Slide 40
Chat 構築 39 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" GPU で動いた
Slide 41
Chat 構築 40 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" UI を
Slide 42
チェック 41 docker ps --format "table {{.Names}}\t{{.Status}}\t{{.Ports}}" UI を NVIDIA T4 by GPT-OSS 20B
Slide 43
ご清聴 ありがとうございました @K_Nitori0221 https://qiita.com/K_Nitori0221 https://k-nitori0221.hatenablog.jp/
Tags
vmware
vcf
vmware cloud foundation
Categories
General
Download
Download Slideshow
Get the original presentation file
Quick Actions
Embed
Share
Save
Print
Full
Report
Statistics
Views
24
Slides
43
Age
68 days
Related Slideshows
22
Pray For The Peace Of Jerusalem and You Will Prosper
RodolfoMoralesMarcuc
30 views
26
Don_t_Waste_Your_Life_God.....powerpoint
chalobrido8
32 views
31
VILLASUR_FACTORS_TO_CONSIDER_IN_PLATING_SALAD_10-13.pdf
JaiJai148317
30 views
14
Fertility awareness methods for women in the society
Isaiah47
29 views
35
Chapter 5 Arithmetic Functions Computer Organisation and Architecture
RitikSharma297999
26 views
5
syakira bhasa inggris (1) (1).pptx.......
ourcommunity56
28 views
View More in This Category
Embed Slideshow
Dimensions
Width (px)
Height (px)
Start Page
Which slide to start from (1-43)
Options
Auto-play slides
Show controls
Embed Code
Copy Code
Share Slideshow
Share on Social Media
Share on Facebook
Share on Twitter
Share on LinkedIn
Share via Email
Or copy link
Copy
Report Content
Reason for reporting
*
Select a reason...
Inappropriate content
Copyright violation
Spam or misleading
Offensive or hateful
Privacy violation
Other
Slide number
Leave blank if it applies to the entire slideshow
Additional details
*
Help us understand the problem better