このWikiは主に日本語対応ローカルLLM(大規模言語モデル)関連のメモ的なWikiです。
ページの内容が古かったり誤った情報が載っているかもなので気をつけて下さい。
一般の方は編集できません。
スマートフォンの方は上部のメニューから各ページをご覧になれます。
リンク等はご自由にどうぞ
管理人へ連絡事項がある方は、ページ下部のWiki管理人へ連絡からご連絡下さい。
筆者のマシンスペック:
自作NAS(OpenMediaVault 7)
CPU:Ryzen 5700X
MEM:DDR4-2666 96GB (32+32+16+16)
GPU:NVIDIA RTX4060Ti(VRAM16GB)
LLM推論専用マシン(OpenMediaVault 7)
CPU:Xeon E5 2650v4
M/B:Machinist MR9A PRO MAX
MEM:DDR4-2666 32GB(8GB x4)
GPU:NVIDIA Tesla P40(VRAM24GB)*3 + RTX3060(VRAM12GB)
編集予定:
ページの内容が古かったり誤った情報が載っているかもなので気をつけて下さい。
一般の方は編集できません。
スマートフォンの方は上部のメニューから各ページをご覧になれます。
リンク等はご自由にどうぞ
管理人へ連絡事項がある方は、ページ下部のWiki管理人へ連絡からご連絡下さい。
筆者のマシンスペック:
自作NAS(OpenMediaVault 7)
CPU:Ryzen 5700X
MEM:DDR4-2666 96GB (32+32+16+16)
GPU:NVIDIA RTX4060Ti(VRAM16GB)
LLM推論専用マシン(OpenMediaVault 7)
CPU:Xeon E5 2650v4
M/B:Machinist MR9A PRO MAX
MEM:DDR4-2666 32GB(8GB x4)
GPU:NVIDIA Tesla P40(VRAM24GB)*3 + RTX3060(VRAM12GB)
編集予定:
- 用語、単語の解説など
- おすすめ言語モデル
- 環境構築など
- Text generation web UIの詳細を書きたい
- LoRAを作ってみたい
- 言語モデルのマージに挑戦してみたい
- その他多数....