実際に動かしてみて個人的におすすめのモデルとSNSなどで評判の良いモデルなどを適当に載せています。(順番がぐちゃぐちゃ...)
主要なモデルに関してはローカルLLM のリリース年表@npaka様や、awesome-japanese-llm@llm-jp様でもまとめられています。
とても参考になるので一度ご覧になることをおすすめします。
ページの内容が古かったり誤った情報が載っているかもなので気をつけて下さい。
ページの編集途中です。
どちらもRAGに対応,10言語対応の多言語モデル,コンテキスト長は128K(128,000)をサポートする,本来は一般的な用途向けのモデルだがいける
ナーフされたとは聞かないがソッチ系が良くなったともあまり聞かない
一般的な用途なら上記のc4ai-command-rよりこっちが良いのかな?
主要なモデルに関してはローカルLLM のリリース年表@npaka様や、awesome-japanese-llm@llm-jp様でもまとめられています。
とても参考になるので一度ご覧になることをおすすめします。
ページの内容が古かったり誤った情報が載っているかもなので気をつけて下さい。
ページの編集途中です。
- 個人的におすすめな言語モデル
- 一般向け
- New CohereForAI/c4ai-command-r7b-12-2024 (7B)
- mistralai/Ministral-8B-Instruct-2410 (8B)
- meta-llama/Llama-3.2(1B, 3B, 11B, 90B, base/Instruct/Vision)
- nvidia/Llama-3.1-Nemotron-70B-Instruct (70B)
- Qwen2.5 (0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B)
- Google/Gemma 2 (2B,9B,27B,base/it)
- Llama-3.1 (8B,70B,405B,base/Instruct)
- Swallow (Llama 2ベース 7B,13B,70B,base/instruct)
- NSFW(にも使えるモデル)
- Local-Novel-LLM-project/Vecteus-v1 (7B) ←初心者にもおすすめ
- umiyuki/Umievo-itr012-Gleipnir-7B (7B) ←こちらも初心者にもおすすめ
- Elizezen/Berghof-NSFW-7B (7B)
- dddump/Japanese-TextGen-MoE-TEST-2x7B-NSFW (2x7B MoE)
- Mistral-Nemo-2407 (12B)/Mistral-Large-2407 (123B) ←健全な用途にも
- mistralai/Mistral-Large-Instruct-2411 (123B) ←健全な用途にも
- ascktgcc/Mistral-nemo-ja-rp-v0.2 (12B)
- NeverSleep/Lumimaid-v0.2-12B (12B)/ Lumimaid-v0.2-123B (123B) ←最近のお気に入り
- anthracite-org/magnum-v2-12b (12B) / anthracite-org/magnum-v2-123b (123B)
- anthracite-org/magnum-v2.5-12b-kto(12B)
- anthracite-org/magnum-v4 (9B, 12B, 22B, 27B, 72B, 123B)
- ArliAI/Mistral-Nemo-12B-ArliAI-RPMax-v1.2 (12B)
- New MarinaraSpaghetti/NemoMix-Unleashed-12B (12B)
- mistralai/Mistral-Small-Instruct-2409 (22B)
- Undi95/Lumimaid-Magnum-12B (12B) ←おすすめ
- schnapper79/lumikabra-123B_v0.4 (123B)
- TheDrummer/UnslopNemo-12B-v3-GGUF (12B)
- CohereForAI/c4ai-command-r-v01 (35B) / c4ai-command-r-plus (104B)
- CohereForAI/c4ai-command-r-08-2024 (35B) / CohereForAI/c4ai-command-r-plus-08-2024 (104B)
- karakuri-ai/karakuri-lm-70b (70B,base/chat)
- 一般向け
- あまり触っていないから評価出来ないけど日本語対応ローカルモデル
CohereForAIのc4ai-command-r系の小型(7B)モデル,RAGをサポート
NSFWに寛容(?)なmistralai社の8Bの言語モデルだがパラメータ数の問題か量子化の影響なのか、日本語でそっち向けの出力の品質は低い(?)のでそういった用途にはあまり向かないので一般向け
Meta製モデル,1Bと3Bはスマホなど向けらしい,11Bと90BはVisionモデル(画像を読み込ませて解説させたりできるやつ)
- nvidia/Llama-3.1-Nemotron-70B-Instruct
- nvidia/Llama-3.1-Nemotron-70B-Instruct-HF(GGUF版bartowski/Llama-3.1-Nemotron-70B-Instruct-HF-GGUF
Google製のモデル,baseとitでは基本的にitの方を使えば問題ない
2Bモデルはモデルサイズの割に高性能だと評判になった
ただし、いずれのモデルも健全な用途に最適化されている😢
2Bモデルはモデルサイズの割に高性能だと評判になった
ただし、いずれのモデルも健全な用途に最適化されている😢
Meta製モデル
日本語対応の派生モデルのベースとなる事が多い
日本語対応の派生モデルのベースとなる事が多い
Swallow-13B:
Swallow-13B-Instruct:
Swallow-13B-Instruct:
- TheBloke/Swallow-13B-Instruct-AWQ
- TheBloke/Swallow-13B-Instruct-GPTQ
- TheBloke/Swallow-13B-Instruct-GGUF
小説もチャットもイケる,プロンプトの書式がゆるい(割と適当なプロンプトでも大丈夫)ので初心者にもおすすめ
ロールプレイチャット時のキャラ設定などの理解力が良い,こちらも初心者にもおすすめ
割と評判が良い,小説もチャットもいける
- Mistral-Nemo-Base-2407(12B)
- Mistral-Nemo-Instruct-2407(12B)
- Mistralai/Mistral-Large-Instruct-2407(123B) GGUF版
Mistralai製の123Bモデル,多言語対応,128kのコンテキストとRAGサポート,
Mistral-NemoをベースにEPR向けに微調整したモデル,"temperature"の値を0.3ぐらいにするといい感じ
- NeverSleep/Lumimaid-v0.2-12B(GGUF版 NeverSleep/Lumimaid-v0.2-12B-GGUF)
- NeverSleep/Lumimaid-v0.2-123B(GGUF版 bartowski/Lumimaid-v0.2-123B-GGUF)
- anthracite-org/magnum-v2-12b(GGUF版 anthracite-org/magnum-v2-12b-gguf)
- anthracite-org/magnum-v2-123b(GGUF版 anthracite-org/magnum-v2-123b-gguf)
- anthracite-org/magnum-v2.5-12b-kto(GGUF版 anthracite-org/magnum-v2.5-12b-kto-gguf) (exl2版 anthracite-org/magnum-v2.5-12b-kto-exl2)
9b (gemma-2), 12b (Mistral-Nemo-Instruct-2407), 22b (Mistral-Small-Instruct-2409), 27b (gemma-2), 72b (qwen-2.5), 123b (mistralai/Mistral-Large-Instruct-2407)をそれぞれベースとしている
Mistralをベースとしている12B, 22B, 123Bのモデルはベースモデル自体がが無検閲なため期待できる
→ 12Bと22BのGGUFを軽くテストしてみたが12Bが問題無いのに対し、22Bは出力が不安定?
Mistralをベースとしている12B, 22B, 123Bのモデルはベースモデル自体がが無検閲なため期待できる
→ 12Bと22BのGGUFを軽くテストしてみたが12Bが問題無いのに対し、22Bは出力が不安定?
Mistral-Nemo-12BをベースとしてRPに特化するように微調整されたモデル,ベースモデルと比べると日本語出力の品質は少し下がってる感じがあるがキャラ設定などのプロンプトの理解力は12Bとしては高く感じる
Mistral派生モデルなどをマージしたモデル,どちらかと言えば小説向け(?),推奨Parametersの値をモデルカードから確認、設定すること,
Mistral製の22Bモデル,量子化モデルが悪いのか、同じようなテキストの繰り返しが多い ←量子化モデルが悪かっただけみたい。上記の量子化モデルにしたら繰り返しは改善した
共にMistral-Nemo(12B)をベースとしているMagnum(12B)とLumimaid(12B)をマージしたモデル,日本語出力もNSFWもいける (結構良いかも?) おすすめ
Magnum-v2-123B,Luminum-v0.1-123B,Tess-3-Mistral-Large-2-123Bをマージしたモデル
おそらくMistral-Nemo(12B)をベースとしているモデル,日本語出力、NSFWもできるがあまり確認できていない
- CohereForAI/c4ai-command-r-v01(GGUF版/Q4KM)
- CohereForAI/c4ai-command-r-plus(GGUF版grapevine-AI/c4ai-command-r-plus-gguf)
どちらもRAGに対応,10言語対応の多言語モデル,コンテキスト長は128K(128,000)をサポートする,本来は一般的な用途向けのモデルだがいける
- CohereForAI/c4ai-command-r-08-2024→GGUF版lmstudio-community/c4ai-command-r-08-2024-GGUF or grapevine-AI/c4ai-command-r-08-2024-gguf
- CohereForAI/c4ai-command-r-plus-08-2024→GGUF版lmstudio-community/c4ai-command-r-plus-08-2024-GGUF or mmnga/c4ai-command-r-plus-08-2024-gguf
ナーフされたとは聞かないがソッチ系が良くなったともあまり聞かない
一般的な用途なら上記のc4ai-command-rよりこっちが良いのかな?
- karakuri-ai/karakuri-lm-70b-v0.1
- karakuri-ai/karakuri-lm-70b-chat-v0.1(GGUF版mmnga/karakuri-lm-70b-chat-v0.1-gguf)