LLaMA原版模型: https://ipfs.io/ipfs/Qmb9y5GCkTG7ZzbBWMu2BXwMkzyCKcUjtEKPpgdZ7GEFKm/
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make
python3 convert-pth-to-ggml.py models/7B/ 0
./main models/7B/ggml-model-f32.bin --color -f prompts/alpaca.txt -ins -c 256 --temp 0.2 -n 128 --repeat_penalty 1.3
-ins
|
启动类ChatGPT对话交流的运行模式
|
-f
|
指定prompt模板,alpaca模型请加载prompts/alpaca.txt
|
-c
|
控制上下文的长度,值越大越能参考更长的对话历史(默认:512)
|
-n
|
控制回复生成的最大长度(默认:128)
|
-t
|
控制batch size(默认:8),可适当增加
|
--repeat_penalty
|
控制线程数量(默认:4),可适当增加
|
--temp
|
温度系数,值越低回复的随机性越小,反之越大
|
--top_p, top_k
|
控制解码采样的相关参数
|

扫描二维码加群👇

