本地机器16GB内存,不足以跑通chatglm2-6b,只能使用chatglm2-6b-int4。
参考:chatglm2-6b-int4
- 安装git lfs
- 创建环境
- 下载模型
- 命令行调用
准备环境:
1
2
3
4
5
6
|
mkdir u_chatglm2
cd u_chatglm2
pipenv --python 3.11
pipenv shell
pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 gradio mdtex2html sentencepiece accelerate
git clone https://huggingface.co/THUDM/chatglm2-6b-int4
|
使用:
1
2
3
4
5
6
7
8
|
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("chatglm2-6b-int4", trust_remote_code=True)
model = AutoModel.from_pretrained("chatglm2-6b-int4",trust_remote_code=True).float()
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
response, history = model.chat(tokenizer, "内脏脂肪多怎么办", history=history)
print(response)
|
回答第二个问题需要二十多分钟。