🎉 限时特惠活动公告、获取优惠码、最高立减3200元
| 类型 | 内存 | 显存 | 硬盘空间 |
|---|---|---|---|
| fp16 | >=16GB | >=16GB | >=25GB |
| int8 | >=16GB | >=9GB | >=25GB |
| int4 | >=16GB | >=6GB | >=25GB |
pip install -r requirments.txtpython openai_api.py --model 16 这里的数字根据上面的配置进行选择。
| 参数名 | 可选值 | 默认值 |
|---|---|---|
| --device | cuda=显卡运行, cpu=cpu运行 | cuda |
| --path | local=本地下载的模型运行, thudm=线上自动下载 | thudm |
| --model | 4=chatglm2-6b-int4, 8=chatglm2-6b-int8, 16=chatglm2-6b | 16 |
--path 参数设置为 local, 那需要你先把模型下载下来, 放到 ChatGLM2-6B/models 目录下python openai_api.py --model 4 --path local

| 参数名 | 可选值 | 默认值 |
|---|---|---|
| --device | cuda=显卡运行, cpu=cpu运行 | cuda |
| --path | local=本地下载的模型运行, thudm=线上自动下载 | thudm |
| --model | 4=量化模型, 16=chatglm3-6b, 32=chatglm2-6b-32k, 128=chatglm2-6b-32k | 4 |
--path 参数设置为 local, 那需要你先把模型下载下来, 放到 ChatGLM2-6B/models 目录下python openai_api.py --model 4 --path local