172 lines
5.8 KiB
Markdown
172 lines
5.8 KiB
Markdown
---
|
||
title: "智谱 AI 和清华大学 KEG 实验室的新一代对话预训练模型 ChatGLM 3 部署"
|
||
categories: [ "前沿技术" ]
|
||
tags: [ "chatglm", "chatglm3", "chatgpt" ]
|
||
draft: false
|
||
slug: "chatglm3"
|
||
date: "2023-12-27T13:41:00+0800"
|
||
---
|
||
|
||
## 背景
|
||
|
||

|
||
|
||
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。
|
||
|
||
ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:
|
||
|
||
- 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
|
||
- 更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
|
||
- 更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。
|
||
|
||
## 开源地址
|
||
|
||
<https://github.com/THUDM/ChatGLM3>
|
||
|
||
## 部署
|
||
|
||
### 视频演示
|
||
|
||
我做了一个简单的 DEMO 演示视频,可以先进行观看
|
||
|
||
<https://www.bilibili.com/video/BV1Lg4y1k7Yy/>
|
||
|
||
### 硬件需求
|
||
|
||
要在本地机器完全单机离线部署完整的 ChatGLM 3,你需要至少 13GB 显存的 GPU,整个 ChatGLM3-6B 的模型文件权重大小为 13G,当然也可以对模型进行量化,使得在小于 6GB 显存的显卡上也能运行,代价是微弱的性能损失。
|
||
|
||
### 软件需求
|
||
|
||
- 操作系统:Windows 10/11, Linux, macOS (MPS 加速需要 >= 12.3)
|
||
- Python:>=3.10
|
||
|
||
**注意:在 macOS 上支持使用 MPS 后端的 AMD 显卡和 Apple Sillicon 的加速,配置教程会在后文给出**
|
||
|
||
### 部署
|
||
|
||
1. 创建虚拟环境并且进入虚拟环境
|
||
|
||
```shell
|
||
mkdir ~/.virtualenvs && cd ~/.virtualenvs
|
||
python -m venv chatglm3-venv
|
||
|
||
# Windows
|
||
./chatglm3-venv/Scripts/Activate.ps1 # Powershell
|
||
./chatglm3-venv/Scripts/activate.bat # CMD
|
||
|
||
# Linux / macOS
|
||
source ./chatglm3-venv/bin/activate
|
||
```
|
||
|
||
2. 根据 [PyTorch 官网](https://pytorch.org/get-started/locally/) 安装 PyTorch,正确安装才能开启 GPU 加速
|
||
|
||
```shell
|
||
# Windows
|
||
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
|
||
|
||
# macOS / Linux
|
||
pip install torch torchvision torchaudio
|
||
```
|
||
|
||
3. 克隆仓库并安装依赖
|
||
|
||
```shell
|
||
cd ~/Workspace # 切换到你的工作空间
|
||
git clone https://github.com/THUDM/ChatGLM3
|
||
cd ChatGLM3
|
||
pip install -r requirements.txt # 安装仓库依赖
|
||
```
|
||
|
||
`transformers` 库版本应该 `4.30.2` 以及以上的版本 ,`torch` 库版本应为 2.0 及以上的版本,以获得最佳的推理性能。
|
||
|
||
4. 手动下载模型,注意这一步你有一个良好(魔法)的网络环境,可以跳过这一步,直接到第 5 步
|
||
|
||
```shell
|
||
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git # 国内网络可以跑满
|
||
|
||
# 因为是手动下载的模型,需要设定环境变量告诉程序模型在哪,如果你网络环境好,那么不需要设置,程序启动时会自动下载
|
||
|
||
# Windows
|
||
$env:MODEL_PATH="chatglm3-6b" # Powershell
|
||
set MODEL_PATH="chatglm3-6b" # CMD
|
||
|
||
# Linux / macOS
|
||
export MODEL_PATH="chatglm3-6b"
|
||
```
|
||
|
||
5. 运行 DEMO
|
||
|
||
```shell
|
||
cd composite_demo
|
||
|
||
# 安装 DEMO 所需的依赖
|
||
pip install -r requirements.txt
|
||
|
||
# 如果要使用 Code Interpreter 还需要安装 Jupyter 内核
|
||
ipython kernel install --name chatglm3-demo --user
|
||
```
|
||
|
||
6. 如果你的显存不达到要求,你可以略微修改代码,量化模型,或者在CPU上运行,当然你可以跳过这一步。
|
||
|
||
使用代码编辑器打开 `composite_demo` 下的 `client.py`文件,定位到 150 行,以下是原始代码
|
||
|
||
```python
|
||
self.model = (
|
||
AutoModel.from_pretrained(
|
||
MODEL_PATH,
|
||
trust_remote_code=True,
|
||
device_map="auto"
|
||
).eval())
|
||
```
|
||
|
||
在`.eval`前面加上量化方法,如下
|
||
|
||
```python
|
||
self.model = (
|
||
AutoModel.from_pretrained(
|
||
MODEL_PATH,
|
||
trust_remote_code=True,
|
||
device_map="auto"
|
||
).quantize(4).eval())
|
||
```
|
||
|
||
使用 4-bit 量化的情况下,尽管会带来一定的性能损失,但仍然能够进行自然流畅的生成。
|
||
|
||
或者你可以使用 CPU,但是推理速度会更慢,需要大概 32GB 内存
|
||
|
||
```python
|
||
self.model = (
|
||
AutoModel.from_pretrained(
|
||
MODEL_PATH,
|
||
trust_remote_code=True,
|
||
device_map="auto"
|
||
).float().eval())
|
||
```
|
||
|
||
对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac,可以使用 MPS 后端来在 GPU 上运行 ChatGLM3-6B。需要参考 Apple 的 [官方说明](https://developer.apple.com/metal/pytorch) 安装 PyTorch-Nightly(正确的版本号应该是2.x.x.dev2023xxxx,而不是 2.x.x)。
|
||
|
||
目前在 macOS 上只支持[从本地加载模型](https://github.com/THUDM/ChatGLM3/blob/main/README.md#从本地加载模型),并使用 mps 后端
|
||
|
||
```python
|
||
self.model = (
|
||
AutoModel.from_pretrained(
|
||
MODEL_PATH,
|
||
trust_remote_code=True,
|
||
device_map="auto"
|
||
).to('mps').eval())
|
||
```
|
||
|
||
7. 一切就绪,运行 DEMO 服务
|
||
|
||
```shell
|
||
streamlit run main.py
|
||
```
|
||
|
||
如果一切工作正常,且你已经下载好了模型,那么将会弹出一个交互式的网页,你可以在里面进行对话等操作。
|
||
|
||

|
||
|
||
## 结语
|
||
|
||
如果你在部署过程中有任何问题,请不要犹豫在下面的评论区提问,你可以发送图片,以便更好的定位问题。
|