support quantization in export model
This commit is contained in:
@@ -479,7 +479,10 @@ python src/export_model.py \
|
||||
```
|
||||
|
||||
> [!WARNING]
|
||||
> 尚不支持 GPTQ 量化模型的 LoRA 权重合并及导出。
|
||||
> 尚不支持量化模型的 LoRA 权重合并及导出。
|
||||
|
||||
> [!TIP]
|
||||
> 使用 `--export_quantization_bit 4` 和 `--export_quantization_dataset data/wiki_demo.txt` 量化导出模型。
|
||||
|
||||
### API 服务
|
||||
|
||||
|
||||
Reference in New Issue
Block a user