AidGenSE 手动上传模型及配置
介绍
该文档用于详述如何上传模型并使用 AidGenSE 启动 OpenAI HTTP 服务
准备工作
在进行模型上传和加载前,请确保以下条件:
- 安装AidGenSE 相关依赖,请参考 AidGenSE 安装
- 完整的模型文件夹(包括 .gguf 或 .bin 模型文件及配置文件)
- 了解当前平台支持的模型类型和限制,请参考 AidGenSE 支持情况
模型资源准备
GGUF 格式模型
推荐文件结构如下:
bash
qwen2.5-1.5b-instruct-q4_k_m/
|__ qwen2.5-1.5b-instruct-q4_k_m.gguf
|__ qwen2.5-1.5b-instruct-q4_k_m.json ← 模型配置文件(需手动编写)
配置文件模板:
json
{
"backend_type": "llamacpp",
"model": {
"path": "<模型文件绝对路径>"
}
}
高通 QNN Bin 格式模型
推荐结构如下:
bash
qwen2.5-1.5b-instruct-8550-bin/
|__ *.serialized.bin (多个)
|__ qwen2.5-1.5b-instruct-htp.json ← 配置主文件
|__ qwen2.5-1.5b-instruct-tokenizer.json
|__ htp_backend_ext_config.json
💡注意
Model Farm上的大模型资源是按照标准结构组织的,高通大模型配置文件相关信息可以参考 Qualcomm Genie。
特别说明
qwen2.5-1.5b-instruct-htp.json
为主要配置文件,其中相关文件路径需要设置为绝对路径,例子如下:
json
"tokenizer": {
"path": "/opt/aidlux/app/aid-openai-api/res/models/qwen2.5-1.5B-instruct-8550-bin/qwen2.5-1.5b-instruct-tokenizer.json"
},
"ctx-bins": [
"/opt/aidlux/app/aid-openai-api/res/models/qwen2.5-1.5B-instruct-8550-bin/qwen2.5-1.5b-instruct_qnn229_qcs8550_4096_1_of_3.serialized.bin",
"/opt/aidlux/app/aid-openai-api/res/models/qwen2.5-1.5B-instruct-8550-bin/qwen2.5-1.5b-instruct_qnn229_qcs8550_4096_2_of_3.serialized.bin",
"/opt/aidlux/app/aid-openai-api/res/models/qwen2.5-1.5B-instruct-8550-bin/qwen2.5-1.5b-instruct_qnn229_qcs8550_4096_3_of_3.serialized.bin"
],
"extensions": "/opt/aidlux/app/aid-openai-api/res/models/qwen2.5-1.5B-instruct-8550-bin/htp_backend_ext_config.json"
APLUX aidem 加密格式
推荐文件结构如下:
bash
qwen2.5-1.5b-instruct-q4_k_m/
|__ *.aidem (多个)
|__ qwen2.5-1.5b-instruct.json ← 模型配置文件(需手动编写)
配置文件模板:
json
{
"backend_type": "genie",
"model": {
"path": "<模型文件绝对路径>"
}
}
配置文件设置
通过编辑 api_cfg.json
配置模型资源
bash
vi /opt/aidlux/app/aid-openai-api/api-cfg.json
增加模型:
json
{
"prompt_template_list": [
...
"<对话模板类型>": "对话模板格式"
],
"model_cfg_list": [
...
{
"model_id": "<模型ID>",
"model_create": "<时间戳>",
"model_owner": "<创建者>",
"cfg_path": "<模型 config 文件绝对路径>",
"prompt_template_type": "<对话模板类型>"
}
}
字段说明:
model_id
:模型标识,唯一 ID,用于运行时指定模型,例如qwen2.5-1.5b-instruct-q4_k_m
model_create
:模型注册时间戳,可使用命令printf "%s%03d\n" "$(date +%s)" "$((10#$(date +%N) / 1000000))"
生成,单位为毫秒model_owner
:模型所有者名称,可自定义,例如"aplux"
cfg_path
:模型主配置文件绝对路径prompt_template_type
:对话提示模板类型,常见取值如"qwen1.5"
、"qwen2"
、"deepseek"
,应与模型训练格式匹配
使用命令查看添加的模型
bash
# 使用aidllm list api命令查看模型是否已经加入aidllm
aidllm list api
qwen2.5-7b-instruct
aplux_qwen2-7B
qwen2.5-7b-instruct-q4_k_m
qwen2.5-7B-8550
qwen2.5-1.5b-instruct-q4_k_m
qwen2.5-1.5B-instruct-8550-bin
# 使用aidllm start api -m qwen2.5-1.5b-instruct-q4_k_m 指定运行模型,查看模型是否能够运行
aidllm start api -m qwen2.5-1.5b-instruct-q4_k_m