模型识别:
qwen-vl-plus 和 qwen-vl-max 模型已成功添加到常量文件中isVisionModel 函数已更新,能够正确识别 qwen-vl 系列模型文本对话:
/services/aigc/multimodal-generation/generation 端点API 路由:
app/constant.ts)const alibabaModes = [
"qwen-turbo",
"qwen-plus",
"qwen-max",
"qwen-max-longcontext",
"qwen-vl-plus", // 新增
"qwen-vl-max", // 新增
];
app/utils.ts)export function isVisionModel(model: string) {
const visionKeywords = [
"vision",
"claude-3",
"gemini-1.5-pro",
"gemini-1.5-flash",
"gpt-4o",
"gpt-4o-mini",
"qwen-vl", // 新增
];
// ...
}
app/client/platforms/alibaba.ts)async function preProcessImageContent(content: string | MultimodalContent[]) {
// 处理文本和图片内容,转换为阿里云API格式
}
async chat(options: ChatOptions) {
const visionModel = isVisionModel(options.config.model);
const messages: any[] = [];
for (const v of options.messages) {
const content = visionModel
? await preProcessImageContent(v.content)
: getMessageTextContent(v);
messages.push({ role: v.role, content });
}
// 根据模型类型选择端点
let chatPath = this.path(Alibaba.ChatPath);
if (visionModel) {
chatPath = this.path('/services/aigc/multimodal-generation/generation');
}
}
消息格式:
多模态支持:
流式响应:
图片格式研究:
错误处理优化:
测试完善:
使用任天堂官方图片进行测试:
qwen-vl-max 模型成功识别并分析:
技术指标:
使用任天堂官方图片进行测试:
测试单元结果(100%成功率):
技术指标:
阿里云 qwen-vl 模型的集成已经完全完成,包括:
推荐使用 qwen-vl-max 模型进行多模态任务,其稳定性和准确性都优于 qwen-vl-plus。