国产大模型API对接

以下是文心大模型、豆包大模型和千问大模型的横向对比表格,涵盖了文本长度、价格、模型参数、接入方式等关键指标:

指标/模型
文心大模型
豆包大模型
千问大模型
分类
lite/speed/3.5/4.0
Lite/pro
Turbo/plus/max
文本长度
8k-128k
4k/32k/128k/256k
32k-128k
计费类型
输入、输出、搜索
输入、输出、搜索
输入、输出
模型参数
百亿/千亿
7B/72B
接入方式
API/SDK
API/SDK
API/SDK
是否兼容OpenAI协议
V2兼容
是否支持FunctionCall
部分支持
部分支持

具体使用体验如下:

文心大模型

文档地址:https://cloud.baidu.com/doc/WENXINWORKSHOP/s/flfmc9do2

  1. 处理上下文时需自行截取token,否则可能因提示词超长而报错。
  2. 对于通用文本,建议使用3.5-8k的token以保证效果;长文本处理建议使用3.5-128k。
  3. 可以先试用免费的speed模型,提供8k和128k两种选项,响应速度快,可以用做看重耗时的推理,但服务稳定性可能略有不足。
  4. V1接口默认支持实时搜索功能。

豆包大模型

文档地址:https://www.volcengine.com/docs/82379/1263272

  1. 若需联网功能,需在火山方舟平台开通智能体并勾选联网功能,模型默认不包含实时搜索。
  2. 首token响应速度快,但有时回答可能不够准确,可能与依赖的信息源质量有关,大多数情况下表现正常。
  3. 新增视觉模型能够进行图片理解。

千问大模型

文档地址:https://help.aliyun.com/zh/model-studio/user-guide/text-generation/?spm=a2c4g.11186623.help-menu-2400256.d_1_0_0.74b04823Jx4Olq

  1. 推荐使用qwen-plus,其速度、效果和价格均表现均衡。
  2. 支持实时搜索功能,千问VL支持图片理解。
  3. 千问Long支持千万字文档处理,非常适合长文档场景。

以上大模型均提供百万token的免费额度,适合新用户开通体验。它们的文档全面,对接流程快捷方便。


点击扫码分享至微信