国产大模型API对接
以下是文心大模型、豆包大模型和千问大模型的横向对比表格,涵盖了文本长度、价格、模型参数、接入方式等关键指标:
|
|
|
|
---|---|---|---|
分类 |
|
|
|
文本长度 |
|
|
|
计费类型 |
|
|
|
模型参数 |
|
|
|
接入方式 |
|
|
|
是否兼容OpenAI协议 |
|
|
|
是否支持FunctionCall |
|
|
|
具体使用体验如下:
文心大模型:
文档地址:https://cloud.baidu.com/doc/WENXINWORKSHOP/s/flfmc9do2
-
处理上下文时需自行截取token,否则可能因提示词超长而报错。 -
对于通用文本,建议使用3.5-8k的token以保证效果;长文本处理建议使用3.5-128k。 -
可以先试用免费的speed模型,提供8k和128k两种选项,响应速度快,可以用做看重耗时的推理,但服务稳定性可能略有不足。 -
V1接口默认支持实时搜索功能。
豆包大模型:
文档地址:https://www.volcengine.com/docs/82379/1263272
-
若需联网功能,需在火山方舟平台开通智能体并勾选联网功能,模型默认不包含实时搜索。 -
首token响应速度快,但有时回答可能不够准确,可能与依赖的信息源质量有关,大多数情况下表现正常。 -
新增视觉模型能够进行图片理解。
千问大模型:
文档地址:https://help.aliyun.com/zh/model-studio/user-guide/text-generation/?spm=a2c4g.11186623.help-menu-2400256.d_1_0_0.74b04823Jx4Olq
-
推荐使用qwen-plus,其速度、效果和价格均表现均衡。 -
支持实时搜索功能,千问VL支持图片理解。 -
千问Long支持千万字文档处理,非常适合长文档场景。
以上大模型均提供百万token的免费额度,适合新用户开通体验。它们的文档全面,对接流程快捷方便。