大模型翻译相对于传统翻译效果是完全不一样的,整体效果会好很多。
目前市面上已经有多款免费大模型,如何才能用在翻译上呢?目前市面上最好用最火的当属沉浸式翻译这个产品。
如何集合各个免费大模型在沉浸式翻译当中使用呢?这里首先需要解决几个问题:
- 协议统一:得按照openai的协议来,因此得有一个能将各家模型统一协议的转发软件(
simple-one-api
和one-api
都可以) - 并发限制:能够自动负载,将请求转发给各家模型,这样避免并发限制
我们用simple-one-api
来实现。
大模型 | 免费版本 | 控制台(api_key等) | 文档地址 | 备注 |
---|---|---|---|---|
讯飞星火大模型 | spark-lite |
链接 | 链接 | tokens:总量无限 QPS:2 有效期:不限 |
百度千帆大模型平台 | yi_34b_chat , ERNIE-Speed-8K , ERNIE-Speed-128K , ERNIE-Lite-8K , ERNIE-Lite-8K-0922 , ERNIE-Tiny-8K |
链接 | 链接 | Lite、Speed-8K:RPM = 300,TPM = 300000 Speed-128K:RPM = 60,TPM = 300000 |
腾讯混元大模型 | hunyuan-lite |
链接 | 链接 | 限制并发数为 5 路 |
- 首先进入到设置当中
- 选择翻译服务,选中OpenAI,点去修改
- 输入后台设置的自定义模型列表这里我们填入了列表
spark-lite,ERNIE-Speed-8K,hunyuan-lite,random
- 将模型设置为
random
,然后随机选一个模型使用
- 设置部署simple-one-api的服务地址
- 最后测试服务是否通畅
参考simple-one-api使用方法,将simple-one-api
部署起来
load_balancing
就是为自动选择模型来配置的,支持random
,会从全局可用的模型中(即enabled
为true
),自动随机选一个的模型调用。
{
"api_key":"sk-123456"
"server_port":":9090",
"load_balancing": "random",
"services": {
"qianfan": [
{
"models": ["yi_34b_chat", "ERNIE-Speed-8K", "ERNIE-Speed-128K", "ERNIE-Lite-8K", "ERNIE-Lite-8K-0922", "ERNIE-Tiny-8K"],
"enabled": true,
"credentials": {
"api_key": "xxx",
"secret_key": "xxx"
}
}
],
"xinghuo": [
{
"models": ["spark-lite"],
"enabled": true,
"credentials": {
"appid": "xxx",
"api_key": "xxx",
"api_secret": "xxx"
},
"server_url": "ws://spark-api.xf-yun.com/v1.1/chat"
}
],
"hunyuan": [
{
"models": ["hunyuan-lite"],
"enabled": true,
"credentials": {
"secret_id": "xxx",
"secret_key": "xxx"
}
}
]
}
例如客户端选择只用spark-lite
,然后注册了多个账号有多个appid
授权信息,可以按照下面这样配置,会随机credentials
,这样每次请求会随机找一个可"enabled": true
的spark-lite
的进行调用。
{
"api_key":"123456",
"load_balancing": "random",
"xinghuo": [
{
"models": ["spark-lite"],
"enabled": true,
"credentials": {
"appid": "xxx",
"api_key": "xxx",
"api_secret": "xxx"
}
},
{
"models": ["spark-lite"],
"enabled": true,
"credentials": {
"appid": "xxx",
"api_key": "xxx",
"api_secret": "xxx"
}
}
]
}