Chat(OpenAI)
1、Chat接口
该接口兼容OpenAI的Chat接口格式,方便TorchV系统平台和开源生态工具做整合兼容。
请求地址:
POST https://${domain}/openapi/community/v1/chat/completions
注意:如果您在试用系统环境中,请将
api.torchv.com
替换成demo.torchv.com
请求Header
参数名称 | 类型 | 必填 | 描述 |
---|---|---|---|
Content-Type | string | 是 | 请求的数据格式,目前仅支持 JSON 格式,固定填写"application/json" |
Authorization | string | 是 | 请求鉴权的应用AccessToken,创建应用后获取。Bearer 开头,例如:Bearer ak_xxxx |
请求内容
{
//用户id
"user":"userid001",
// 模型编码,TorchV bot平台对接的支持的模型编码,参考附录3.2
"model":"glm-3-turbo",
"messages":[
{"role": "user", "content": "你好"},
{"role": "assistant", "content": "你好,请问有什么可帮您"}
],
// 是否流式SSE请求,false的情况,响应内容为application/json
"stream":true,
// 采样温度,控制输出的随机性,必须为正数取值范围是:(0.0,1.0],不能等于 0,默认值为 0.95
"temperature":0.95,
// 用温度取样的另一种方法,称为核取样取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7模型考虑具有 top_p 概率质量tokens的结果
// 例如:0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取tokens
// 建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数
"top_p":0.7
}
响应内容
{
"created": 1728817970913,
"id": "1845422441130663936",
"model": "glm-3-turbo",
"costTime": 2127,
"conversationId": "1845422441126469632",
"usage": {
"completion_tokens": 30,
"prompt_tokens": 7,
"total_tokens": 37
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "你好👋!我是人工智能助手智谱清言(ChatGLM),很高兴见到你,欢迎问我任何问题。"
}
}
]
}
2、Models
列出所有支持的模型接口
请求地址:
GET https://${domain}/openapi/community/v1/models
请求Header
参数名称 | 类型 | 必填 | 描述 |
---|---|---|---|
Content-Type | string | 是 | 请求的数据格式,目前仅支持 JSON 格式,固定填写"application/json" |
Authorization | string | 是 | 请求鉴权的应用AccessToken,创建应用后获取。Bearer 开头,例如:Bearer ak_xxxx |
响应JSON:
{
"object": "list",
"data": [
{
"id": "doubao-lite-32k", // 模型id
"object": "model",
"created": 1728817167357,
"owned_by": "火山引擎" // 模型制造商
},
//......
]
}