Skip to main content

Chat(OpenAI)

1、Chat接口

该接口兼容OpenAI的Chat接口格式,方便TorchV系统平台和开源生态工具做整合兼容。

请求地址:

POST https://${domain}/openapi/community/v1/chat/completions

注意:如果您在试用系统环境中,请将api.torchv.com替换成demo.torchv.com

请求Header

参数名称类型必填描述
Content-Typestring请求的数据格式,目前仅支持 JSON 格式,固定填写"application/json"
Authorizationstring请求鉴权的应用AccessToken,创建应用后获取。Bearer 开头,例如:Bearer ak_xxxx

请求内容

{
//用户id
"user":"userid001",
// 模型编码,TorchV bot平台对接的支持的模型编码,参考附录3.2
"model":"glm-3-turbo",
"messages":[
{"role": "user", "content": "你好"},
{"role": "assistant", "content": "你好,请问有什么可帮您"}
],
// 是否流式SSE请求,false的情况,响应内容为application/json
"stream":true,
// 采样温度,控制输出的随机性,必须为正数取值范围是:(0.0,1.0],不能等于 0,默认值为 0.95
"temperature":0.95,
// 用温度取样的另一种方法,称为核取样取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7模型考虑具有 top_p 概率质量tokens的结果
// 例如:0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取tokens
// 建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数
"top_p":0.7
}

响应内容

{
"created": 1728817970913,
"id": "1845422441130663936",
"model": "glm-3-turbo",
"costTime": 2127,
"conversationId": "1845422441126469632",
"usage": {
"completion_tokens": 30,
"prompt_tokens": 7,
"total_tokens": 37
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "你好👋!我是人工智能助手智谱清言(ChatGLM),很高兴见到你,欢迎问我任何问题。"
}
}
]
}

2、Models

列出所有支持的模型接口

请求地址:

GET https://${domain}/openapi/community/v1/models

请求Header

参数名称类型必填描述
Content-Typestring请求的数据格式,目前仅支持 JSON 格式,固定填写"application/json"
Authorizationstring请求鉴权的应用AccessToken,创建应用后获取。Bearer 开头,例如:Bearer ak_xxxx

响应JSON:

{
"object": "list",
"data": [
{
"id": "doubao-lite-32k", // 模型id
"object": "model",
"created": 1728817167357,
"owned_by": "火山引擎" // 模型制造商
},
//......
]
}