创建模型响应
本接口用于创建模型响应请求,支 持多轮对话、工具调用、结构化输出等高级功能。通过 Responses API,您可以构建更加灵活和强大的 AI 应用。
开通服务
请求方法
POST:<ai-api-base-url>/llm/v1/responses
其中,<ai-api-base-url>
为您的 API Key 所属数据中心的域名:
- 北京数据中心:
https://ai.rong-api.com
- 北美数据中心:
https://ai.us-light-api.com
提示
在多轮连续对话中,建议在每次请求之间加入约 100 毫秒的延迟,否则可能会导致调用失败。
请求头参数
参数名 | 类型 | 必传 | 默认值 | 说明 |
---|---|---|---|---|
Authorization | string | 是 | - | 身份认证令牌,格式为 Bearer <your API key> ,需替换为实际 API Key,用于验证用户权限。 |
正文参数
基础参数
参数名 | 类型 | 必传 | 默认值 | 说明 |
---|---|---|---|---|
model | string | 是 | - | 您需要调用的模型。支持的模型:
|
input | string/array | 是 | - | 输入的内容,模型需要处理的输入信息。详见输入参数说明。 |
instructions | string/null | 否 | null | 在模型上下文中插入系统消息或者开发者作为第一条指令。当与 previous_response_id 一起使用时,前一个回复中的指令不会被继承到下一个回复中。注意:不可与缓存能力一起使用。配置了 instructions 字段后,本轮请求无法写入缓存和使用缓存,表现为:
|
previous_response_id | string/null | 否 | null | 上一个模型回复的唯一标识符。使用该标识符可以实现多轮对话。 注意:在多轮连续对话中,建议在每次请求之间加入约 100 毫秒的延迟,否则可能会导致调用失败。 |
expire_at | integer | 否 | 创建时刻+259200 | 设置存储的过期时刻,需传入 UTC Unix 时间戳(单位:秒),取值范围:(创建时刻, 创建时刻+259200],即最多保留3天。对 store(上下文存储)和 caching(上下文缓存)都生效。 注意:缓存存储时间计费,过期时刻-创建时刻,不满 1 小时按 1 小时计算。 |
max_output_tokens | integer/null | 否 | null | 模型输出最大 token 数,包含模型回答和思维链内容。 |
输出控制参数
参数名 | 类型 | 必传 | 默认值 | 说明 |
---|---|---|---|---|
temperature | float/null | 否 | 1 | 采样温度,取值范围:[0, 2]。控制了生成文本时对每个候选词的概率分布进行平滑的程度。较高的值(如 0.8)会使输出更加随机,较低的值(如 0.2)会使输出更加集中确定。 建议 |