Code: invalid_request_error, HTTP Status: 400)
🚨 错误信息
The `reasoning_content` in the thinking mode must be passed back to the API. (Model Provider Error Code: invalid_request_error, HTTP Status: 400)
🤖 AI解决方案
错误分析
``
请求日志调试:在开发阶段,打印或记录完整的API请求和响应体,有助于快速定位类似字段缺失的问题。
1.错误翻译
``
原文:The reasoning_content in the thinking mode must be passed back to the API. (Model Provider Error Code: invalid_request_error, HTTP Status: 400)
译文:在思考模式下的 reasoning_content 必须被传回给API。(模型提供商错误码:invalid_request_error,HTTP状态码:400)
`2. 原因分析
根本原因:您在调用API时启用了 “思考模式”(或类似“思维链”功能的模型选项),但未在后续的API请求中,将模型返回的 reasoning_content(推理过程)字段包含在请求体中。
错误位置:发生在API请求的构建阶段。模型提供商(如 DeepSeek R1 等支持思维链的模型)要求,在使用该模式进行多轮对话或流式返回时,客户端必须将前一次响应中的推理内容作为上下文的一部分,传回给下一次API请求。 3决方案
修改您的API请求代码,在请求参数中包含 reasoning_content 字段。示例修复代码 (Python/HTTP请求):
python
import requests
import json假设这是你从上一次API响应中获取的推理内容
previous_reasoning_content = "这是一段模型之前的推理过程..." headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "your-model-with-thinking",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你的新问题"}
],
# !!!关键修复:将之前的推理内容传回
"reasoning_content": previous_reasoning_content,
# 如果流式返回,通常也需要设置 stream=True
"stream": False
}
response = requests.post("https://api.example.com/v1/chat/completions",
headers=headers,
json=payload)
print(response.json())
4. 预防措施
仔细阅读文档:在使用任何具有特殊功能(如思维链、工具调用)的模型前,务必仔细阅读其API文档,明确多轮交互时的上下文传递要求。
完善响应解析:在代码中,确保正确解析并保存模型响应中的所有字段(如 reasoning_content),而不仅仅是 content`,以备后续请求使用。