Code: invalid_request_error, HTTP Status: 400)

2026年05月08日 21:46 状态: processing

🚨 错误信息

The `reasoning_content` in the thinking mode must be passed back to the API. (Model Provider Error Code: invalid_request_error, HTTP Status: 400)

🤖 AI解决方案

错误分析

1.错误翻译


``
原文:The
reasoning_content in the thinking mode must be passed back to the API. (Model Provider Error Code: invalid_request_error, HTTP Status: 400)
译文:在思考模式下的
reasoning_content 必须被传回给API。(模型提供商错误码:invalid_request_error,HTTP状态码:400)
`

2. 原因分析


  • 根本原因:您在调用API时启用了 “思考模式”(或类似“思维链”功能的模型选项),但未在后续的API请求中,将模型返回的 reasoning_content(推理过程)字段包含在请求体中。

  • 错误位置:发生在API请求的构建阶段。模型提供商(如 DeepSeek R1 等支持思维链的模型)要求,在使用该模式进行多轮对话或流式返回时,客户端必须将前一次响应中的推理内容作为上下文的一部分,传回给下一次API请求。
  • 3决方案


    修改您的API请求代码,在请求参数中包含
    reasoning_content 字段。

    示例修复代码 (Python/HTTP请求):

    python
    import requests
    import json

    假设这是你从上一次API响应中获取的推理内容


    previous_reasoning_content = "这是一段模型之前的推理过程..."

    headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
    }

    payload = {
    "model": "your-model-with-thinking",
    "messages": [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "你的新问题"}
    ],
    # !!!关键修复:将之前的推理内容传回
    "reasoning_content": previous_reasoning_content,
    # 如果流式返回,通常也需要设置 stream=True
    "stream": False
    }

    response = requests.post("https://api.example.com/v1/chat/completions",
    headers=headers,
    json=payload)

    print(response.json())

    4. 预防措施


  • 仔细阅读文档:在使用任何具有特殊功能(如思维链、工具调用)的模型前,务必仔细阅读其API文档,明确多轮交互时的上下文传递要求。

  • 完善响应解析:在代码中,确保正确解析并保存模型响应中的所有字段(如 reasoning_content),而不仅仅是 content`,以备后续请求使用。

  • 请求日志调试:在开发阶段,打印或记录完整的API请求和响应体,有助于快速定位类似字段缺失的问题。