litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(tracei...
🚨 错误信息
litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}}
httpx.HTTPStatusError: Client error '422 Unprocessable Entity' for url 'https://www.dmxapi.cn/v1/responses'
支持/responses吗?还是只支持/chat/completions?
🤖 AI解决方案
错误翻译
原文:litellm.exceptions.BadRequestError: litellm.BadRequestError: OpenAIException - {"error":{"message":"请提供请求的上下文(traceid: 22722e16fb947f18ad300f1a09d8e538)","type":"rix_api_error","param":"","code":null}}
译文:LiteLLM错误请求错误:OpenAI异常 - 请提供请求的上下文(追踪ID:22722e16fb947f18ad300f1a09d8e538)
原因分析
该错误表明DMXAPI平台要求使用
/chat/completions 端点,但代码中尝试使用了不支持的 /responses 端点。解决方案
将API调用从
/responses 改为 /chat/completions:python
错误的方式
response = client.post("https://www.dmxapi.cn/v1/responses", ...)正确的方式
response = client.post("https://www.dmxapi.cn/v1/chat/completions", ...)
️ 预防措施
/chat/completions 端点而非自定义端点