calling LLM: litellm.BadRequestError: OpenAIException - API 调用参数有误,请检查文档。

2026年02月25日 17:04 状态: processing

🚨 错误信息

Error calling LLM: litellm.BadRequestError: OpenAIException - API 调用参数有误,请检查文档。

🤖 AI解决方案

#代码糕手 - 报错分析报告

##


原文:Error calling LLM: litellm.BadRequestError: OpenAIException - API 调用参数有误,请检查文档。
译文:调用大语言模型时出错:litellm.BadRequestError: OpenAI异常 - API调用参数有误,请检查文档。

原因分析
这是一个API调用参数错误,通常发生在使用LiteLLM库调用OpenAI API时,传递了无效或不完整的参数。常见原因包括:

  • API密钥不正确或已过期

  • 模型名称拼写错误或不受支持

  • 请求参数格式不符合API要求

  • 缺少必需的参数(如messages解决方案

  • 检查并修正您的API调用代码:

    python

    修复示例 - 确保参数正确


    import litellm

    正确的调用方式


    response = litellm.completion(
    model="gpt-3.5-turbo", # 确认模型名称正确
    messages=[
    {"role": "user", "content": "Hello!"}
    ],
    api_key="your_valid_api_key_here", # 使用有效的API密钥
    temperature=0.7,
    max_tokens=100
    )

    或者使用环境变量设置API密钥


    export OPENAI_API_KEY="your_api_key"


    具体修复步骤:

  • 验证API密钥:确保使用的是有效且未过期的OpenAI API密钥

  • 检查模型名称:确认模型名称拼写正确(如gpt-3.5-turbogpt-4等)

  • 验证参数格式:确保messages参数是包含rolecontent的字典列表

  • 查看完整错误:启用详细日志查看具体哪个参数有问题
  • ##1. 参数验证:在调用API前,使用类型检查或验证函数确保参数格式正确

    python
    def validate_api_params(messages, model, api_key):
    if not isinstance(messages, list):
    raise ValueError("messages must be a list")
    if not api_key or not api_key.startswith("sk-"):
    raise ValueError("Invalid API key format")

  • 使用配置管理:将API配置集中管理,避免硬编码

  • python
    # config.py
    API_CONFIG = {
    "model": "gpt-3.5-turbo",
    "api_key": os.getenv("OPENAI_API_KEY"),
    "temperature": 0.7
    }

  • 推荐工具:使用Postman或curl先测试API调用,确认参数正确后再集成到代码中
  • ---

    遇到其他报错?随时提供错误信息,我将为您专业分析!