RateLimitError.OpenAIException - f"error":f"message":"Not Found(request id:20260...

2026年01月12日 20:12 状态: processing

🚨 错误信息

Exception litellm.RateLimitError: RateLimitError.OpenAIException - f"error":f"message":"Not Found(request id:2026011217490293643445418465881)","type":"rix_api error","param":""'code":"upstream error"l} LiteLLM Retried: 10 times

🤖 AI解决方案

错误翻译


原文:Exception litellm.RateLimitError: RateLimitError.OpenAIException - f"error":f"message":"Not Found(request id:2026011217490293643445418665881)","type":"rix_api error","param":""'code":"upstream error"l} LiteLLM Retried: 10 times
译文:litellm.RateLimitError异常:RateLimitError.OpenAIException - 错误消息:"未找到(请求ID:2026011217490293643445418665881)",错误类型:"rix_api错误",参数:"",代码:"上游错误",LiteLLM已重试:10次

原因分析

这个错误根本上是 API端点配置错误或模型名称无效 导致的。

具体原因分析:

  • 主要错误:"Not Found" 表示 API 服务器找不到请求的资源(模型端点)

  • 错误类型rix_api errorupstream error 表明错误发生在路由代理层

  • 错误表现:LiteLLM 已经自动重试了10次,但每次都得到相同的404错误

  • 常见原因

  • - 错误的模型名称格式
    - 不存在的模型名称
    - 错误的 API 端点配置
    - OpenAI兼容API配置不正确

    ---

    解决方案

    python

    检查您的模型名称和配置


    原始可能有问题的代码:


    response = litellm.completion(


    model="错误的模型名称", # 问题可能在这里


    messages=[{"role": "user", "content": "你好"}]


    )

    修复后的代码示例:


    import litellm

    正确配置模型名称(示例,根据您的实际情况调整)


    response = litellm.completion(
    model="gpt-3.5-turbo", # 确保模型名称正确
    # 或者如果是自定义端点:
    # model="openai/custom-model-name",
    # api_base="https://your-custom-endpoint.com/v1", # 添加正确的API基础URL

    messages=[{"role": "user", "content": "你好"}],
    temperature=0.7,
    max_tokens=100
    )

    检查环境变量配置


    确保设置了正确的API密钥:


    os.environ["OPENAI_API_KEY"] = "your-api-key"

    如果是自定义端点,检查配置:


    print(litellm.get_llm_provider(model="your-model-name"))


    修复步骤:

  • 验证模型名称:检查 model 参数是否正确

  • 检查API端点:如果是自定义API,确保 api_base 配置正确

  • 检查网络连接:确保可以访问API服务器

  • 验证API密钥:确保相关环境变量已正确设置
  • ---

    ️ 预防措施

    1.测试API连接


    在使用前先进行简单的连接测试:
    python
    import litellm
    try:
    # 使用最基础的模型进行测试
    test_response = litellm.completion(
    model="gpt-3.5-turbo",
    messages=[{"role": "user", "content": "test"}],
    max_tokens=1
    )
    print("✅ API连接正常")
    except Exception as e:
    print(f"❌ 连接失败: {e}")

    2.列表验证


    在代码中添加模型验证逻辑:
    python
    def validate_model(model_name):
    """验证模型名称是否有效"""
    supported_models = litellm.model_list # 获取支持的模型列表
    if model_name not in supported_models:
    print(f"⚠️ 模型 '{model_name}' 不在支持列表中")
    print(f"可用模型: {supported_models[:5]}...") # 显示前5个
    return False
    return True

    推荐工具:

  • 使用 litellm.get_llm_provider() 函数检查模型配置

  • 开启调试模式:litellm.set_verbose=True 查看详细请求信息