":{"code":"","message":"所有令牌分组 default 下对于模型 luma_fast_video 均无可
🚨 错误信息
任务执行失败:请求 API 出错:503, {"error":{"code":"","message":"所有令牌分组 default 下对于模型 luma_fast_video 均无可
🤖 AI解决方案
报错分析报告
1.错误翻译
原文:503 Service Unavailable
译文:服务不可用
2. 原因分析
luma_fast_video时,default令牌分组下无可用资源,触发503服务不可用错误。 message截断提示“均无可[用资源]”)。3.解决方案
python
import requests1. 配置参数(替换为实际值)
API_KEY = "your_dmxapi_key"
MODEL = "luma_fast_video"
TOKEN_GROUP = "default" # 原分组
API_BASE = "https://api.dmxapi.com/v1"2. 检查令牌分组下的模型可用性
def check_model_availability(group, model):
url = f"{API_BASE}/token_groups/{group}/models"
headers = {"Authorization": f"Bearer {API_KEY}"}
resp = requests.get(url, headers=headers)
return resp.status_code == 200 and model in resp.json().get("available_models", [])3. 修复逻辑:切换分组或模型
if not check_model_availability(TOKEN_GROUP, MODEL):
# 方案A:切换到有该模型的分组(需提前创建)
TOKEN_GROUP = "your_valid_group"
# 方案B:更换组内可用模型(如luma_slow_video)
# MODEL = "luma_slow_video" 4. 重新发起请求(示例)
req_url = f"{API_BASE}/models/{MODEL}/infer"
req_headers = {"Authorization": f"Bearer {API_KEY}", "Token-Group": TOKEN_GROUP}
req_payload = {"input": "your_input"} # 替换为实际参数
response = requests.post(req_url, headers=req_headers, json=req_payload)
print(response.json())
4.️ 预防措施
GET /token_groups/{group}/models接口验证模型可用性。