moon pilot + deepseek-v3 报错

错误内容:

 [LLM] request failed with status 400: {"error":{"message":"Invalid max_tokens value, the valid range of max_tokens is [1,                                       │
│ 8192]","type":"invalid_request_error","param":null,"code":"invalid_request_error"}}                                                                             │
│                                                                                                                                                                 │
│ Detailed Error Information:                                                                                                                                     │
│ Error Type: Error                                                                                                                                               │
│                                                                                                                                                                 │
│ Please try again or use a different approach.

我的配置为:

[
  {
	"name": "deepseek-v3",
	"description": "Deepseek v3 尝试",
	"model_name": "deepseek-chat",
	"model_type": "saas/openai",
	"base_url": "https://api.deepseek.com",
	"is_reasoning": false,
	"input_price": 0.25,
	"output_price": 0.85,
	"max_output_tokens": 8000,
	"context_window": 128000,
	"api_key": "XXX"
  }
  
]

目前推荐使用 OpenRouter里的 sonnet 4哦。 v3的问题在于现在发布的版本有个bug,没有 respect max_output_tokens 参数(而是使用了默认值10240),我们争取下个版本修正这个问题。

1 个赞

得加油啦,除了deepseek其他平台一天只能跑几千万个token就到极限了,输出一个项目的Token都跑不完,过去一个月了有没有在努力解决问题啊。。。