错误码

您在调用 DeepSeek API 时,可能会遇到以下错误。这里列出了相关错误的原因及其解决方法。 错误码 描述 400 – 格式错误 原因:请求体格式错误解决方法:请根据错误信息提示修改请求体 401 – 认证失败 原因:API key 错误,认证失败解决方法:请检查您的 API key 是否正确,如没有 API key,请先 创建 API key 402 – 余额不足 原因:账号余额不足解决方法:请确认账户余额,并前往 充值 页面进行充值 422 – 参数错误 原因:请求体参数错误解决方法:请根据错误信息提示修改相关参数 429 – 请求速率达到上限 原因:请求速率(TPM 或 RPM)达到上限解决方法:请合理规划您的请求速率。 500 – 服务器故障 原因:服务器内部故障解决方法:请等待后重试。若问题一直存在,请联系我们解决 503 – 服务器繁忙 原因:服务器负载过高解决方法:请稍后重试您的请求

全文

限速

DeepSeek API 不限制用户并发量,我们会尽力保证您所有请求的服务质量。 但请注意,当我们的服务器承受高流量压力时,您的请求发出后,可能需要等待一段时间才能获取服务器的响应。在这段时间里,您的 HTTP 请求会保持连接,并持续收到如下格式的返回内容: 这些内容不影响 OpenAI SDK 对响应的 JSON body 的解析。如果您在自己解析 HTTP 响应,请注意处理这些空行或注释。 如果 30 分钟后,请求仍未完成,服务器将关闭连接。

全文

Token 用量计算

token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。 一般情况下模型中 token 和字数的换算比例大致如下: 但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage 中查看。 离线计算 Tokens 用量​ 您可以通过如下压缩包中的代码来运行 tokenizer,以离线计算一段文本的 Token 用量。 deepseek_v3_tokenizer.zip

全文

首次调用 API

DeepSeek API 使用与 OpenAI 兼容的 API 格式,通过修改配置,您可以使用 OpenAI SDK 来访问 DeepSeek API,或使用与 OpenAI API 兼容的软件。 PARAM VALUE base_url *        https://api.deepseek.com api_key apply for an API key * 出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。 * deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model=’deepseek-chat’ 即可调用 DeepSeek-V3。 * deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定&nbs

全文

////