本站LLM
DeepSeek
模型名 | 平台 | 速度 | 并发限制 |
---|---|---|---|
deepseek-ai/deepseek-xxx | siliconflow | 5s+ | 1000/min |
hs-deepseek-xxx | 火山 | 2s-10s | 30000/min |
deepseek | 官转 | 3s+ | 10000/min |
相关参数
模型名 | 最大上下文 | 最大输出 | 最大推理长度 |
---|---|---|---|
deepseek-r1 | 64K token | 8k token | 32k token |
deepseek-v3 | 64K token | 8k token | - |
Temperature调整建议
场景 | Temperature(温度) |
---|---|
代码生成/数学解题 | 0.0 |
数据抽取/分析 | 1.0 |
通用对话 | 1.3 |
翻译 | 1.3 |
创意类写作/诗歌创作 | 1.5 |
Gemini1
相关参数
模型名 | 最大上下文 | 最大输出 | 最大输入 | 输入 | 函数/联网 |
---|---|---|---|---|---|
gemini-2.0-flash | 1M token | 8192 token | 1,048,576 token | 音频、图片、视频和文本 | 支持函数和联网 |
gemini-2.0-flash-lite | 1M token | 8192 token | 1,048,576 token | 音频、图片、视频和文本 | 不支持函数和联网 |
gemini-2.0-flash-thinking | 1M token | 65536 token | 1,048,576 token | 图片和文本 | 支持代码执行 |
gemini-2.0-pro | 2M token | 8192 token | 1,048,576 token | 音频、图片、视频和文本 | 支持函数和联网 |
等待补全
-
最新:指向指定生成和变体的尖端模型版本。底层模型会定期更新,并且可能是预览版。只有探索性测试应用和原型才应使用此别名。
如需指定最新版本,请使用以下格式:
<model>-<generation>-<variation>-latest
。例如 gemini-1.0-pro-latest。最新稳定版:指向为指定的模型生成和变体发布的最新稳定版。
如需指定最新的稳定版本,请使用以下模式:
<model>-<generation>-<variation>
。例如 gemini-1.0-pro。稳定:指向特定的稳定模型。稳定模型不会发生变化。 大多数正式版应用都应使用特定的稳定型号。
如需指定稳定版本,请使用以下模式:
<model>-<generation>-<variation>-<version>
。例如 gemini-1.0-pro-001。实验性:指向预览版中提供的实验性模型(如条款中所定义),这意味着该模型不适用于生产环境。我们发布实验性模型是为了收集反馈、快速将最新动态交到开发者手中,并突出展示 Google 的创新步伐。我们将通过发布实验版积累经验,以便我们的正式版模型能更好地服务更多用户。实验性模型可以在不事先通知的情况下换成另一个模型。我们不保证实验性模型将来会成为稳定模型。
如需指定实验版本,请使用以下格式:
<model>-<generation>-<variation>-<version>
。例如 gemini-2.0-pro-exp-02-05。为了简化开发和测试流程,您可以省略版本号,只使用 -exp,例如 gemini-2.0-pro-exp。此参数始终引用最新的实验性模型版本。 ↩