易于使用
Ollama 的 API 简洁易用,可轻松加载、运行 LLM 并与其交互。您无需具备丰富的编程知识,即可快速上手完成基本任务。
GPU物理服务器-A4000
GPU物理服务器 - V100
GPU物理服务器 - A5000
GPU物理服务器 - A6000
型号名称 | 参数 | 模型尺寸 | 推荐的 GPU 卡 |
DeepSeek R1 | 7B | 4.7GB | GTX 1660 6GB 或更高 |
DeepSeek R1 | 8B | 4.9GB | GTX 1660 6GB 或更高 |
DeepSeek R1 | 14B | 9.0GB | RTX A4000 16GB 或更高版本 |
DeepSeek R1 | 32B | 20GB | RTX 4090, RTX A5000 24GB, A100 40GB |
DeepSeek R1 | 70B | 43GB | RTX A6000, A40 48GB |
DeepSeek R1 | 671B | 404GB | 尚不支持 |
Deepseek-coder-v2 | 16B | 8.9GB | RTX A4000 16GB 或更高版本 |
Deepseek-coder-v2 | 236B | 133GB | 2xA100 80GB, 4xA100 40GB |