大数跨境
0
0

英伟达 V100 尚能饭否?看单卡 V100 如何运行 Ollama 并加载 DeepSeek-R1 蒸馏模型

英伟达 V100 尚能饭否?看单卡 V100 如何运行 Ollama 并加载 DeepSeek-R1 蒸馏模型 Spader.AI与星以舟
2025-05-26
0
导读:本篇文章将介绍如何在国内网络环境中手动安装 Ollama,并在一台单卡 Nvidia V100 服务器上运行 DeepSeek-R1 模型(蒸馏版),并通过 nvtop 实时查看显卡资源变化。

作者:SpaderMan 

随着本地模型推理逐渐普及,Ollama 凭借其简洁的模型管理和运行方式,成为不少开发者优先选择的工具之一。本篇文章将介绍如何在国内网络环境中手动安装 Ollama,并在一台单卡 Nvidia V100 服务器上运行 DeepSeek-R1 模型(蒸馏版),并通过 nvtop 实时查看显卡资源变化。

准备工作

手动下载 Ollama 安装包(需科学上网)

由于国内网络环境限制,直接访问 Ollama GitHub 仓库[1] 可能存在困难或速度很慢。推荐使用科学上网工具,手动从以下链接下载对应系统的安装包:

  • 访问链接:https://github.com/ollama/ollama/releases
  • 找到适合你系统的 .tar.gz 或 .deb 文件(以 Linux x86_64 为例) 或按照 Linux 安装指南[2] 手动下载安装包

下载完成后,务必使用 sha256sum 校验完整性:

sha256sum ollama-linux-amd64.tgz

对比 GitHub 上提供的 SHA 值,确保一致。

准备服务器:单卡 V100 GPU

本文使用具备 Nvidia V100 显卡的服务器,如需复刻此测试,可联系 Spader.AI[3] 申请 V100 测试资源。

由于 V100 有 32G 显存,可以覆盖到 DeepSeek R1 量化版 32b 蒸馏模型:

  • 系统:Ubuntu 20.04+
  • GPU:Nvidia V100 32GB
  • 驱动要求:CUDA 11.x 或以上
  • 依赖:Nvidia Container Toolkit

创建服务器后,建议更新系统并安装基本工具:

sudo apt update && sudo apt upgrade -y

安装 Ollama

将安装包拷贝到服务器

使用 scp 工具从本地将安装包上传到 V100 服务器:

scp ollama-linux-amd64.tgz user@server-ip:/home/user/

或使用服务器自带的 JupyterLab(大多数 GPU 云厂商都预置此工具)文件上传功能。

上传完成后,在服务器端再次校验完整性:

sha256sum ollama-linux-amd64.tgz

解压并检查 GPU 支持

解压并查看 /usr/lib/ollama 下是否正确安装了 GPU 所需库:

sudo tar -C /usr -xzf ollama-linux-amd64.tgz
ls /usr/lib/ollama

确认存在如 libggml-cuda.so 等文件。

启动 Ollama Server

ollama serve

运行 DeepSeek-R1 蒸馏版模型

参考:DeepSeek-R1 模型页面[4]

拉取模型

使用以下命令拉取蒸馏版本的模型:

ollama run deepseek-r1:7b [--verbose]

初次运行会下载模型权重并缓存至本地,耐心等待。
下载完毕可以体验一下模型:
ollama-ds

监控 GPU 使用情况

安装 nvtop

在另一个终端窗口中,运行以下命令安装 GPU 资源监控工具:

sudo apt install nvtop

实时查看资源变化

运行以下命令打开监控界面:

nvtop

你将看到 GPU 使用率、温度、功耗和显存占用的实时信息。

显存需求参考

以下为 DeepSeek-R1 模型页面[5] 中提供的不同量化版本对显存的实际测试需求:

模型版本
显存需求(约)
模型大小(约)
eval rate (tokens/s)
deepseek-r1:1.5b
2GB
1.1GB
145
deepseek-r1:7b
5.6GB
4.7GB
90
deepseek-r1:8b
6.4GB
4.9GB
89
deepseek-r1:14b
11GB
9GB
52
deepseek-r1:32b
21GB+
19GB
29

顺便测了一下模型 deepseek-r1:7b 在其它显卡上的性能如下:

显卡
eval rate (tokens/s)
A100
103
V100
90
T4
36

注意:模型显存需求与上下文长度和并发请求数也有关系,以上为单次推理的数值。

总结

通过手动下载和部署 Ollama,即使在国内网络环境中,我们依然可以高效运行诸如 DeepSeek-R1 这样的开源模型。借助 V100 GPU,我们能够轻松测试多种模型版本,探索本地大模型推理的新可能。

如果你也尝试了其他模型,欢迎联系我们分享你的显卡配置与加载效果!

关于 Spader.AI

Spader.AI,北京与星以舟智能科技有限公司,是一支专注于人工智能与云计算技术的创新团队,致力于推动前沿技术的发展和实际应用。
我们构建高性能、可扩展的 AI 基础设施,提供灵活、安全的智能解决方案,帮助企业轻松应对复杂计算任务,加速 AI 应用落地。我们相信,智能技术应当开放、可及,并真正创造价值。因此,我们不断优化算法与架构,以提升算力效率、降低使用门槛,让人工智能成为推动产业升级的重要驱动力。

如果您对高性价比算力、大模型训练训练及推理以及相关业务场景的技术感兴趣,或者对本篇分享中提到的某些观点有自己的见解希望讨论,扫码秒加 SpaderMan 客服,SpaderMan 会带您入群,和各领域技术大佬共同探讨最前沿的 AI 技术。

引用链接

[1] 

Ollama GitHub 仓库: https://github.com/ollama/ollama

[2] 

Linux 安装指南: https://github.com/ollama/ollama/blob/main/docs/linux.md

[3] 

Spader-AI: https://spader-ai.com/

[4] 

DeepSeek-R1 模型页面: https://ollama.com/library/deepseek-r1

[5] 

DeepSeek-R1 模型页面: https://ollama.com/library/deepseek-r1


【声明】内容源于网络
0
0
Spader.AI与星以舟
星舟引航,算力智汇
内容 15
粉丝 0
Spader.AI与星以舟 星舟引航,算力智汇
总阅读0
粉丝0
内容15