大数跨境
0
0

RK3588已经可以运行DeepSeek R1 1.5B

RK3588已经可以运行DeepSeek R1 1.5B 芯板坊
2025-02-09
1
导读:开发板跑起来DeepSeek,以及这些大模型,之后可能会越来越方便,越来越容易。

最近DeepSeek相当火啊,我也研究了一下,本地部署非常简单。

下载LM Studio,选择模型直接下载就行,我这边的电脑配置是AMD Ryzen 7700,48GB DDR5 6400,AMD RX7900GRE。

分别尝试了8B,14B,32B,70B模型。

我这边8B,14B都非常快速,32B速度会慢不少,用的Q3量化的模型,还可以接受。

70B模型用了Q1量化,模型大小16G左右,速度很慢,而且似乎效果也不太理想。

目前觉得14B,和32B,都还是非常可用的。

也就是说实际上,DeepSeek R1对配置需求也没那么高了,至少还是能部署玩玩的。

以我的经验上来看,模型是先加载到显存里,显存不够了之后,会到内存里。也就是说是看电脑显存内存的总和,也可以直接用CPU和内存跑,都能跑,只是速度相比较显存稍慢。

也有国外网友直接用双路CPU加上堆内存,堆个700G左右的内存,就能直接跑完整的671B的DeepSeek模型,只是速度没显卡快罢了。

而到了开发板上我估计也是如此,内存大,跑7B,8B模型应该不是很难。

最近我就看新闻,RK3588通过使用RKLLM toolkit,就在它6TOPS上的NPU上,跑起来了DeepSeek R1(Qwen2 1.5B)模型。

Radxa也提供了ModelScope的预编译RKLLM,可以自行尝试。

git clone https://www.modelscope.cn/radxa/DeepSeek-R1-Distill-Qwen-1.5B_RKLLM.git

Radxa是在Rock5B下跑起来的,香蕉派也在BPI-M7上成功了。

也就是说,开发板跑起来DeepSeek,以及这些大模型,之后可能会越来越方便,越来越容易。

让我们期待一下吧,之前我也介绍了香橙派的AI Studio,不说别的,如果它能跑大模型,那DeepSeek可能还真的有可能跑起来。

但是要跑完整的671B的DeepSeek,估计还是不行的,还是太大了,如果两个AI Studio Pro 192GB版本,不知道能不能搞起来。不过搞起来估计也和国外网友用CPU跑起来差不多,速度很慢。

开发板选型网站,欢迎大家访问,虽然还不是很完善,但是已经录入了500多个左右的开发板,如果你有兴趣,或者有需求的可以看看我们的选型网站,你有什么好的建议也可以在群里说或者给我们留言
我们网站的域名是:findboard.cn
(我们现在还没有对手机端进行适配,如果你是手机访问的话,暂时效果可能不会很让人满意,暂时建议使用电脑端浏览器访问

【声明】内容源于网络
0
0
芯板坊
芯板坊为您提供最全面国内外开发板资讯、评测、试用,折扣等信息,包括现今的热门开发板,如树莓派、Arduino、人工智能开发板、RK3588、STM32、开源硬件等
内容 1203
粉丝 0
芯板坊 芯板坊为您提供最全面国内外开发板资讯、评测、试用,折扣等信息,包括现今的热门开发板,如树莓派、Arduino、人工智能开发板、RK3588、STM32、开源硬件等
总阅读0
粉丝0
内容1.2k