AIGC宇宙 AIGC宇宙

免费GPU算力部署DeepSeek-R1 32B

前言DeepSeek-R1发布最新版本DeepSeek-R1-0528,显著提升了模型的思维深度与推理能力,在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。 另外,API接口还增加了Function Calling和JsonOutput 的支持。 DeepSeek-R1团队已经证明,大模型的推理模式可以蒸馏到小模型中,与通过强化学习在小模型上发现的推理模式相比,性能更优。

免费GPU算力部署DeepSeek-R1 32B

前言

DeepSeek-R1发布最新版本DeepSeek-R1-0528,显著提升了模型的思维深度与推理能力,在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。另外,API接口还增加了Function Calling和JsonOutput 的支持。

免费GPU算力部署DeepSeek-R1 32B

DeepSeek-R1团队已经证明,大模型的推理模式可以蒸馏到小模型中,与通过强化学习在小模型上发现的推理模式相比,性能更优。ollma上可以下载不同参数尺寸(1.5B到70B)的蒸馏模型,参数越大,性能越好。

飞桨AI Studio每日免费提供GPU算力资源,具体配置如下:

  • V100 16GB显存:可以跑14B尺寸模型,每日免费使用4小时。
  • VT100 32GB显存:可以跑32B尺寸模型,每日免费使用2.7小时。

创建项目

打开https://aistudio.baidu.com/account,点击右上方“登录”按钮,用百度账号登录即可。

打开https://aistudio.baidu.com/my/project,点击右上方“创建项目”,选择“Notebook”,会弹出下方的对话框。填写“项目名称”,点击创建。

免费GPU算力部署DeepSeek-R1 32B

在打开的页面中,点击上面的“未运行”。

免费GPU算力部署DeepSeek-R1 32B

在弹出的页面中,选择“基础版”运行环境。“基础版”运行环境免费不限时,用于下载ollama和deepseek模型。等下载完后再切换到GPU环境。

免费GPU算力部署DeepSeek-R1 32B

环境启动后,点击右上角的“专业开发”,进入Codelab IDE界面。

免费GPU算力部署DeepSeek-R1 32B

Codelab IDE界面如下:

免费GPU算力部署DeepSeek-R1 32B

安装ollama

设置目录

在Codelab IDE界面中,选择“文件”=》“新建”=》“终端”,进入shell界面,执行以下命令(每次启动环境都要执行),以便ollama下载的模型能保存在~/work/.ollama,这样才能持久化保存。

复制
cd ~/work && mkdir -p .ollama && ln -sfn ~/work/.ollama ~/

下载ollama

飞桨AI Studio无法访问github,需通过代理网站ghproxy.cn进行下载。命令如下:

复制
cd ~/work
wget -c https://ghproxy.cn/https://github.com/ollama/ollama/releases/download/v0.8.0/ollama-linux-amd64.tgz
tar zxf ollama-linux-amd64.tgz

下载deepseek模型

启动ollama服务。

复制
~/work/bin/ollama serve

新建终端,输入命令下载deepseek-r1 32b模型。

复制
~/work/bin/ollama pull deepseek-r1:32b

如果发现下载速度低于1MB/s,可尝试重新执行pull(但不要重启ollama serve的进程)。

启动deepseek

切换到GPU环境

打开https://aistudio.baidu.com/my/project,停止运行中的CPU环境 。

免费GPU算力部署DeepSeek-R1 32B

点击项目,在项目详情页面中,点击上面的“未运行”。

免费GPU算力部署DeepSeek-R1 32B

在弹出的页面中,选择“V100 32GB”运行环境。每天免费获得8点算力,可用2.7小时,昨天用剩的算力可以结余到今天使用。

免费GPU算力部署DeepSeek-R1 32B

因为切换环境,系统需要同步文件,在Codelab IDE右下角会有同步进度显示。

免费GPU算力部署DeepSeek-R1 32B

启动ollama服务

复制
cd ~/work && mkdir -p .ollama && ln -sfn ~/work/.ollama ~/  && ~/work/bin/ollama serve

启动DeepSeek

新建终端,输入以下命令启动deepseek。

复制
~/work/bin/ollama run deepseek-r1:32b

运行成功后就可以开始体验deepseek的魅力了。

测试

下图为经典问题:9.9和9.11比较,哪个更大。

免费GPU算力部署DeepSeek-R1 32B

总结

本文介绍利用飞桨AI Studio每日免费提供GPU算力资源部署DeepSeek-R1 32B。进一步,还可以通过frp内网穿透让windows部署的Dify连接飞桨服务器上部署的ollama。另外,我们也可以利用GPU算力学习其它知识:模型微调,模型训练,深度学习训练等。

相关资讯

没有数据、没有GPU的情况下怎么训练DeepSeek

春节期间,AI 界热闹非凡,到处都是关于 DeepSeek 的报道。 大家都知道,训练好的模型通常需要昂贵的专用 GPU,这对很多想试试微调技术的人来说,真是一道门槛。 好消息来了:你完全可以用免费的 Google Colab Notebook 来实现微调。
2/13/2025 9:45:31 AM
MobotStone

DeepSeek开源周第六天:极致推理优化系统,提高GPU计算效率

在人工智能(AI)技术快速发展的今天,DeepSeek 团队推出了其全新的 DeepSeek-V3/R1推理系统。 这一系统旨在通过更高的吞吐量和更低的延迟,推动 AGI(通用人工智能)的高效发展。 为了实现这一目标,DeepSeek 采用了跨节点专家并行(Expert Parallelism,EP)技术,显著提高了 GPU 的计算效率,并在降低延迟的同时,扩展了批处理规模。
3/3/2025 9:45:00 AM
AI在线

扎克伯格表示,2025年底Meta将拥有130万个用于AI的GPU

Meta 首席执行官马克・扎克伯格在最近的一篇 Facebook 帖子中宣布,公司计划在2025年大幅提升资本支出,旨在在激烈的人工智能竞争中保持领先地位。 扎克伯格表示,Meta 预计在2025年的资本支出将达到600亿到800亿美元,主要用于数据中心建设和扩充 AI 开发团队。 这一预算范围几乎是 Meta 去年350亿到400亿美元支出的两倍。
1/25/2025 10:26:00 AM
AI在线
  • 1