AIGC宇宙 AIGC宇宙

618想换电脑跑AI?先听我一句劝!

最近 618 开始了,又到了一年一度换设备的日子。 端午节之后,就有好几个朋友问我,你的电脑用的是啥配置的。 我一般就会发两张图过去。

618想换电脑跑AI?先听我一句劝!

最近 618 开始了,又到了一年一度换设备的日子。

端午节之后,就有好几个朋友问我,你的电脑用的是啥配置的。

我一般就会发两张图过去。

618想换电脑跑AI?先听我一句劝!

618想换电脑跑AI?先听我一句劝!

他们一般就会发一个地铁老头看手机的表情,然后问:

想买一台学 AI 的笔记本,有没有什么推荐的。

618想换电脑跑AI?先听我一句劝!

我每次总会反问一句话:

学 AI?你主要学啥。

对方就会跟我说,搞个知识库,画画图,做做 AI 编程,学学 AI 视频啥的。

这时候我就会问他们,你是有很多的不能上云端的隐私数据吗,还是你要在本地玩一些自定义或者很特别的工作流?

这时候有朋友就懵逼了。。。

说啊?这些是啥?玩 AI 不需要好配置的吗。

反过来给我也问懵了。

所以,我觉得,我还是想写一篇文章,来给大家聊一聊,到底什么样的 AI,适合在本地跑,什么样的 AI,适合在云端跑,什么样的 AI,直接网页上用就行了。

也算是做个科普,如果看完了以后,你觉得,你确实有必要买一台新电脑的话,文末我也挑了几款我自己觉得还不错的,618+国补确实价格还行,可以去看看。

什么样的 AI 适合在本地跑,其实一般只看两个点:

  1. 对算力的要求是多少。
  2. 是否有安全、保密的隐私需求。

模型的参数量种类有很多很多,1.5B,8B,14B,32B...

比如 Qwen 家的,参数一堆。

618想换电脑跑AI?先听我一句劝!

哪些能在本地跑,哪些不能在本地跑,要搞清楚这个,我们首先得做点小学二年级数学题....

B 全称为 Billion,十亿。

1B 的模型就说明有 10 亿个参数,一个全精度的参数为 4 个字节,那么 1B 的模型为 40 亿字节。

1GB 恰好为 10 亿个字节,也就是说,跑一个 1B 的参数需要 4GB 的显存。

但是对于大模型推理来说,全精度(FP32)太浪费资源了,所以大多数,我们会跑半精度(FP16)或者 INT8 量化的模型,也就是一个参数占 2 个字节或者 1 个字节。

这样,跑一个 1B 的参数只需要 2GB 显存,跑一个 8B 的参数只需要 16GB 显存。

虽然在推理的时候,还需要一定的显存做上下文缓存,但是加上量化,推理优化等等方法,本地 16GB 显存跑一个 8B 的模型还是 OK 的。

比如说,前两天 DeepSeek 在 qwen3-8B 蒸馏出的 deepSeek-R1-0528-Qwen3-8B 模型可以完完全全部署在本地跑。

618想换电脑跑AI?先听我一句劝!

有了这个概念之后,你就会知道,虽然本地部署大语言模型的方法多种多样,不管是 ollama,还是 LM studio,或者 vllm,你只需要关注三点:

  1. 模型的参数量。
  2. 模型是否量化。
  3. 你的显卡显存。

基本上,14B 及以上的模型跑在本地还是很麻烦,比如一个 INT8 的 14B 模型,我在 5080 上跑,很慢,而且留给 KV 缓存的空间很少,真要跑,还是 4090 或者 5090 会好一些。

14B 以下的模型,需要你自己评估一下参数量以及显存的大小。

上面谈到的都是语言模型,那么图像模型,视频模型,音频模型,3D 模型呢,其实基本差不多,一样的道理。

比如大家都熟悉的 ComfyUI,一个强大的生产力工具,可以生成图像,视频,音频,3D 模型;但是在本地使用 ComfyUI 的前提是,你的显卡得 hold 得住这些模型。

ComfyUI 官方推荐了一些模型,这些模型参数量多少,需要多少显存我都列在了这里。

618想换电脑跑AI?先听我一句劝!

上面说了这么多,你肯定对什么样的配置能在本地跑模型,有一些自己的想法了。

但是这时候你可能又会问,本地跑模型到底有哪些好处,为什么非得跑在本地啊,我去网页上用不香么?

所以这里要说的,就是隐私安全与合规性问题了,如果你有很重要的数据不希望泄露或者出现在别人和模型的对话中,比如商业机密,医疗数据等等,那么你只能选择本地部署一个模型。

本地部署模型绝对不会出现数据泄露的问题,因为所有的计算都在你自己的电脑上完成,除此之外,没有任何的请求,所以本地部署的模型,不用联网也能用。

举个例子,我们都知道知识库这个东西,我们也有很多教程,比如用 Dify、扣子、ima 啥的来搭自己的知识库。

你当然有很多很多的内容,可以扔上去,但是如果,是你自己公司的资料呢?如果是你的隐私数据呢?你敢扔上去吗?

比较最最核心的模型服务,都是在人家那,隐私保护,是最最核心的,没有之一。

但是你又有 AI 辅助的需求,你就只能选择本地部署,没有别的办法。

举个例子,《流浪地球 3》的剧本,你动脑子想,都能知道,这玩意保密性有多强,一个电影上映前,剧本泄露,就是最恐怖的事情,但是我们当然有需求,针对剧本进行一系列未来视觉化的工业化 AI 辅助和流程。

这玩意我们敢扔到任何所谓的什么 ChatGPT、Gemin、Claude、DeepSeek、元宝、豆包上吗,敢扔那就是疯了。

所以只能部分搭本地用 5090D 来推理,部分找云服务厂商合作。

但是如果是个人使用,其实也不需要 5090D 这种级别的卡,5060ti 或者 5070 其实也就差不多了。

你像豆包 PC 版,就跟英伟达一块,搞了个本地知识问答。

618想换电脑跑AI?先听我一句劝!

就是为了解决隐私的本地知识库的需求。

下载下来的模型是个 7B 的,推荐使用 12G 以上的显卡去用,基本也就是 5060ti 以上了。

不过有个好玩的是,这个 7B 的模型,是智谱的 GLM-4。。。

618想换电脑跑AI?先听我一句劝!

当然你也可以用 Ollama 啥的自己来部署,就是麻烦一些。

本地部署还有一个优势,就是一旦部署,无限免费使用。

比如用 ComfyUI 随便跑,随便 roll,无延迟,无排队,最最重要的是,再也不用积分焦虑了。

但是话又说回来了,由于本地受限于算力的问题,参数量太大的模型跑不了,但参数量更大的模型意味着更好的表现,更广的知识面,更稳定的输出。

如果你是一个企业的负责人,需要为员工配置大模型,但又不希望隐私泄露出去,其实我更推荐的就是,可以选择在云端(火山引擎、阿里云等云服务厂商)部署大模型,比如 Qwen2.5 72B(需要 4 张 48GB 显存的显卡)。

如果只是自己偶尔用一用,也不涉及隐私数据啥的,其实像我一直推荐的 AutoDL 之类的也不错,你可以直接去租一下服务器临时用。

618想换电脑跑AI?先听我一句劝!

以上,看完了以后,我觉得对于你是否需要一台能玩 AI 的设备,现在有了一个非常明确的判断了。

如果你明确了,你确实需要一台的本地设备的话,我也推荐几个 618 值得买的笔记本,目前都还有货,且我自己觉得不错的(非利益相关)。

台式机我就不推荐了,台式机大家还是自己攒吧,5060Ti、5070、5070Ti 都可以,当然你要是预算足够,上 5080 和 5090D 也没啥问题。

当然,如果你们也想看看其他的搭载了 50 系显卡的笔记本,也可以去英伟达的这个网页里面看,里面非常的全,基本都列出来了。

网址:https://pro.jd.com/mall/active/2UBbPZExaeXMVFrAp8FMfNUJ9SfK/index.html

618想换电脑跑AI?先听我一句劝!

大家有更好更推荐的,也欢迎评论区打出来,或者还有什么 618 值得买的小玩意。

希望这篇文章。

对大家,有一些帮助。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,谢谢你看我的文章,我们,下次再见。

相关资讯

从AIGC到AGI,为什么我们需要更多的“技术信仰派”?

整理 | 伊风采访 | 张晓楠嘉宾 | 巴川、朱雷、肖然作为AIGC应用落地元年,2024开年就抛给我们一些不太好回答的问题:在以探索AGI为长期目标时,我们该坚守技术信仰吗?除了复制国外GPT-4、Sora这样的成功案例,我们该如何寻求更大发展和突破?即便算力问题得以解决,算法的难题如何跨越?国内企业为什么大都部署多个大模型?为什么并非所有企业都该拥抱AIGC?前不久51CTO全新直播栏目《AIGC实战派》有幸邀请到竞技世界首席数据科学家巴川,元语智能联合创始人兼COO、SuperCLUE社区发起人朱雷以及Tho
4/15/2024 6:38:00 PM
新闻助手

爆肝48小时!学会这8招,让DeepSeek变得超好用!

更多相关介绍:. 重磅好文! 8个章节带你全方位了解DeepSeek这两天,DeepSeek-R1 火的飞起,在中日美三个 Appstore 榜上登顶。
2/8/2025 12:04:55 AM
解决师Blue

前Midjourney高管王玥婷加盟智谱 强化多模态,加速市场布局

据《智能涌现》报道,前 Midjourney 亚洲副总裁王玥婷已加入智谱,主要负责多模态产品和市场。 与此同时,智谱首席战略官张阔和副总裁曲滕近日离职。 截至发稿前,智谱尚未对此做出回应。
1/24/2025 4:43:00 PM
AI在线
  • 1