cover_image

DeepSeek V3 GGUF 2-bit 出乎意料地运行成功,同时支持 BF16 和其它量化方式

NLP工程化 2025年01月08日 16:46

上传了 DeepSeek V3 的 GGUF 版本,包括 2、3、4、5、6 和 8-bit 的量化模型。还对 DeepSeek V3 进行了反量化处理,上传了 BF16 版本(大小为 1.3TB),方便大家进行实验。运行 DeepSeek V3(2-bit 版本)的最低硬件要求:48GB 内存 + 250GB 磁盘空间

查看如何运行 DeepSeek V3 的示例以及完整模型合集,请访问以下链接:https://huggingface.co/collections/unsloth/deepseek-v3-all-versions-677cf5cfd7df8b7815fc723c

图片
图片

DeepSeek-V3-GGUF/DeepSeek-V3-Q2_K_XS,如下所示:

图片

参考文献:
[1] https://www.reddit.com/r/LocalLLaMA/comments/1hw1nze/deepseek_v3_gguf_2bit_surprisingly_works_bf16/
[2] https://huggingface.co/unsloth/DeepSeek-V3-GGUF



欢迎支持我的知识星球(NLP工程化):Dify源码剖析及答疑,Dify对话系统源码,电子书籍报告下载,公众号所有付费资料。若微信群二维码过期,则加微信buxingtianxia21进群。

NLP工程化知识星球图片

NLP工程化资料群图片

大语言模型 · 目录
上一篇miniLLMFlow:极简的LLM框架,仅用100行代码实现,让LLM能够自我编程下一篇NeMo-Skills:提升大型语言模型技能的项目

微信扫一扫
关注该公众号

继续滑动看下一个
NLP工程化
向上滑动看下一个