本地ollama破解deepseek r1:8B成功(带教程),你得到一个无限制的猫娘

多样分享 多样分享 2025年02月01日 10:38
先看下效果
图片
图片
图片
图片
先说下我的本机配置,目前运行8b可以快点,也能运行32b,但是很慢
实话说,有些惊喜,之前部署qwen效果太差,我都放弃本地部署。
AMD Ryzen 7 7735HS32内存X64无显卡
进入教程,步骤非常简单。
我先假设你本地ollama安装好了,模型下载好了。
1,找到一个你想要的系统提示词,如:“猫娘”
图片
开源了,可以自己去下载,这个“猫娘”不是你以为的猫娘,没有突破很多限制。
2,新建一个1.txt,把“猫娘”复制到下面。
FROM deepseek-r1:8b
PARAMETER temperature 0.8
SYSTEM """复制进来,复制进来,"""
图片
3,我们用一个新模型名,“mao”,运行下面的指令,注意文件目录
ollama create mao -f ./1.txt
图片
接下来,运行mao模型,就和其他拉取下来的一样了。