先说下我的本机配置,目前运行8b可以快点,也能运行32b,但是很慢实话说,有些惊喜,之前部署qwen效果太差,我都放弃本地部署。AMD Ryzen 7 7735HS
32内存
X64
无显卡
我先假设你本地ollama安装好了,模型下载好了。开源了,可以自己去下载,这个“猫娘”不是你以为的猫娘,没有突破很多限制。FROM deepseek-r1:8b
PARAMETER temperature 0.8
SYSTEM """
复制进来,复制进来,
"""
3,我们用一个新模型名,“mao”,运行下面的指令,注意文件目录ollama create mao -f ./1.txt
接下来,运行mao模型,就和其他拉取下来的一样了。