如何让deepseek R1模型摆脱束缚,回答一些敏感问题
deepseek R1的本地化部署可以看我前篇内容,这篇跳过了
效果对比
这是没有问到没有训练过内容的效果
这是训练过内容,但是因为某种原因不能公开的效果
我就不把深度思考内容点开了,因为ai都知道不能说,我也不敢说
这是越狱版的效果
如何下载部署
部署方式和非越狱版一致,只是命令稍有不同。
模型所在地址:
https://ollama.com/huihui_ai
总共有7b、8b、14b、32b、70b五种(单指deepseek),这次我用的是4070Ti的台式机部署的,12g显存,所以下载了14b的版本。上篇文章用的是mac mini 16g内存所以用的是8b版本。
1 | ollama run huihui_ai/deepseek-r1-abliterated:14b |
当然如果你有4块4090,或者mac高内存的话,可以尝试用70b版本。比如小黑96g的mac M2 max试了一下70b版本,效果要明显好于32b,但是每秒只有几tokens。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 共赴良策!
评论