- ALL
- java33
- linux32
- 工具17
- 其他15
- 数据库7
- ai5
- git5
- vue5
- nas5
- 前端5
- framework3
- windows3
- 脚本2
- app2
- docker2
- hexo2
- 智能家居2
- maven2
- 小程序2
- spring2
- api1
- 资源1
- mysql1
- markdown1
- 安全1
- question1
- python1
- 数据传输1
- 运维1
- 数据结构1
- nginx1
如何让deepseek R1模型摆脱束缚,回答一些敏感问题
deepseek R1的本地化部署可以看我前篇内容,这篇跳过了 效果对比 这是没有问到没有训练过内容的效果 这是训练过内容,但是因为某种原因不能公开的效果 我就不把深度思考内容点开了,因为ai都知道不能说,我也不敢说 这是越狱版的效果 如何下载部署 部署方式和非越狱版一致,只是命令稍有不同。 模型所在地址: https://ollama.com/huihui_ai 总共有7b、8b、14b、32b、70b五种(单指deepseek),这次我用的是4070Ti的台式机部署的,12g显存,所以下载了14b的版本。上篇文章用的是mac mini 16g内存所以用的是8b版本。 1ollama run huihui_ai/deepseek-r1-abliterated:14b 当然如果你有4块4090,或者mac高内存的话,可以尝试用70b版本。比如小黑96g的mac M2 max试了一下70b版本,效果要明显好于32b,但是每秒只有几tokens。