使用chatluna的附属插件(chatluna-ollama-adapter)提供的ollama接入本地部署的deepseek-r1:1.5b时,如何使其不在QQ内发送思考(think)过程

在群内测试机器人时总是会弹出一堆又长又臭的内容


咋样把思考过程关闭啊xwx

2 个赞

参考下面的 issue,过滤 think 标签解决。

我这边更推荐你使用 lm-studio 这类支持分离思考内容到 reasoning_content 的本地运行模型客户端,参考下面的文章在 lm-studio 开启:解決 LM Studio gpt-oss 模型輸出參雜「推理內容」之問題 | Ernest Chiang

使用这类格式的 API, chatluna 可以开关来支持独立发出思考过程。

1 个赞