这篇论文 让 gpt 能拥有长期记忆,和 TomLBZ大佬的插件 使用的长期记忆的思路很像,这篇论文多加了一个 summary of memory 和 recency score,少了个提取关键词二次搜索。
论文的机翻:
https://github.com/TomLBZ/koishi-plugin-openai/files/11350420/default.pdf
也许可以抄一抄他的 prompt 和代码,有空的话也可以试试他的 summary of memory 和 recency score。
反正本质就是一个本地的历史记忆搜索引擎,感觉办法应该挺多的。
不过他这篇论文每个对话会请求 openai 三次,前两个请求是问是否使用 memory ,第三个请求是回复,会增大响应延迟。我想到的解决办法是 是否使用 memory 和 是否使用 summary of memory 这两个问题合并成一个问题问,还有就是 gpt-3.5-turbo 现在延迟比较高,也许这种简单的任务可以交给 claude 或者其他速度快的模型。
相关讨论:
前几楼是我当时没看代码在瞎说,可以不用管。
更新:
草,不知道为啥原作者的代码仓库被删了,搜到了一个fork: