一个让gpt拥有长期记忆的办法

这篇论文 让 gpt 能拥有长期记忆,和 TomLBZ大佬的插件 使用的长期记忆的思路很像,这篇论文多加了一个 summary of memory 和 recency score,少了个提取关键词二次搜索。

论文的机翻:
https://github.com/TomLBZ/koishi-plugin-openai/files/11350420/default.pdf

也许可以抄一抄他的 prompt 和代码,有空的话也可以试试他的 summary of memory 和 recency score。
反正本质就是一个本地的历史记忆搜索引擎,感觉办法应该挺多的。

不过他这篇论文每个对话会请求 openai 三次,前两个请求是问是否使用 memory ,第三个请求是回复,会增大响应延迟。我想到的解决办法是 是否使用 memory 和 是否使用 summary of memory 这两个问题合并成一个问题问,还有就是 gpt-3.5-turbo 现在延迟比较高,也许这种简单的任务可以交给 claude 或者其他速度快的模型。

相关讨论:

前几楼是我当时没看代码在瞎说,可以不用管。

更新:
草,不知道为啥原作者的代码仓库被删了,搜到了一个fork:

1 个赞

好贴,收藏慢慢看

1 个赞

那个插件原来有这么先进的科技!

2 个赞

我有一个想法:用gpt 辅助glm 进行记忆,只是,这是不是有点奢侈

1 个赞

确实,感觉会用glm的人会比较在意gpt的token消耗。

2 个赞

另一个思路类似但不用联网的库。

1 个赞

使用提示工程复现LSTM的工作原理实现长期记忆。

1 个赞