一个 Koishi 插件,用于对接 LMarena 服务调用 nano-banana 等模型进行图片生成,特别适用于手办化效果。
灵感来源:GitHub - Zhalslar/astrbot_plugin_lmarena: 对接lmarena将图片手办化(支持nano_banana模型)
Github 仓库:GitHub - HydroGest/lmarena
一个 Koishi 插件,用于对接 LMarena 服务调用 nano-banana 等模型进行图片生成,特别适用于手办化效果。
灵感来源:GitHub - Zhalslar/astrbot_plugin_lmarena: 对接lmarena将图片手办化(支持nano_banana模型)
Github 仓库:GitHub - HydroGest/lmarena
mai 提供了免费公益后端:提供个自建的lmarena api
插件已由小学改进
非常好插件使我的旋转
System:
OS: Windows 11 10.0.26100
CPU: (24) x64 12th Gen Intel(R) Core™ i9-12900K
Binaries:
Node: 22.13.1
Yarn: 4.1.1
Koishi:
Core: 4.18.8
Console: 5.30.7
依赖版本和后端都是最新拉取的
大佬,这种情况该怎么办
后端可能有问题。
你有按照readme正确配置模型吗?
我快忘了为什么写了这个了 lmarena/src/index.ts at master · HydroGest/lmarena
依稀记得是什么后端搭建上的错误
我觉得是没配置错的
因为我要用的是nano banana模型,配置文件中自带,所以没有配置关于模型的部分,只运行了id updater
我也遇到了同样的问题 步骤完全是按照readme来的 应该没有遗漏
这里的错误说明 session id 可能有问题
原项目是这样描述的
但是原项目的 nano-banana 模型
LMArenaBridge/model_endpoint_map.json at main · Lianues/LMArenaBridge
写的mode是direct_chat
"nano-banana": {
"session_id": "4261456c-7c1d-4f09-932a-7400d2974ff4",
"message_id": "5b2271af-85ca-4dd7-8554-36b5b091642f",
"mode": "direct_chat"
}
然而实际网站上direct_chat模式里面没有 nano-banana 模型
我认为这是 nano-banana 模型从direct_chat模式下架了
所以当时编辑readme的时候用的是flux-1-kontext-pro模型
严格按照readme , 使用 【flux-1-kontext-pro】 模型 也是这样吗?
flux-1-kontext-pro可以正常运行 我和他一样是nanobanana会报错 我加载的是gemini-2.5-flash-image-preview(nano-banana)
direct chat是有nano banana模型的,只是名字不一样,id一样
插件市场怎么搜不到了