Open luc99hen opened 6 months ago
从效率和体验上来说,同意 @MillionYu 的推荐,摘要做在server端更好。
当然做在app端也不是不行,但体验不那么好。如果生成摘要在同步时候做,会拉长同步时间,如果在展示的时候做,则用户需要等待时间来看到摘要,总之体验没有那么好。
从效率和体验上来说,同意 @MillionYu 的推荐,摘要做在server端更好。
当然做在app端也不是不行,但体验不那么好。如果生成摘要在同步时候做,会拉长同步时间,如果在展示的时候做,则用户需要等待时间来看到摘要,总之体验没有那么好。
@seazon 能不能把它做成一个extension的形式,比如当用户配置好一个openapi之后,阅读页面增加一个一键生成摘要的选项。这样不影响正常的同步,也给用户多一个选择
我先记着了,只是优先级不会太高。
背景
关注FeedMe这个项目已经很久了,感谢作者长期的悉心维护。随着大语言模型的流行,我也一直在思考如何在自己的工作流中把LLM充分利用起来。最近尝试在从RSS信息源开始阅读信息前,先用LLM做一个总结梳理,判断是否值得投入时间阅读。LLM总结的部分是通过Poe来实现的,效果很好。给一个URL链接,就可以有一个结构化的总结输出。
需求
但不方便的点在于,每次都要从FeedMe和Poe两个客户端之间,频繁的切换。不知道作者是否考虑通过API的形式将这类能力集成到FeedMe客户端中,或者以extension的形式暴露出来。