-
zustand 存储默认为 localStorage ,localStorage 的存储上限在 5MB ~ 10 MB ,对于对话应用而言显然不够用,需要扩展为 indexedDB
-
Cave Johnson doesn't have death responses because he's dead, he may be alive in an alternate universe, that's where this comes from.
With this, there could be a lot more co-op focused voicelines.
…
-
We would like to request a SPARQL query over the UBERON IDs in the left column from the table below that indicate:
`UBERON_ID | has_3d_reference_object | has_asct_b_table | has_parent_uberon_in_wit…
-
### 📦 部署环境
Docker
### 📌 软件版本
1.7.2
### 💻 系统环境
Ubuntu
### 🌐 浏览器
Chrome
### 🐛 问题描述
仅配置了claude的key,聊天时报错
![1722091432928](https://github.com/user-attachments/assets/dcab4711-2d97-40c0-a3f5-dc2d…
-
### 📦 Environment
- [ ] Official
- [ ] Official Preview
- [X] Vercel / Zeabur / Sealos
- [X] Docker
- [ ] Other
### 📌 Version
v0.162.21
### 💻 Operating System
- [X] Windows
- [X] macOS
- [X] Ubun…
-
There seem to be some inconsistencies in the layer structure of the model between the whitepaper and the reference implementation.
In the whitepaper all diagrams and calculations point to the lower…
-
### 📦 Environment
- [ ] Official
- [X] Official Preview
- [ ] Vercel / Zeabur / Sealos
- [ ] Docker
- [ ] Other
### 📌 Version
0.162.9
### 💻 Operating System
- [ ] Windows
- [ ] macOS
- [ ] Ubuntu…
-
### 🥰 需求描述
ollama运行的本地大模型,例如llava,是支持视觉的,但是目前lobechat中加载ollama运行的模型都是默认不支持视觉,而且没有选项可以自行打开
### 🧐 解决方案
当使用ollama本地模型时,允许用户自行选择是否打开视觉能力(其实其他能力也一样,比如插件)
### 📝 补充信息
_No response_
-
### 🥰 需求描述
openwebui,是有这个功能的,感觉很多时候很有必要,实现起来相对简单。 每次聊天后可以看到token/s统计,方便观察生成性能。因为很多人都是自己搭建的本地模型,这个信息对于模型比较,硬件升级,上下文长度控制都有很大帮助。
### 🧐 解决方案
openwebui,是有这个功能的,感觉很多时候很有必要,实现起来相对简单。 每次聊天后可以看到token/s统计,…
-
对于`lobe-chat`的代码生态非常的完善,对于AI的支持也是非常多,我在考虑是否在 `1.0.0`版本将UI完全使用lobe-Chat进行重写
现在询问社区意见。如果你有更好的建议请您提出讨论!