-
**描述一下Bug**
Using fallback chat format: None
translating...
text total words: 16781
0%| | 0/40 [00:00
-
https://hf-mirror.com/SakuraLLM/Sakura-13B-LNovel-v0.9/tree/main
前几天下了0.9,把0.9模型的文件夹放在`Sakura-13B-Galgame\models`路径下,conda单独创建了一个环境,执行以下命令:
```CMD
pip3 install torch torchvision torchaudio --inde…
-
Hello, I'm glad to find this so great egine you provide in Unity asset store. But for my team,there are some troubles to make NaniScript. Our writer don't know how to code.It's too difficult for her t…
-
### Question 问题
重复帧检测的活跃,让传统的(计算一段时间内帧数平均值)的帧数显示不再能直观的体现流畅度。
在静态,动态快速反复切换的VN里面,帧数显示只是在波浪般飘动。难以得知动态部分的帧数是否达到了设置的帧数上限。
之前“游戏内叠加层”里面的帧生成时间监控窗可以很好的分辨不同工作状态的帧数,但是0.11版本删除了这个窗口。
我长期在笔记本和win掌机等用电池的…
-
你好,我在ollama官网找到的模型ollama run killgfat/sakura-7b-lnovel-v0.9
用ollama载入后,使用的方法找不到,我显存只有8G所以先用了这个引擎,
这个问答有什么要求吗?我载入之后它并不能对话,只会根据我发的汉字,给出各种句子
有没有使用方法
-
### Version 程序版本
最新
### OS version and bits 系统版本和位数
win11 64
### bug's screenshot 错误截图
通过原文分词点进查词界面,查词窗口白屏,触发闪退。查词不到五六次就遇到一次白屏。
### Reproduction steps 复现步骤
查词卡在白屏一会后,就闪退。
### Log files 日志文件
…
X012C updated
3 months ago
-
**描述一下Bug**
在kaggle上部署
`!git clone https://github.com/SakuraLLM/Sakura-13B-Galgame.git
%cd Sakura-13B-Galgame
!pip install llama-cpp-python --prefer-binary --extra-index-url=https://jllllll.gi…
-
### Expected behavior 预期的功能
对于超分辨率的高性能需求,
希望可以探索「多gpu协同」功能的可能性。
例如加入为每个缩放效果分配gpu的选项,
或者分配先后调用顺序。
这样对于(特别是Galgame)玩家而言,
就可以充分利用到多个gpu的性能。
以1280x720的画面为例子:
先让核显跑较简单的Anime4K_Upscale_S > Bicubic…
-
我按照如下教程進行配置:
https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki/Python%E9%83%A8%E7%BD%B2%E6%95%99%E7%A8%8B
使用“打包好的免Python环境的Sakura API程序包”的方式,下載好了SakuraAPI-b192-win-cu121-x64.zip
同時,我下載了sakur…
-
如出现退化(退化的例子可参见
https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/35
与
https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/36
),可增加frequency_penalty参数,并设置为大于0的某值,一般设置0.1~0.2即可。