Closed lixiang007666 closed 1 week ago
diffusers 会对输入 prompt 做截断(限制 77 tokens):https://github.com/huggingface/diffusers/blob/8e1b7a084addc4711b8d9be2738441dfad680ce0/src/diffusers/pipelines/stable_diffusion_3/pipeline_stable_diffusion_3.py#L238
这个 PR 里也添加了动态切换 prompt 的测试,发现不会发生 comfy 里触发 recompile 的情况。
diffusers 会对输入 prompt 做截断(限制 77 tokens):https://github.com/huggingface/diffusers/blob/8e1b7a084addc4711b8d9be2738441dfad680ce0/src/diffusers/pipelines/stable_diffusion_3/pipeline_stable_diffusion_3.py#L238
![]()
这个 PR 里也添加了动态切换 prompt 的测试,发现不会发生 comfy 里触发 recompile 的情况。
可以把这块注释到多 prompt 那块
This PR is done:
Env: torch==2.3.0
Test log: