misyaguziya / VRCT

VRCT(VRChat Chatbox Translator & Transcription)
https://misyaguziya.booth.pm/items/
MIT License
52 stars 5 forks source link

Feature Request: Use local models on GPU (機能リクエスト: GPU でローカル モデルを使用する) #16

Open kooshi opened 1 month ago

kooshi commented 1 month ago

First of all, this is a beautiful program. Thank you for making it.

I think it would be useful to have a setting to use a GPU for local models. This would greatly reduce the latency for higher quality models, if the user has spare VRAM.

For users with multiple GPUs, such as AI enthusiasts, there should also be a setting to select which GPU to use. That way, VRChat can use the main GPU, and models can be loaded on the secondary GPU.

This would also enable running even better models in the future.

(If I have some spare time, I will try to implement this. If it interests you, it may be faster for you to do it.)

Google Translation: まず、これは素晴らしいプログラムです。作成していただきありがとうございます。

ローカルモデルに GPU を使用する設定があると便利だと思います。これにより、ユーザーに余裕のある VRAM がある場合、高品質のモデルの遅延が大幅に削減されます。

AI 愛好家など、複数の GPU を持つユーザーの場合は、使用する GPU を選択する設定も必要です。

そうすれば、VRChat はメイン GPU を使用し、モデルはセカンダリ GPU にロードできます。

これにより、将来的にさらに優れたモデルを実行できるようになります。

(時間に余裕があれば、これを実装してみます。興味があれば、自分でやったほうが早いかもしれません。)