Closed takawitter closed 6 months ago
I changed the class of model to GitLlamaForCausalLM, then I got better result.
<s> ##human: これは何の写真ですか?
##gpt: 男性がバイクに乗って歩道を走っている
##human: 画像を簡潔に説明してください。
##gpt: バイクに乗った男性が歩道を走っている
##human: 画像を簡潔に説明してください。
##gpt: バイクに乗った男性が歩道を走っている
##human: 画像を簡潔に説明してください。
##gpt: バイクに乗った男性が歩道を走っている
##human: 画像を簡潔に説明してください。
##gpt: バイクに乗った男性が歩道を走っている
</s>
I tried to run heron-chat-git-ELYZA-fast-7b-v0 using the sample code at https://huggingface.co/turing-motors/heron-chat-git-ELYZA-fast-7b-v0, but the pipeline produces strange output:
The notebook of Colab: https://colab.research.google.com/drive/12K6jWY0rEl-9I23GyGHtnGXEQ8iuXjp7?usp=sharing
To reproduce this, execute pip first
Then, restart runtime. and execute
Next, restart runtime and execute pip again.
Then, execute the sample code on huggingface.
I also tried with my A6000 and got a similar output.
Thanks!