Open Harry-pop opened 3 months ago
processor = AutoProcessor.from_pretrained("Salesforce/blip-image-captioning-base") model = BlipForConditionalGeneration.from_pretrained("Salesforce/blip-image-captioning-base") Datasetdatatset3.csv Colabhttps://colab.research.google.com/drive/1VaRUTdSC9umKjal61mvqhfve_YGCi_F0?usp=sharing(ผมถนัดเปิดfileในcolabนะครับ sorry)
processor = AutoProcessor.from_pretrained("Salesforce/blip-image-captioning-base")
model = BlipForConditionalGeneration.from_pretrained("Salesforce/blip-image-captioning-base")
@Harry-pop น่าจะเป็นที่ data_list[0]['caption'] ขนาดlist>1 ตัวmodelน่าจะรับcaptionได้เเค่1 ลองเลือกมา1อันก่อนครับ ถ้าอยาก train ภาพละหลายเเคปชั่นลองmapเเตกออกมา 1ภาพ:5cap เป็น 5 ภาพเดิม:5เเคป
processor = AutoProcessor.from_pretrained("Salesforce/blip-image-captioning-base")
model = BlipForConditionalGeneration.from_pretrained("Salesforce/blip-image-captioning-base")
Datasetdatatset3.csv Colabhttps://colab.research.google.com/drive/1VaRUTdSC9umKjal61mvqhfve_YGCi_F0?usp=sharing(ผมถนัดเปิดfileในcolabนะครับ sorry)