Closed yaoxh6 closed 4 years ago
我用了danbooru两万五千张图片做训练,效果非常差,想知道到达图示的效果用多少张图片? 另外直接用百度网盘中的11_Unet_checkpoint.pth.tar无法运行,需要将unet_model.py里面forward函数中的x_inception = self.avg_pool(x_inception)解注释,想问下还有什么需要注意的点吗?
可以给个联系方式交流一下么?
可能是数据集的问题,目前没有问题了,谢谢。
---原始邮件--- 发件人: "DLUT_xsz"<notifications@github.com> 发送时间: 2020年4月15日(周三) 中午11:15 收件人: "Pengxiao-Wang/Style2Paints_V3"<Style2Paints_V3@noreply.github.com>; 抄送: "Author"<author@noreply.github.com>;"yaoxh6"<2879813862@qq.com>; 主题: Re: [Pengxiao-Wang/Style2Paints_V3] 图片数量 (#6)
我用了danbooru两万五千张图片做训练,效果非常差,想知道到达图示的效果用多少张图片? 另外直接用百度网盘中的11_Unet_checkpoint.pth.tar无法运行,需要将unet_model.py里面forward函数中的x_inception = self.avg_pool(x_inception)解注释,想问下还有什么需要注意的点吗?
可以给个联系方式交流一下么?
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
您好,我是神经网络的初学者,还在学习阶段,暂时还没有达到和别人交流的地步,所以就不给联系方式了。
---原始邮件--- 发件人: "wuhan3228873"<notifications@github.com> 发送时间: 2020年4月20日(周一) 下午4:47 收件人: "Pengxiao-Wang/Style2Paints_V3"<Style2Paints_V3@noreply.github.com>; 抄送: "Author"<author@noreply.github.com>;"yaoxh6"<2879813862@qq.com>; 主题: Re: [Pengxiao-Wang/Style2Paints_V3] 图片数量 (#6)
您好,可以留个联系方式交流一下吗
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
train是训练集,给的是原图。 val是验证集,给的也是原图,总的数据集划分为三份,train、val、test。 sketch是经过KerasSketch程序提取出来的线稿,和train以及val一一对应。 stl是经过模拟处理后的图片,这个在论文中提到,是模拟图片上色问题的处理手段,一共有三个手段,随机提取粘贴,stl,随机涂点,这里是先用stl处理好图片,然后在运行时再使用其他模拟手段。
---原始邮件--- 发件人: "wuhan3228873"<notifications@github.com> 发送时间: 2020年4月20日(周一) 下午5:03 收件人: "Pengxiao-Wang/Style2Paints_V3"<Style2Paints_V3@noreply.github.com>; 抄送: "Author"<author@noreply.github.com>;"yaoxh6"<2879813862@qq.com>; 主题: Re: [Pengxiao-Wang/Style2Paints_V3] 图片数量 (#6)
您好,我也是初学者 并且是刚刚入门,请教您一个问题,train.py代码里的train,val,sketch,STL的数据我知道是来自Danbooru2019。但是我不太确定他们分别给什么进去。
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
按照正常思维,stl只需要处理训练时数据即可。目前代码还是有点问题,可以看test.py的代码, p = gt_img[j] gt = Image.open(p).convert('RGB') df = Image.open(p).convert('RGB')
pic,pm = test(Unet,args,gt,sketch,df)
其中df是原图,但是作者自己解释为df : (batch_size, 3, 224, 224) : simulated data which is the input of Inception V1,这部分有点问题,测试的时候应该只需要输入sketch即可,不会要求输入sketch对应的原图。 ------------------ 原始邮件 ------------------ 发件人: "wuhan3228873"<notifications@github.com>; 发送时间: 2020年4月20日(星期一) 下午5:18 收件人: "Pengxiao-Wang/Style2Paints_V3"<Style2Paints_V3@noreply.github.com>; 抄送: "姚雪辉"<2879813862@qq.com>;"Author"<author@noreply.github.com>; 主题: Re: [Pengxiao-Wang/Style2Paints_V3] 图片数量 (#6)
好的,万分感谢, train,val,sketch我明白了, stl我去看下论文。 stl处理过得图片对应的是总数据集吗
— You are receiving this because you authored the thread. Reply to this email directly, view it on GitHub, or unsubscribe.
我用了danbooru两万五千张图片做训练,效果非常差,想知道到达图示的效果用多少张图片? 另外直接用百度网盘中的11_Unet_checkpoint.pth.tar无法运行,需要将unet_model.py里面forward函数中的x_inception = self.avg_pool(x_inception)解注释,想问下还有什么需要注意的点吗?