Closed Benson1997 closed 9 months ago
只有 4xLSDIRplus 可以转换并正常使用,这个我已经上传到“扩展模型”的那个 Release 了。另外两个不是 ESRGAN 的模型(注意下载按钮下面的 Architecture)。
好的,明白了,非常感谢👍👍
实测以下,好像没有网站上效果那么夸张, 哈哈,正常的吧。
这截图怎么看上去像是 NearestNeighbor 放大的样子……
实际的放大效果还是很不错的,和演示图基本一致,不过开 TTA 反而会减少细节。我用这个模型试了一下:
原图:https://raw.githubusercontent.com/Phhofm/models/main/4xLSDIRplus/examples/input/Input_13.png
原图:https://raw.githubusercontent.com/Phhofm/models/main/4xLSDIRplus/examples/input/Input_5.png
原图:https://raw.githubusercontent.com/Phhofm/models/main/4xNomos8kSC_results/input/seeufer.png
原图:https://raw.githubusercontent.com/Phhofm/models/main/4xNomos8kSC_results/input/palme.png
好奇怪,是我参数没设置对吗,呜呜😢😢,同样的模型,怎么我出不来您这个效果。
你应该是没有使用原始图片而是直接把模型页面上那个 NearestNeighbor 放大过的演示图截图了,这样的图片作为输入的话用什么模型都不会有理想的效果的。
另外,不建议使用 NearestNeighbor 进行降采样(除非你知道你在做什么)。
恩恩,用input那个原图可以了😊。好像用 realesrgan-x4plus 也能出来差不多的效果,哈哈。pdf导出来的图文的图片,是不是只要 realesrgan-x4plus 就够用了呢,日常主要用来处理图文的超分。
像下图这类的图片,好像怎么弄图片都没办法,效果很有限(是不是因为这个图不是扫描的原图呢)。
因为这张图的 JPEG artifacts(也就是压缩后出现的小格子痕迹)太严重了,覆盖了原图的绝大部分细节。
先用 PS 的“减少杂色”处理那些 artifacts,因为处理后的图有点模糊所以缩小 50%:
然后尝试用 realesrgan-x4plus 放大,看上去一般但这已经是效果最好的了……
非常感谢透明哥 🤞🎁
在下小白研究了一下午,不会用ncnn,好像是没安装好环境,过于复杂了。不知道是不是可以请求添加几个新款使用的模型,不胜感激!🤞🤞
现有的几个模型,对于比较模糊的原图不太能修复细节,所以希望可以尝试以下几个新的模型。看官网上的图片效果还不错呢。
ps: 如果太大了,能否发网盘或者邮箱 lee987@qq.com ,都可以的😂,感谢感谢!!😊😊
https://openmodeldb.info/models/4x-LSDIRplus
https://openmodeldb.info/models/4x-SPANkendata
https://openmodeldb.info/models/4x-Nomos8kSCHAT-L