-
请问content_font和img_path应该传入哪两个文件?
-
# MAttNet: Modular Attention Network for Referring Expression Comprehension
Original paper:
[MAttNet: Modular Attention Network for Referring Expression Comprehension](http://openaccess.thecvf.co…
-
Hi,
Thanks for sharing the awesome work. I use the kitti_zhou_split training split provided by you [here](https://drive.google.com/drive/folders/1sLJQM3VZWFG44lHbPaTnr6EVu3d3ksMX?usp=sharing). It c…
-
Weekly-Review
=====
- 看了字体风格化的论文和教程,网页链接如下:
1. [基于GAN的字体风格迁移 | CVPR 2018论文解读](https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/79801628)
2. [AI攻陷汉字书法:条件GAN自动生成中文字体](https://zhuanlan.zhih…
-
## Method
In this section, we describe our unsupervised framework for monocular depth estimation. We first review the self-supervised training pipeline for monocular depth estimation, and then introd…
-
## ざっくり言うと
- 分類先が日々増えるような顔認識では,通常の分類モデルを作り続けるのは難しい.そこで距離空間を学習し,KNNのような方法で判別する方法が取られる.
- クラス内分散が小さく,クラス間分散が大きいと,判別しやすい
- 顔認識等で用いられる距離学習において,ArcFaceという学習モデル(ロス関数)を提案
- ArcFaceは通常のsoftmaxへ渡される部分を内積では…
-
### Metadata
- Authors: Ming-Yu Liu, Xun Huang, +4 authors, Jan Kautz
- Organization: NVIDIA, Cornell University, Aalto University
- Paper: https://arxiv.org/pdf/1905.01723.pdf
- Code: https://git…
-
# NASNet
- Learning Transferable Architectures for Scalable Image Recognition
- 基于 [Neural Architecture Search with Reinforcement Learning](https://arxiv.org/abs/1611.01578)
- `Normal Cell` - 输…
-
Hi, I am interested in your wonderful work but I do not know how to fine-tune the model on the DUT-RGBD dataset. Could you share the fine-tune training code? Thanks!
-
- https://arxiv.org/abs/1707.07998
- CVPR 2018
トップダウン型の視覚的注意メカニズムは、画像キャプションや視覚的質問応答(VQA)において、きめ細かな分析、さらには複数のステップの推論により、より深い画像理解を可能にするために広く用いられている。
本研究では、ボトムアップとトップダウンを組み合わせた注意メカニズムを提案し、オブジェクトやその他…
e4exp updated
3 years ago