Open Buddies-as-you-know opened 8 months ago
https://arxiv.org/pdf/2201.05989.pdf
補助的な学習パラメータを配置する方法も提案されている
なのでspareに入れることが重要になる。
上記の問題点を捉え高速化しながら高解像度にしている。
上記をhashtableでシンプル実装
$$ \text{enc}(x) = (\sin(2^0 x), \sin(2! x), \ldots, \sin(24^{-1}x), \ \cos(2^0 x), \cos(2! x), \ldots, \cos(24^{-1}x) ). $$
1.多重解像度をグリッドを導入
$$ (2) \quad Nl := \left\lfloor N{\text{min}} \cdot N \right\rfloor (3) \quad b := \exp\left( \frac{\ln(N{\text{max}}) - \ln(N{\text{min}}) }{L-1} \right). $$
2.Hash tableから具ロッド頂点に対応する特徴ベクトルを参照
各階層では、xの近傍にある格子点を参照する。上図のl=0おける近傍は青の四角の頂点であり、l=1lにおける近傍は赤い四角の頂点である。
各格子点には、疑似乱数的なハッシュキーが下式によって与えられる。
$$ h(x) = \left( \bigoplus_{i=1}^{d} x_i \pi_i \right) \mod T $$
位置xの特徴ベクトルを線形補間
4.各解像度の特徴ベクトルを連結hしてNNへ入力
https://github.com/nvlabs/tiny-cuda-nn
論文リンク
https://arxiv.org/pdf/2201.05989.pdf
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
NeRFの元論文との違い
補助的な学習パラメータを配置する方法も提案されている
なのでspareに入れることが重要になる。
上記の問題点を捉え高速化しながら高解像度にしている。
3. 技術や手法の"キモ"はどこにある?
上記をhashtableでシンプル実装
$$ \text{enc}(x) = (\sin(2^0 x), \sin(2! x), \ldots, \sin(24^{-1}x), \ \cos(2^0 x), \cos(2! x), \ldots, \cos(24^{-1}x) ). $$
1.多重解像度をグリッドを導入
$$ (2) \quad Nl := \left\lfloor N{\text{min}} \cdot N \right\rfloor (3) \quad b := \exp\left( \frac{\ln(N{\text{max}}) - \ln(N{\text{min}}) }{L-1} \right). $$
2.Hash tableから具ロッド頂点に対応する特徴ベクトルを参照
各階層では、xの近傍にある格子点を参照する。上図のl=0おける近傍は青の四角の頂点であり、l=1lにおける近傍は赤い四角の頂点である。
各格子点には、疑似乱数的なハッシュキーが下式によって与えられる。
$$ h(x) = \left( \bigoplus_{i=1}^{d} x_i \pi_i \right) \mod T $$
位置xの特徴ベクトルを線形補間
4.各解像度の特徴ベクトルを連結hしてNNへ入力
4. どうやって有効だと検証した?
5. 論文において、研究の成果やデータに基づいて、その意義や影響、さらには限界点について詳細かつ適切に分析や評価がなされている部分は存在するのでしょうか?
6. 次に読むべき論文はあるか?
8. わからない文字
9.論文に使えそうな表現(あれば)
論文情報・リンク
https://github.com/nvlabs/tiny-cuda-nn