Open fulfulggg opened 4 hours ago
拡散モデルは非常に高品質なサンプルを生成できますが、その反復的なサンプリング手順に時間がかかるという本質的なボトルネックがあります。近年、Consistency Model(CM)は有望な拡散モデルの蒸留手法として登場し、高忠実度のサンプルをわずか数回の反復で生成することでサンプリングコストを削減します。CM蒸留は、既存の拡散モデルによって定義された確率流常微分方程式(ODE)を解くことを目的としています。CMはODEソルバーに対する誤差を直接最小化するように訓練されるのではなく、より計算量の少ない目的関数を使用します。CMが確率流ODEをどの程度効果的に解いているのか、そして誘導された誤差が生成されるサンプルの品質にどのような影響を与えるかを調べる方法として、この誤差を直接最小化するDirect CMを導入します。興味深いことに、Direct CMはCMと比較してODEの解法誤差を低減しますが、サンプルの品質が大幅に低下することもわかりました。これは、そもそもなぜCMがうまく機能するのかという疑問を投げかけています。完全なコードはhttps://github.com/layer6ai-labs/direct-cmsで入手できます。
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
タイトル: 整合性モデルの矛盾:ODEソルバーの精度向上は必ずしもサンプリング品質向上につながらない
リンク: https://arxiv.org/abs/2411.08954
概要:
拡散モデルは非常に高品質なサンプルを生成できますが、その反復的なサンプリング手順に時間がかかるという本質的なボトルネックがあります。近年、Consistency Model(CM)は有望な拡散モデルの蒸留手法として登場し、高忠実度のサンプルをわずか数回の反復で生成することでサンプリングコストを削減します。CM蒸留は、既存の拡散モデルによって定義された確率流常微分方程式(ODE)を解くことを目的としています。CMはODEソルバーに対する誤差を直接最小化するように訓練されるのではなく、より計算量の少ない目的関数を使用します。CMが確率流ODEをどの程度効果的に解いているのか、そして誘導された誤差が生成されるサンプルの品質にどのような影響を与えるかを調べる方法として、この誤差を直接最小化するDirect CMを導入します。興味深いことに、Direct CMはCMと比較してODEの解法誤差を低減しますが、サンプルの品質が大幅に低下することもわかりました。これは、そもそもなぜCMがうまく機能するのかという疑問を投げかけています。完全なコードはhttps://github.com/layer6ai-labs/direct-cmsで入手できます。