Open fulfulggg opened 1 month ago
本レポートでは、ECCV OOD-CV UNICORN Challenge 2024 において我々が探求し提案した手法の詳細を説明します。このコンテストは、大規模言語モデルの応答の堅牢性に焦点を当てたものです。コンテストで使用されたデータセットは、OODCA-VQA と SketchyQA です。モデルの堅牢性をテストするために、主催者はデータセットの2つの亜種、OODCV-Counterfactual と Sketchy-Challenging を追加しました。これらのデータセットにはいくつかの難しさがあります。第一に、Sketchy-Challenging データセットは、モデルの汎化能力をテストするために、より希少なアイテムカテゴリを使用しています。第二に、OODCV-Counterfactual データセットでは、与えられた問題には、変曲点や計算ステップが含まれていることが多く、モデルは推論プロセス中にそれらを認識する必要があります。この問題に対処するために、オブジェクト検出モデルを使用してLLMを支援することに焦点を当てた、シンプルながらも効果的なアプローチである Object Detection Assistance Large Language Model(LLM) Counting Ability Improvement(ODAC) を提案します。具体的には、我々のアプローチは、(1)オブジェクト検出支援、(2)反事実的固有プロンプト、という2つの主要なブロックで構成されています。私たちのアプローチは、最終テストで0.86のスコアを獲得し、2位にランクインしました。
一言でまとめると: 物体検出モデルの追加と質問文の工夫により、画像認識AIの弱点克服を目指した研究
@yukihiko-fuyuki が以下のラベルを提案し、適用しました:
タイトル: 2024年 OOD-CV UNICORN チャレンジ オブジェクト検出支援LLM 計数能力向上のためのソリューション
リンク: https://arxiv.org/abs/2410.16287
概要:
本レポートでは、ECCV OOD-CV UNICORN Challenge 2024 において我々が探求し提案した手法の詳細を説明します。このコンテストは、大規模言語モデルの応答の堅牢性に焦点を当てたものです。コンテストで使用されたデータセットは、OODCA-VQA と SketchyQA です。モデルの堅牢性をテストするために、主催者はデータセットの2つの亜種、OODCV-Counterfactual と Sketchy-Challenging を追加しました。これらのデータセットにはいくつかの難しさがあります。第一に、Sketchy-Challenging データセットは、モデルの汎化能力をテストするために、より希少なアイテムカテゴリを使用しています。第二に、OODCV-Counterfactual データセットでは、与えられた問題には、変曲点や計算ステップが含まれていることが多く、モデルは推論プロセス中にそれらを認識する必要があります。この問題に対処するために、オブジェクト検出モデルを使用してLLMを支援することに焦点を当てた、シンプルながらも効果的なアプローチである Object Detection Assistance Large Language Model(LLM) Counting Ability Improvement(ODAC) を提案します。具体的には、我々のアプローチは、(1)オブジェクト検出支援、(2)反事実的固有プロンプト、という2つの主要なブロックで構成されています。私たちのアプローチは、最終テストで0.86のスコアを獲得し、2位にランクインしました。