-
## タイトル: LAR-IQA: 軽くて正確、そして堅牢な無参照画像品質評価モデル。
## リンク: https://arxiv.org/abs/2408.17057
## 概要:
深層学習を用いたノーリファレンス画像品質評価 (NR-IQA) の分野における近年の進歩により、複数のオープンソースデータセットにおいて高い性能が実証されています。しかし、そのようなモデルは一般的に非常に大き…
-
Any chance you can add this?
-
totaltext数据集和ctw1500数据集的评测,官方有开源的评测代码,但是DB没有用而用的是icdar2015那一套评测标准,这样进行sota比较我觉得非常不公平,且我用官方的评测代码去测了,要比论文低4个点左右。。。。很尴尬
而且我发现DB评测里面if not Polygon(points).is_valid or not Polygon(points).is_simple,shapel…
-
https://www.bilibili.com/video/BV1964y1T7gR/?spm_id_from=333.788.videocard.1
选专业求职必看,ai时代这些凉凉的行业就别去了
![image](https://user-images.githubusercontent.com/47746159/84590361-0c891980-ae36-11ea-9ca0-df38…
-
## 一言でいうと
自己教師学習を大規模かつインターネット上から収集した無選別のデータセットで行った研究。データにスケールするアーキテクチャとして[RegNetY](https://arxiv.org/abs/2003.13678)(パラメーター空間探索で発見した構造)、自己教師学習として[SwAV](https://arxiv.org/abs/2006.09882)(画像クラスター間の変換…
-
## 一言でいうと
事前学習済みの画像認識モデルを利用して異常検知を行った研究(EfficientNetを使用)。通常データに対する事前学習済みモデルの各階層の特徴に多変量正規分布をフィッティングさせ、標本点との距離をマハラノビス距離で測り異常かどうか判定する。MVTec AD datasetでSOTA達成
### 論文リンク
https://arxiv.org/abs/2005…
-
## 一言でいうと
画像をパッチに分割し、パッチの系列としてTransformerに入力して画像分類を行った研究。CNNのSOTAに匹敵する精度を記録する一方、計算コストが少なく済む。2Dを意識したposition embeddingはあまり効果がなく(通常1Dの方が良い)、事前学習済み特徴(ResNet)の入力は小サイズモデルの場合のみ効果有。
![image](https://us…
-
## 一言でいうと
分類や要約、関係推定といった自然言語処理のタスクを全て言語モデル形式で解こうという研究。Transformerをベースに様々なモデル形式(Attentionのかけ方/構成)、目的関数などの組み合わせを試し、結果としてGLUE/SuperGLUEなどでSOTAを達成。
### 論文リンク
https://arxiv.org/abs/1910.10683
#…
-
## 一言でいうと
異なるフレームレート(低速/高速)で処理した結果をマージして、動画認識を行う手法。低速側で空間情報、高速側で動作情報を把握することを目的としている(脳内のP細胞/M細胞をモデルにしている(Pは低速で詳細、Mは高速で単純))。Kineticsなどの動作認識のタスクでSOTA。
![image](https://user-images.githubusercontent…
-
## 一言でいうと
CNNを用いて文分類を行う話。具体的には文を単語ベクトルの列として表し、それに対してCNNを用いて特徴抽出・分類を行っている。論文では事前学習済みの単語ベクトル(Google Newsをword2vecで学習したもの)を使っている。評価分析や質問タイプ分類を含む7つのタスクで評価したところ、7つ中4つでSOTAな結果になった。
### 論文リンク
https://a…