Open GENZITSU opened 1 year ago
下記のようなロス関数の実装がまとめられているnotebook。
ありがたい。
xpaper チャレンジの⽚岡さんがGTC2022年で発表した、CV分社の技術トレンドのまとめ。アーキテクチャーのトレンドや各CVタスクでのトレンドに加えて、学習方法やデータ生成についてのまとめもなされている。
近年の動向をざっくり知るのにめちゃ助かる資料。
顔認識タスクの一般的な取り組み方や使用可能なデータセット、ArcFace以降のSOTAモデルたちをまとめているスライド。
SOTAの移り変わりが激しい分野なのでとても助かる。
DeNA, MoT AI勉強会発表資料「顔認識と最近のArcFaceまわりと」 / Face Recognition & ArcFace papers
semantice segmentationのSOTAモデルたちを実装しているライブラリ。 MMsegやsmpよりかは充実していないが、それらには実装されていないものもいくつかある。
メモ
近くに埋め込まれた単語は近しい意味を持つという健在性を保ちながら単語ベクトルを一次元に圧縮する手法の提案。
自然言語を一次元連続にするという全く新しい手法で、定性的にも定量的にも結果が出ているのがすごい。
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem (NAACL 2022)
distilbert-baseをinf1インスタンス用にNeuron SDKで最適化することで、4並列でレイテンシー6msの推論を可能にするチュートリアル。4並列できる分普通のGPUよりも速い。
inf1インスタンスは普通のgpuインスタンスよりも安いらしいので、使用を検討したいところ。
Accelerate BERT inference with Hugging Face Transformers and AWS Inferentia
サイバーエージェントが開発しているスマートフォン向けアノテーションツールの紹介。
簡単なラベリングがPCではなくスマホでできると捗りそう。
TensorRT + fp16を用いることで、推論速度が1.25 → 0.26まで向上している
メモ
LightGBMのearly_stoppingの仕様が変わったので、使用法を調べてみた
詳細に書かれている記事だけど要はcallback使いましょうということ
古い書き方
新しい書き方
コメント
順次移行していきたい
出典
LightGBMのearly_stoppingの仕様が変わったので、使用法を調べてみた