wantedly / machine-learning-round-table

Gather around the table, and have a discussion to catch up the latest trend of machine learning 🤖
https://www.wantedly.com/projects/391912
306 stars 2 forks source link

[2022/03/17]Machine Learning 輪講 #135

Open hakubishin3 opened 2 years ago

hakubishin3 commented 2 years ago

Why

Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。

prev. https://github.com/wantedly/machine-learning-round-table/issues/133

What

話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!

hakubishin3 commented 2 years ago

Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time

https://arxiv.org/abs/2203.05482

Hayashi-Yudai commented 2 years ago

On Embeddings for Numerical Features in Tabular Deep Learning

https://arxiv.org/pdf/2203.05556.pdf

画像や自然言語といった分野でDNNは発展してきたが、テーブルデータではGBDT系に勝てなかった。

Tabular data problems are currently a final frontier for deep learning research.

この論文では、数値データをうまくembeddingすることによってMLPでもテーブルデータに対して高性能にできることを示した。

Piecewise linear encoding

数値データをビニングしてembeddingを作る

image

ビン数を増やすとたしかに性能が良くなる。 image

Result

様々なテーブルデータに対して比較をした。データセット名の右の上向き矢印は数字が大きいほど高性能であることを示していて下向き矢印は逆であることを示している。

image

nogawanogawa commented 2 years ago

Transformer Memory as a Differentiable Search Index

論文URL

https://arxiv.org/abs/2202.06991

著者

Yi Tay Vinh Q. Tran Mostafa Dehghani Jianmo Ni Dara Bahri, Harsh Mehta Zhen Qin Kai Hui Zhe Zhao Jai Gupta Tal Schuster, William W. Cohen Donald Metzler

会議

(arxiv見る限りはまだ提出されて無さそう)

背景

情報検索ではユーザーのクエリに対して、関連する文書についてランク付けされたリストを応答する。 このとき、転置インデックスや最近傍探索によるアプローチが主流になっている。

目的

クエリに対して直接文書をマッピングする新しい代替アーキテクチャの提案

アプローチ

参考

https://github.com/nogawanogawa/paper_memo/issues/33

zerebom commented 2 years ago

On component interactions in two-stage recommender systems

https://proceedings.neurips.cc/paper/2021/file/162d18156abe38a3b32851b72b1d44f5-Paper.pdf

Neurips2021の論文

image

Result

Synthetic data results

image

Amazon data results.

image