Open nogawanogawa opened 1 year ago
https://arxiv.org/abs/1905.03375
Harald Steck
WWW'19
協調フィルタリングに関する近年の改良の多くは、DNNアプローチをもとにしたものである。 ただし、コンピュータビジョンのような分野とは異なり、推薦では少数の隠れ層で高い精度を達成することがわかった。
この事実を極端にして、隠れ層を持たない線形モデルを定義することで、高い精度を達成できる見込みがある。
推薦の暗黙的フィードバックデータに適した線形モデルを定義する
https://github.com/nogawanogawa/paper_memo/issues/64
解説記事: http://kayoblo.com/?p=186 実装:https://github.com/Darel13712/ease_rec
Knowledge-graphを利用した推薦システム
素のKnowledge-graphに対して5通りの手法を用いてグラフを圧縮しスパース性を緩和した。4種類のデータセットに対してRecall, NDCGが最も良い性能を出している。
面白いとおもったのは、メタグラフ作成後のGCN層(一番上の図のLight Graph Convolution と書いてある部分)の数と性能の関係性。
層を増やすと性能が単調に減少するという結果が得られている。これはKnowledge-graphだけである程度よいグラフ構造ができていて、GCN層を増やすと逆にノード間の関係性が "over-smoothing" されて性能が劣化すると解釈されている。
Recsys2022の論文。Bert4Recの再現性を検証するために、たくさん実験した論文。370本の論文をサーベイしている。
Original, RecBole, Bert4Rec-VAE, Hugging Faceの4つで実装した。GitHubにHuggingFaceの実装が乗っている。 https://github.com/asash/bert4rec_repro/blob/main/recommenders/dnn_sequential_recommender/dnn_sequential_recommender.py
モデル: https://huggingface.co/bigscience/bloom
176Bパラメータのオープンな巨大モデルbloomの論文。共著者が非常に多い。 計59言語(46の自然言語と13のプログラミング言語、1.61テラバイトに相当)のコーパスで学習が行われている。 学習に使用したリソースは 384台分のA100 80GB 、約 3.5 ヶ月の計算時間が費やされた。 軽量なモデルも用意されている。
https://huggingface.co/bigscience?sort_models=downloads#models
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. https://github.com/wantedly/machine-learning-round-table/issues/170
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!