wantedly / machine-learning-round-table

Gather around the table, and have a discussion to catch up the latest trend of machine learning 🤖
https://www.wantedly.com/projects/391912
297 stars 2 forks source link

[2022/03/31]Machine Learning 輪講 #137

Open hakubishin3 opened 2 years ago

hakubishin3 commented 2 years ago

Why

Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。

prev. https://github.com/wantedly/machine-learning-round-table/issues/135

What

話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!

nogawanogawa commented 2 years ago

Next item recommendation with self-attentive metric learning

論文URL

https://arxiv.org/abs/1808.06414

著者

Shuai Zhang, Yi Tay, Lina Yao, Aixin Sun

会議

AAAI'19

背景

ユーザーの行動履歴にもとづいて推薦を行う際に、短期ー長期の嗜好を十分にモデル化できた手法がない。

目的

ユーザの履歴についてitem-itemの相互作用(おそらくattention mapのこと)を同時に考慮した推薦モデルの構築

アプローチ

参考

https://github.com/nogawanogawa/paper_memo/issues/37

Hayashi-Yudai commented 2 years ago

Efficient Language Modeling with Sparse all-MLP

Background

NLPのタスクではTransformerの優位性が高い。近年では、all-MLPでTransformerを超えようとする試みが多くされるようになってきた(gMLP; Google, etc...)が、それでもまだTransformerにはモデルの表現力が及んでいない。Transformerの方ではあらたに、Mixture-of-Experts (MoE)を組み込むことで成功を収めており、この論文ではMoEを組み込んだ sparsely-activated-all-MLP (sMLP)を設計してTransformer超えを果たした

Main Contributions

Model

image

Transformerのself-attentionの役割をsMLPでは spatial gating unitで行う

Result

image

他のTransformer-baseのモデルよりも短時間で良い性能が出ている。

zerebom commented 2 years ago

Deep Learning for Sequential Recommendation: Algorithms, Influential Factors, and Evaluations

概要

Sequential Recommendationの包括的なサーベイ論文。50ページ近くある。以下のようなことがまとめてある。

詳細

https://github.com/zerebom/paper-books/issues/55