Open agatan opened 4 years ago
airbnb が 2018 年に書いていた Applying Deep Learning To Airbnb Search の続編。 DNN が出力するランキングと、実際にユーザが予約する listing の特徴量を見比べて、最適解とのずれを分析。 その結果を DNN のモデリングに組み込んでみるも、単純に突っ込むだけではうまく行かず... みたいな苦労話がいくつか書かれている。
ふつう training/inference にかかるコストや時間を削減しようと思ったら、モデルを小さいものにするというアプローチを取る事が多い。 が、transformer ではむしろ巨大なモデルを短い時間学習するほうが training にかかる時間と精度のトレードオフにおいて有利であることを実験で示した。 さらに、そうして得られた巨大なモデルを強めに pruning することで、小さいモデルより高い精度を保ちつつ、推論コストも下げられることを確かめている。
昔の回ではなした ELECTRA のコードとブログが公開された。transformers で使える日も近そう。
あんまり読んでないけど面白そうなやつシリーズ
https://arxiv.org/abs/1912.09713
https://ai.googleblog.com/2020/03/measuring-compositional-generalization.html
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev. #38
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!