Open nogawanogawa opened 1 year ago
https://github.com/mariusschlegel/mlflow2prov
図が細かいので一部だけ切り取っている。
https://arxiv.org/abs/2302.01107
Bohan Zhuang, Jing Liu, Zizheng Pan, Haoyu He, Yuetian Weng, Chunhua Shen
IJCAI 2023 survey track
最近のTransformerは大きな計算リソースが要求される。
計算量の観点では、モデルの大規模化によって消費電力等が増大している。 またモデルサイズの大規模化に伴い、要求するメモリサイズも指数関数的に増大する。
計算量とメモリリソースを効率的に使用することにより、Transformerの学習を低コスト・高精度で行う事ができるはずである。
Transformerの学習における計算量・メモリリソースの効率化
学習効率は大きく3つのカテゴリに分解でき、それぞれについて調査している。
推薦モデルに対してうまくfeature selectionと量子化を行うことで軽量化と処理の高速化を実現した
Why
Machine Learning 輪講は最新の技術や論文を追うことで、エンジニアが「技術で解決できること」のレベルをあげていくことを目的にした会です。
prev.https://github.com/wantedly/machine-learning-round-table/issues/208
What
話したいことがある人はここにコメントしましょう! 面白いものを見つけた時点でとりあえず話すという宣言だけでもしましょう!