Open shimopino opened 4 years ago
[arXiv:2005.14187] HAT: Hardware-Aware Transformers for Efficient Natural Language Processing
Hanrui Wang, Zhanghao Wu, Zhijian Liu, Han Cai, Ligeng Zhu, Chuang Gan, Song Han
2020-05-28
NLPの分野ではTransformer系統のモデルにより大きく精度が向上したが、非常に高い計算コストが必要となるため、RaspberryPi4などのハードウェアの制約が存在する環境では、30単語を処理するのに13GFLOPsと20秒を要する。
こういた問題の原因の1つはTransformerの計算効率を測る指標である。第1にFLOPsは正しくレイテンシを反映しておらず、同一のFLOPsであっても大きくレイテンシは異なる可能性がある。第2に最適なTransformerの構造がハードウェアに依存している点である。
本研究では最適なTransformerの探索時にレイテンシによるフィードバックを利用することで、ハードウェアの制約に従ったモデル探索が可能なHardware-Aware Training (HAT) を提案した。
https://github.com/mit-han-lab/hardware-aware-transformers
論文へのリンク
[arXiv:2005.14187] HAT: Hardware-Aware Transformers for Efficient Natural Language Processing
著者・所属機関
Hanrui Wang, Zhanghao Wu, Zhijian Liu, Han Cai, Ligeng Zhu, Chuang Gan, Song Han
投稿日時(YYYY-MM-DD)
2020-05-28
1. どんなもの?
2. 先行研究と比べてどこがすごいの?
NLPの分野ではTransformer系統のモデルにより大きく精度が向上したが、非常に高い計算コストが必要となるため、RaspberryPi4などのハードウェアの制約が存在する環境では、30単語を処理するのに13GFLOPsと20秒を要する。
こういた問題の原因の1つはTransformerの計算効率を測る指標である。第1にFLOPsは正しくレイテンシを反映しておらず、同一のFLOPsであっても大きくレイテンシは異なる可能性がある。第2に最適なTransformerの構造がハードウェアに依存している点である。
本研究では最適なTransformerの探索時にレイテンシによるフィードバックを利用することで、ハードウェアの制約に従ったモデル探索が可能なHardware-Aware Training (HAT) を提案した。
3. 技術や手法の"キモ"はどこにある?
4. どうやって有効だと検証した?
5. 議論はあるか?