usersan / papers

読んだ論文のメモ置き場:主にエッジAI、高速化、FPGA実装関連など
0 stars 0 forks source link

GPTQ: Accurate Post-Training Quantization for Generative Pre-trained Transformers #48

Open tera1k opened 1 year ago

tera1k commented 1 year ago

0. 論文

https://arxiv.org/abs/2210.17323

Elias Frantar, Saleh Ashkboos, Torsten Hoefler, Dan Alistarh

1. どんなもの?

GPTQ Transformer量子化

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?