sjquan / 2022-Study

56 stars 8 forks source link

[12/13]GPTQ: ACCURATE POST-TRAINING QUANTIZATION FOR GENERATIVE PRE-TRAINED TRANSFORMERS #11

Open penpaperkeycode opened 1 year ago

penpaperkeycode commented 1 year ago

Date: 2022.12.13 Presenter: Jeonghoon Kim Keywords: Post-training quantization, GPT, causal language model task, acceleration, cuda kernel

A100 1장으로 175B까지 PTQ하는 논문 입니다. 방법론 자체가 기존 SOTA 방법과는 많이 달라 신기해서 관심을 많기 갖고 있는 논문입니다.

Paper(ICLR2023): https://openreview.net/forum?id=tcbBPnfwxS