github-nakasho / quantph

MIT License
68 stars 2 forks source link

Knowledge Distillation in Quantum Neural Network using Approximate Synthesis #2944

Open github-nakasho opened 2 years ago

github-nakasho commented 2 years ago

論文概要

様々なハードウェアやノイズレベルに対しQNN設計を可能にする、近似合成によるQNNの知識蒸留。層数を減らし異なるゲートセットを持つ新しいQNNを、ゼロから学習することなく作成できる。回路層を71.4%削減しても16.2%の精度向上を達成した。

論文を理解する上で重要な図など

Screen Shot 2022-07-06 at 9 05 50 AM Screen Shot 2022-07-06 at 9 06 15 AM Screen Shot 2022-07-06 at 9 06 26 AM Screen Shot 2022-07-06 at 9 06 34 AM

論文リンク

https://arxiv.org/abs/2207.01801

8660101866 commented 2 years ago

Can you give your code please?