RafaelDavisH / news-translation-tasks

BSD 3-Clause "New" or "Revised" License
0 stars 0 forks source link

[How Does Knowledge Distillation Work in Deep Learning Models?](https://www.freecodecamp.org/news/knowledge-distillation-in-deep-learning-models/) #3

Closed RafaelDavisH closed 2 months ago

RafaelDavisH commented 2 months ago

name: Tarea de traducción (auto-crawl) about: "Añade un nuevo artículo para traducir y rastrearlo automáticamente usando Auto GitHub Actions". title: "[Auto] (sustituir por el título chino de la traducción aquí)" labels: Se necesita traducción asignados: ''