-
I tried the `ResNet18` model from `keras-applications` (`tf.keras.applications`) and I get an error in the `Add` layer
```
Deleting 3/64 channels from layer: conv2d
Traceback (most recent call la…
-
If we can distill or prune the NLLB-200 shortly after starting fine tuning, we may be able to dramatically reduce (50% or more) the training and inferencing time needed. It could even do something lik…
-
I've installed the correct requirements. But after running this:
`python main.py --dataset cifar10 --arch vgg --depth 16`
I'm getting the following error:
```
Traceback (most recent call last):
…
-
2 Kusama nodes were started on 23th April and left running.
```
{__name__="substrate_build_info", chain="ksmcc3", instance="localhost:9615", job="substrate_node", name="gray-vase-1131", version="1.1…
lexnv updated
2 months ago
-
```python
class StrangeNet(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(3,256,kernel_size=3)
self.bn = nn.BatchNorm2d(256,256)
se…
-
Hello CDK-Erigon Team,
Did you have test erigon pruning features with cdk-erigon? is it ready to be used?
```
--prune value Ch…
-
pruning and tuning DL networks are gaining more attention and dlpy needs to improve its support to pruning and tuning
-
- https://arxiv.org/abs/2006.05467
- 2020 NeurIPS
深層ニューラルネットワークのパラメータを刈り込むことは、学習時とテスト時の両方で、時間、メモリ、エネルギーを節約できる可能性があるため、大きな関心を集めています。
最近の研究では、学習と刈り込みのサイクルを繰り返すことで、宝くじの当選券の存在や、初期化時に学習可能な疎なサブネットワークの存…
e4exp updated
3 years ago
-
- https://arxiv.org/abs/2006.05467
- 2020 NeurIPS
深層ニューラルネットワークのパラメータを刈り込むことは、学習時とテスト時の両方で、時間、メモリ、エネルギーを節約できる可能性があるため、大きな関心を集めています。
最近の研究では、学習と刈り込みのサイクルを繰り返すことで、宝くじの当選券の存在や、初期化時に学習可能な疎なサブネットワークの存…
e4exp updated
3 years ago
-
## 一言でいうと
ネットワークに複数の画像認識を行わせる試みで、最初のタスクを学習させた後にヒマをしているノードを次のタスクにあてて、ということを繰り返していく手法(選別はパラメーターの重みで行う)。これでVGG-16をベースに、3つの分類タスクをそれぞれ個別に学習させたモデル並みの精度で達成。
![image](https://user-images.githubuserconte…