HaraHeique / TCC-rede-neural-siamesa

Trabalho Conclusão de Curso com a implementação da Rede Neural Siamesa do Campus IFES Serra.
4 stars 0 forks source link

Regularizar os pesos da rede no processo de treinamento da rede #40

Open HaraHeique opened 3 years ago

HaraHeique commented 3 years ago

Alterar os pesos da rede a fim otimizá-la. Para isto deve modificar os seguinte hyperparâmetros da rede:

Link da documentação do Keras:

HaraHeique commented 3 years ago

@Fideliszan

A mudança no código para definição dos pesos são tranquilas pelo menos na rede LSTM, como mostrado na imagem abaixo.

image

Este foi o resultado da curva definindo pesos que peguei na própria documentação que foram determinados de maneira aleatório. Logo, como é mostrado no gráfico, não deve ser os melhores pesos. Assim como não tenho conhecimento de quais seriam os melhores pesos para tais condições poderiamos analisar melhor para defini-los.

history-graph-28_07_2021-03_11_11-WORD2VEC_GOOGLE_NEWS-LSTM-MANHATTAN-70-30-10-17

Os pesos definidos foram os seguintes:

image

Outra coisa também que poderia fazer é colocar um conjunto de pesos para que o hyperas escolha qual é o melhor em dada situação (para X dataset e Y word embedding).

OBS.: O único teste feito foi com o dataset cru, função de Manhattan e partição 70/30. Não foi feito outros testes devido o tempo de processamento para cada época. Isto ocorreu principalmente pela adição desses pesos.

HaraHeique commented 3 years ago

@Fideliszan

Resultados de treinamento com dataset sem stopwords e sem stopwords + lematizado:

history-graph-28_07_2021-04_17_51-WORD2VEC_GOOGLE_NEWS-LSTM-MANHATTAN-70-30-10-9

history-graph-28_07_2021-04_41_01-WORD2VEC_GOOGLE_NEWS-LSTM-MANHATTAN-70-30-10-9

Ambos realizados com os hiperparâmetros provenientes do hyperas que foi feito utilizando o dataset cru. Logo seria necessário rodar novamente o hyperas para estes outros datasets e usando o mesmo word embedding.