Open LincolnMA opened 5 months ago
ReLU: Criar uma pasta chamada ReLU onde uma entidade chamada relu deve ser criada e testada com seu respectivo testbench. O tamanho da entrada deve ser definida através de um generic. A saída sempre tem o mesmo tamanho da entrada. A função ReLU é uma função de ativação muito usada em redes neurais e funciona como descrito no link: https://machinelearningmastery.com/rectified-linear-activation-function-for-deep-learning-neural-networks/. Assuma que o MSB sempre carrega o bit de sinal - @LuizFelipeMVF31
# Na construção de um neurônio do tipo perceptron precisamos de 3 elementos básicos: Circuitos Multiplicadores, Circuitos Somadores e Circuitos que funcionam como as Funções de Ativação, como pode ser visto na figura. Dessa forma não será necessária a utilização de estruturas de memória como latches, flifp-flops e seus derivados.
Criação/Edição de blocos básicos: