LincolnMA / Basic_GHDL

Exemplo básico de GHDL e GTKWave
0 stars 0 forks source link

3ª Fase - Separação de atividades #5

Open LincolnMA opened 5 months ago

LincolnMA commented 5 months ago

Criação/Edição de blocos básicos:

LincolnMA commented 5 months ago

ReLU: Criar uma pasta chamada ReLU onde uma entidade chamada relu deve ser criada e testada com seu respectivo testbench. O tamanho da entrada deve ser definida através de um generic. A saída sempre tem o mesmo tamanho da entrada. A função ReLU é uma função de ativação muito usada em redes neurais e funciona como descrito no link: https://machinelearningmastery.com/rectified-linear-activation-function-for-deep-learning-neural-networks/. Assuma que o MSB sempre carrega o bit de sinal - @LuizFelipeMVF31

LincolnMA commented 5 months ago

# perceptron Na construção de um neurônio do tipo perceptron precisamos de 3 elementos básicos: Circuitos Multiplicadores, Circuitos Somadores e Circuitos que funcionam como as Funções de Ativação, como pode ser visto na figura. Dessa forma não será necessária a utilização de estruturas de memória como latches, flifp-flops e seus derivados.