vitalwarley / research

2 stars 0 forks source link

Avaliar FaceTransformer #32

Closed vitalwarley closed 1 year ago

vitalwarley commented 1 year ago

https://github.com/zhongyy/Face-Transformer

matheuslevi11 commented 1 year ago

Arquitetura da Rede arch

[1] A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly et al., “An image is worth 16x16 words: Transformers for image recognition at scale,” arXiv preprint arXiv:2010.11929, 2020.

matheuslevi11 commented 1 year ago

Execução do projeto:

O projeto é relativamente simples de se executar, porém precisa de algumas adaptações para fazer funcionar, eis o passo a passo:

  1. Clonar o projeto e instalar as dependências. ( O requirements.txt precisa de um pequeno ajuste )
  2. Mover arquivos para o diretório de instalação do vit-pytorch, conforme descrito no tópico Preparation do README
  3. Baixar as bases de testes presentes em Databases no README e colocá-las numa pasta chamada eval na raiz do projeto
  4. Para executar testes, é preciso criar uma pasta chamada Results e colocar dentro os modelos pré-treinados disponíveis no item 4 do README
vitalwarley commented 1 year ago

Muito bom, @matheuslevi11.

Já os resultados com a base de dados maior se mostram promissores,competitiva com a ResNet

Previsível, de fato, que isso poderia acontecer. Transformers são bem famintos em termos de número de amostras.

Clonar o projeto e instalar as dependências. ( O requirements.txt precisa de um pequeno ajuste )

Qual ajuste?

matheuslevi11 commented 1 year ago
@@ -1,14 +1,13 @@
-sklearn~=0.0
-scikit-learn~=0.24.2
+scikit-learn

Estes são os ajustes, se trata somente de ajustar a instalação do scikit-learn para a forma atual