slp-ntua / slp-lab-support-19-20

1 stars 0 forks source link

Lab 3: 4.2 #26

Open evansfk opened 4 years ago

evansfk commented 4 years ago

Στο αμφίδρομο LSTM με attention έχουμε 2 attention layers (ένα ανά κατεύθυνση)?

georgepar commented 4 years ago

Πρώτα κάνετε merge τις κατευθύνσεις μεταξύ τους και μετά να κάνετε attention. Συνοπτικά, αν N o αριθμός των timesteps και h το hidden size:

Μπορείτε να δοκιμάσετε και την εναλλακτική που προτείνετε για να συγκρίνετε, αλλά εμείς ζητάμε αυτό που περιέγραψα.