mlpnlp / mlpnlp

機械学習プロフェッショナルシリーズ 深層学習による自然言語処理
https://sites.google.com/view/mlpdeeplearning4nlp
Apache License 2.0
36 stars 2 forks source link

機械学習プロフェッショナルシリーズ 深層学習による自然言語処理

このページで正誤表を管理します。書籍の誤植等を見つけられた方は https://github.com/mlpnlp/mlpnlp/issues にIssueを作ってお知らせいただけると幸いです.

issue 報告者 ページ 修正前 修正後 修正済版  
#1 shirayu様 p. 113 noise contrasive estimation noise contrastive estimation 第2刷
#2 tam17aki様 p. 40 「... この仮定時間ごとに異なるパラメータを使うモデルに比べてパラメータ数が減り、...」 「... この仮定により時間ごとに異なるパラメータを使うモデルに比べてパラメータ数が減り、...」 第3刷
#3 @stomohide様 p. 36 式(2.62) before after 第3刷
#4 eiichiroi様 p. 109 式(4.35) softmax-eq-4 36-error softmax-eq-4 36 第3刷
#5 tomohideshibat様 p. 92 式(4.4) eq4 4org eq4 4new-bmatrix 第4刷
#5 tomohideshibat様 p. 94 式(4.7) eq4 7org eq4 7new-bmatrix 第4刷
#6 tomohideshibat様 P.92 最終段落 ほとんど最初の3単語のみの情報 ほとんど3番目の入力単語のみの情報 第4刷
#7 shirayu様 P.24 最終段落 必ず微分係数が1以上になります p24-flの微分の絶対値が小さくても全体の微分係数は1に近い値になります 第4刷
#8 himkt様 P.10 式(2.5) eq2 5org eq2 5new 第4刷
#9 yuutat P.146-148 図5.6, 図5.7, 図5.8 符号化器  figure5 6-5 8org-small (緑の箱が実線) figure5 6-5 8new-small (緑の箱は点線。ただし、入力の1つ目だけは実線) 第4刷
#10 yuutat P.166 図 6.3 凡例 「訓練データでの誤差」が青線、 「訓練データ以外での誤差」が黒線 「開発データでの誤差」が青線、 「訓練データでの誤差」が黒線 第4刷
#11 scapegoat06様 P.29 3段落目 入力列全体 p29-inputseq-org 入力列全体 p29-inputseq-new 第4刷
#13 arumtaunsaram様 P.79 (4) 復号化器再帰層 復号化器埋め込み層の処理に対する入出力は  復号化器再帰層の処理に対する入出力は
#14 ysekky様 P.100 一般化 genelarization generalization
#16 ysekky様 P.106 4.2.4節 sementic memory module semantic memory module
#18 ktphy様 P.68 式(3.22) eq3 22org eq3 22new (exp 抜け)
#21 dkawahara様 P.32 4行目 対処できます 対処できます
#23 murawaki様 p.137 下から10行目 連結します関数concat 連結します. 関数concat
#24 murawaki様 P.53 式(3.14) eq3 14org eq3 14new
#24 murawaki様 P.54冒頭 p54-pmodelorg p54-pmodelnew
#24 murawaki様 P.55 式(3.15) eq3 15org eq3 15new
#26 dkawahara様 P.100 4.2.1節 2行目 モデル考えます モデルを考えます
#28 dkawahara様 P.104 4.2.3節 下から2行目 質問文 q 質問文 q
#29 dkawahara様 P.107 4.2.4節 下から2行目 ベクトル使って ベクトルを使って
#31 dkawahara様 P.154 5.4.1節 最下行 文のベクトルを単一のベクトルに符号化します 文を単一のベクトルに符号化します
#32 krxross様 P.208 7.5.1節 5行目 ReLU関数は0の周辺で不連続に変化します ReLU関数の微分は0の周辺で不連続に変化します
#32 krxross様 P.208 7.5.1節 11行目 不連続な点をまたがないように 微分不可能な点をまたがないように
#33 tezoooka様 P.102 4.2.2節 上から2行目 内部情報とし扱います 内部情報として扱います
#35 taku-buntu様 P.14 参考2.2 最下段 期待があるのだと思いますの 期待があるのだと思います
#38 kamujun様 P.132 5.2.1節 test summarization challenge (TSC) text summarization challenge (TSC)
#20 1an9ua9e様 P.117 4.3.5節 eq4.61org eq4.61new
#25 murawaki様 p.102 4.2.2節 下から4行目 m_1, m_2 m_{o_1}, m_{o_2}
#39 Isa-rentacs様 P.202 アルゴリズム7.2 k = rN k = \lfloor rN \rfloor
#36 taku-buntu様 P.22 式2.29の右辺第二項
#15 ysekky様 P.92 式(4.3)の上の文 復号化器が $j$ 番目の単語を推定するときに,符号化器の $i$ 番目の状態ベクトル $\boldh^{\rm(s)}_i$ の重要度を示すスカラー値の重みを $a_i \in \mathbbR$ とします. 復号化器が $j$ 番目の単語を推定するときに,符号化器の $i$ 番目の状態ベクトル $\boldh^{\rm(s)}_i$ の重要度を示すスカラー値の重みを $a_{i,j} \in \mathbbR$ とします(以降では簡略化のため$a_i$).
#34 scapegoat06様 P.102 式(4.20)と直前の文 まず,入力情報変換では文(ここでは単語列とします)を $D$ 次元ベクトルに変換します. 様々な変換の方法が考えられますが,単純に埋め込みベクトルの和の形で変換します.
image (4.20)

次に,一般化では単純に新しい記憶情報を追加します. これは,知識源として入力された記憶情報を $\bm{m}_N$ に image と代入するだけです.
入力情報 $x$ は入力情報変換によって前処理などを施されて$I(x)$として扱います. 次に,一般化では単純に新しい記憶情報を追加します. これは,知識源として入力された記憶情報を以下のように代入することに相当します。
image (4.20) 

ただし,以降では単純な実装を想定し,入力 $x$ はそのままimageと代入するものとします.
#34 scapegoat06様 P.102-103 の x出現位置すべて x (bold) x
#41 f-okuya-pro8様 P.67 8行目 考てみます 考えてみます
#42 f-okuya-pro8様 P.187 8行目 精度の少ない 精度の低い
#43 f-okuya-pro8様 P.187 11行目 「狭まく 狭く
#44 f-okuya-pro8様 P.192 15,16行目 最大文長よりも大きい 最大文長以上の
#45 f-okuya-pro8様 P.204 10行目 連鎖率 連鎖律
#46 f-okuya-pro8様 P.207 7.5.1 2行目 後ろ処理 後ろ向き処理
#48 mamoruitoi様 P.18 式(2.19) 下文 $i \in \{1, \ldots, \|{\cal D}\|\}$ ${\rm n} \in \{1, \ldots, \|{\cal D}\|\}$ 第7刷
#49 totuta様 P.13 図2.1 $h1^{\rm (l-1)}$ から $W{12}^{\rm (l)}$ へ、 $h2^{\rm (l-1)}$ から $W{21}^{\rm (l)}$ へ矢印 $h1^{\rm (l-1)}$ から $W{21}^{\rm (l)}$ へ、 $h2^{\rm (l-1)}$ から $W{12}^{\rm (l)}$ へ矢印 第7刷