このページで正誤表を管理します。書籍の誤植等を見つけられた方は https://github.com/mlpnlp/mlpnlp/issues にIssueを作ってお知らせいただけると幸いです.
issue | 報告者 | ページ | 修正前 | 修正後 | 修正済版 |
---|---|---|---|---|---|
#1 | shirayu様 | p. 113 | noise contrasive estimation | noise contrastive estimation | 第2刷 |
#2 | tam17aki様 | p. 40 | 「... この仮定を時間ごとに異なるパラメータを使うモデルに比べてパラメータ数が減り、...」 | 「... この仮定により時間ごとに異なるパラメータを使うモデルに比べてパラメータ数が減り、...」 | 第3刷 |
#3 | @stomohide様 | p. 36 式(2.62) | 第3刷 | ||
#4 | eiichiroi様 | p. 109 式(4.35) | 第3刷 | ||
#5 | tomohideshibat様 | p. 92 式(4.4) | 第4刷 | ||
#5 | tomohideshibat様 | p. 94 式(4.7) | 第4刷 | ||
#6 | tomohideshibat様 | P.92 最終段落 | ほとんど最初の3単語のみの情報 | ほとんど3番目の入力単語のみの情報 | 第4刷 |
#7 | shirayu様 | P.24 最終段落 | 必ず微分係数が1以上になります | の微分の絶対値が小さくても全体の微分係数は1に近い値になります | 第4刷 |
#8 | himkt様 | P.10 式(2.5) | 第4刷 | ||
#9 | yuutat | P.146-148 図5.6, 図5.7, 図5.8 符号化器 | (緑の箱が実線) | (緑の箱は点線。ただし、入力の1つ目だけは実線) | 第4刷 |
#10 | yuutat | P.166 図 6.3 凡例 | 「訓練データでの誤差」が青線、 「訓練データ以外での誤差」が黒線 | 「開発データでの誤差」が青線、 「訓練データでの誤差」が黒線 | 第4刷 |
#11 | scapegoat06様 | P.29 3段落目 | 入力列全体 | 入力列全体 | 第4刷 |
#13 | arumtaunsaram様 | P.79 (4) 復号化器再帰層 | 復号化器埋め込み層の処理に対する入出力は | 復号化器再帰層の処理に対する入出力は | |
#14 | ysekky様 | P.100 一般化 | genelarization | generalization | |
#16 | ysekky様 | P.106 4.2.4節 | sementic memory module | semantic memory module | |
#18 | ktphy様 | P.68 式(3.22) | (exp 抜け) | ||
#21 | dkawahara様 | P.32 4行目 | 対処できるます | 対処できます | |
#23 | murawaki様 | p.137 下から10行目 | 連結します関数concat | 連結します. 関数concat | |
#24 | murawaki様 | P.53 式(3.14) | |||
#24 | murawaki様 | P.54冒頭 | |||
#24 | murawaki様 | P.55 式(3.15) | |||
#26 | dkawahara様 | P.100 4.2.1節 2行目 | モデル考えます | モデルを考えます | |
#28 | dkawahara様 | P.104 4.2.3節 下から2行目 | 質問文 q | 質問文 q | |
#29 | dkawahara様 | P.107 4.2.4節 下から2行目 | ベクトル使って | ベクトルを使って | |
#31 | dkawahara様 | P.154 5.4.1節 最下行 | 文のベクトルを単一のベクトルに符号化します | 文を単一のベクトルに符号化します | |
#32 | krxross様 | P.208 7.5.1節 5行目 | ReLU関数は0の周辺で不連続に変化します | ReLU関数の微分は0の周辺で不連続に変化します | |
#32 | krxross様 | P.208 7.5.1節 11行目 | 不連続な点をまたがないように | 微分不可能な点をまたがないように | |
#33 | tezoooka様 | P.102 4.2.2節 上から2行目 | 内部情報とし扱います | 内部情報として扱います | |
#35 | taku-buntu様 | P.14 参考2.2 最下段 | 期待があるのだと思いますの | 期待があるのだと思います | |
#38 | kamujun様 | P.132 5.2.1節 | test summarization challenge (TSC) | text summarization challenge (TSC) | |
#20 | 1an9ua9e様 | P.117 4.3.5節 | |||
#25 | murawaki様 | p.102 4.2.2節 下から4行目 | m_1, m_2 |
m_{o_1}, m_{o_2} |
|
#39 | Isa-rentacs様 | P.202 アルゴリズム7.2 | k = rN |
k = \lfloor rN \rfloor |
|
#36 | taku-buntu様 | P.22 式2.29の右辺第二項 | |||
#15 | ysekky様 | P.92 式(4.3)の上の文 | 復号化器が $j$ 番目の単語を推定するときに,符号化器の $i$ 番目の状態ベクトル $\boldh^{\rm(s)}_i$ の重要度を示すスカラー値の重みを $a_i \in \mathbbR$ とします. |
復号化器が $j$ 番目の単語を推定するときに,符号化器の $i$ 番目の状態ベクトル $\boldh^{\rm(s)}_i$ の重要度を示すスカラー値の重みを $a_{i,j} \in \mathbbR$ とします(以降では簡略化のため$a_i$ ). |
|
#34 | scapegoat06様 | P.102 式(4.20)と直前の文 | まず,入力情報変換では文(ここでは単語列とします)を $D$ 次元ベクトルに変換します. 様々な変換の方法が考えられますが,単純に埋め込みベクトルの和の形で変換します. (4.20) 次に,一般化では単純に新しい記憶情報を追加します. これは,知識源として入力された記憶情報を $\bm{m}_N$ に と代入するだけです. |
入力情報 $x$ は入力情報変換によって前処理などを施されて$I(x)$として扱います. 次に,一般化では単純に新しい記憶情報を追加します. これは,知識源として入力された記憶情報を以下のように代入することに相当します。 (4.20) ただし,以降では単純な実装を想定し,入力 $x$ はそのままと代入するものとします. |
|
#34 | scapegoat06様 | P.102-103 の x出現位置すべて | x (bold) | x | |
#41 | f-okuya-pro8様 | P.67 8行目 | 考てみます | 考えてみます | |
#42 | f-okuya-pro8様 | P.187 8行目 | 精度の少ない | 精度の低い | |
#43 | f-okuya-pro8様 | P.187 11行目 | 「狭まく | 狭く | |
#44 | f-okuya-pro8様 | P.192 15,16行目 | 最大文長よりも大きい | 最大文長以上の | |
#45 | f-okuya-pro8様 | P.204 10行目 | 連鎖率 | 連鎖律 | |
#46 | f-okuya-pro8様 | P.207 7.5.1 2行目 | 後ろ処理 | 後ろ向き処理 | |
#48 | mamoruitoi様 | P.18 式(2.19) 下文 | $i \in \{1, \ldots, \|{\cal D}\|\} $ |
${\rm n} \in \{1, \ldots, \|{\cal D}\|\} $ |
第7刷 |
#49 | totuta様 | P.13 図2.1 | $h1^{\rm (l-1)}$ から $W{12}^{\rm (l)}$ へ、 $h2^{\rm (l-1)}$ から $W{21}^{\rm (l)}$ へ矢印 | $h1^{\rm (l-1)}$ から $W{21}^{\rm (l)}$ へ、 $h2^{\rm (l-1)}$ から $W{12}^{\rm (l)}$ へ矢印 | 第7刷 |