言語モデルについてまとめた資料。特に深層学習に着目し、言語モデルへの理解を深めていく。
Note
制作中。 4章までは整っている。5章以降はバージョンが古い(2年前)
1. 言語モデル
言語モデルの概要やそれを用いた文章生成について。
- 言語モデル
- 言語モデルを用いた文章生成
- 学習済み言語モデルを体験する
2. マルコフモデル
まずはシンプルなモデルで言語モデルを学ぶ。
- マルコフモデルを用いた言語モデル
- マルコフモデルの学習
- N階マルコフモデル
大きなデータセットとトークナイザの活用方法について。
- コーパス
- トークナイザ
- コーパスを活用したマルコフモデルの学習
- 深層学習に向けたデータセットの構築
4. 深層学習の導入
深層学習を用いてマルコフモデルを実装し、深層学習の活用方法を学ぶ。
- 学習データの用意
- モデル構築
- パープレキシティ
- 実践
5. RNN
RNNを用いて文脈全体を考慮した言語モデルを実装する。
- RNN
- RNNを用いた言語モデル
- 教師データの作成
- BPTT
- RNNにおけるミニバッチ学習
- 実践
6. ゲート付きRNN
RNN層にゲートと呼ばれる機構を追加し、より長期的な文脈の情報を保持できるようにする。
- 勾配消失
- ゲート
- GRU
- LSTM
- 実践
7. Seq2Seq
あるシーケンスから別のシーケンスへの変換を行うSeq2Seqというモデルを学び、機械翻訳へ応用する。
- 条件付き言語モデル
- Seq2Seq
- 教師データの作成
- 双方向RNN
- ビームサーチ
- 実践
8. Attention
データの全体を見た上で重要な部分に着目するような仕組み。これを用いることでSeq2Seqの性能が向上する。
- Attention機構
- Attentionを用いたSeq2Seq
- 実践
- Attentionの可視化
9. Transformer
現在の言語モデルの根幹を担うアーキテクチャであるTransformerについて学ぶ。
- Transformerの概要
- Positional Encoding
- Self-Attention
- Query-Key-Value Attention
- Multi-Head Attention
- Transformer Encoder
- Transformer Decoder
- Transformer
- 実践