目次
深層学習 改訂第2版 (機械学習プロフェッショナルシリーズ)
- 岡谷 貴之(著)
- 第1章 はじめに
- 1.1 研究の歴史
- 1.2 本書の構成
- 第2章 ネットワークの基本構造
- 2.1 ユニットと活性化関数
- 2.2 順伝播型ネットワーク
- 2.3 学習の概要
- 2.4 問題の定式化:出力層と損失関数の設計
- 第3章 確率的勾配降下法
- 3.1 確率的勾配降下法(SGD)
- 3.2 汎化性能と過剰適合
- 3.3 正則化
- 3.4 学習率の選定と制御
- 3.5 SGDの改良
- 3.6 層出力の正規化
- 3.7 重みの初期化
- 3.8 その他
- 第4章 誤差逆伝播法
- 4.1 勾配計算の煩わしさ
- 4.2 誤差逆伝播法
- 4.3 自動微分
- 4.4 勾配消失問題
- 4.5 残差接続
- 第5章 畳み込みニューラルネットワーク
- 5.1 単純型細胞と複雑型細胞
- 5.2 畳み込み
- 5.3 畳み込み層
- 5.4 プーリング層
- 5.5 畳み込み層の出力の正規化
- 5.6 推論のためのCNNの構造
- 5.7 入出力間の幾何学的関係
- 5.8 畳み込み層の一般化
- 5.9 アップサンプリングと畳み込み
- 5.10 物体カテゴリ認識への適用例
- 第6章 系列データのためのネットワーク
- 6.1 系列データ
- 6.2 リカレントニューラルネットワーク
- 6.3 ゲート機構
- 6.4 自己回帰モデル
- 6.5 1次元畳み込みネットワーク
- 6.6 逆伝播の計算
- 第7章 集合・グラフのためのネットワークと注意機構
- 7.1 集合データを扱うネットワーク
- 7.2 注意機構
- 7.3 トランスフォーマー
- 7.4 グラフニューラルネットワーク
- 第8章 推論の信頼性
- 8.1 推論の不確かさ
- 8.2 不確かさの数理モデル
- 8.3 不確かさの予測
- 8.4 分布外入力の検出
- 8.5 敵対的事例
- 8.6 品質保証の試み
- 第9章 説明と可視化
- 9.1 はじめに
- 9.2 入力による出力の微分
- 9.3 入力の遮蔽・挿入
- 9.4 中間層出力の表示
- 9.5 寄与度の分解
- 9.6 寄与度の逆伝播
- 9.7 可視化手法の評価
- 9.8 影響関数
- 9.9 学習内容の可視化
- 第10章 いろいろな学習方法
- 10.1 距離計量学習
- 10.2 事例集合(マルチインスタンス)学習
- 10.3 クラスラベルの誤り
- 10.4 クラス間不均衡
- 10.5 継続・追加学習
- 10.6 知識蒸留
- 10.7 枝刈り
- 10.8 計算の量子化
- 10.9 ネットワーク構造探索(NAS)
- 第11章 データが少ない場合の学習
- 11.1 はじめに
- 11.2 データ拡張
- 11.3 転移学習
- 11.4 半教師あり学習
- 11.5 自己教師学習
- 11.6 マルチタスク学習
- 11.7 ドメイン適応・汎化
- 11.8 少数事例学習
- 11.9 能動学習
- 第12章 生成モデル
- 12.1 データの生成モデル
- 12.2 自己符号化器
- 12.3 変分自己符号化器(VAE)
- 12.4 敵対的生成ネットワーク(GAN)
- 12.5 正規化フロー
- 12.6 ボルツマンマシン
情報理論・情報科学 ランキング
情報理論・情報科学のランキングをご紹介します情報理論・情報科学 ランキング一覧を見る
前へ戻る
-
1位
-
2位
-
3位
-
4位
-
5位
-
6位
-
7位
-
8位
-
9位
-
10位
次に進む