サイト内検索

詳細検索

ヘルプ

セーフサーチについて

性的・暴力的に過激な表現が含まれる作品の表示を調整できる機能です。
ご利用当初は「セーフサーチ」が「ON」に設定されており、性的・暴力的に過激な表現が含まれる作品の表示が制限されています。
全ての作品を表示するためには「OFF」にしてご覧ください。
※セーフサーチを「OFF」にすると、アダルト認証ページで「はい」を選択した状態になります。
※セーフサーチを「OFF」から「ON」に戻すと、次ページの表示もしくはページ更新後に認証が入ります。

平成最後の読書一生分プレゼントキャンペーン(~12/9)

2019年版カレンダー ポイントキャンペーン ~11/30

目次

学習理論

学習理論

  • 高橋 治久(共著)/ 堀田 一弘(共著)
  • 1.序章
    • 1.1 事象と確率
    • 1.2 ベイズの定理
    • 1.3 確率変数
    • 1.4 期待値と確率分布
    • 1.5 多次元確率変数
    • 1.6 確率過程
    • 1.7 最尤法
    • 章末問題
  • 2.学習理論の基礎
    • 2.1 学習の必要性
    • 2.2 生成モデルと識別モデル
    • 2.3 識別モデルと学習アルゴリズム
    • 2.4 経験誤差コストによる学習
    • 章末問題
  • 3.機械学習
    • 3.1 有限事例からの学習
    • 3.2 回帰問題と生成モデル
    • 3.3 ブースティング
    • 3.4 動的モデル
    • 章末問題
  • 4.サポートベクトルマシン
    • 4.1 サポートベクトルマシンの特色
    • 4.2 双対性
    • 4.3 単純パーセプトロンと双対性
    • 4.4 カーネル非線形写像
    • 4.5 線形代数の予備知識
    • 4.6 カーネルの条件
    • 4.7 カーネルの性質
    • 4.8 カーネルの生成
    • 4.9 最大マージン識別面
    • 4.10 最適化法
    • 4.11 サポートベクトルマシン
    • 4.12 ソフトマージンサポートベクトルマシン
    • 4.13 回帰問題の定式化
    • 4.14 生成カーネル
    • 4.15 カーネルのつくり方
    • 4.16 マルチクラスサポートベクトルマシン
    • 4.17 サポートベクトルマシンの応用例
    • 章末問題
  • 5.生成学習モデル
    • 5.1 マルコフ確率場
    • 5.2 条件付確率場
    • 5.3 前向き・後ろ向きアルゴリズム
    • 5.4 応用例
    • 5.5 最尤推定
    • 5.6 平均場近似法
    • 5.7 平均場最尤推定
    • 5.8 EMアルゴリズム
    • 5.9 混合ガウスモデル
    • 5.10 変分ベイズ法
    • 5.11 レリバンスベクトルマシン
    • 章末問題
  • 6.サンプル計算量と汎化誤差
    • 6.1 記憶容量
    • 6.2 次元
    • 6.3 VC理論
    • 6.4 成長関数の上界
    • 6.5 多層ニューラルネットワーク
    • 6.6 ゼロマージン仮説
    • 6.7 ゼロマージン仮説と最大マージン仮説の汎化誤差