サイト内検索

詳細検索

ヘルプ

セーフサーチについて

性的・暴力的に過激な表現が含まれる作品の表示を調整できる機能です。
ご利用当初は「セーフサーチ」が「ON」に設定されており、性的・暴力的に過激な表現が含まれる作品の表示が制限されています。
全ての作品を表示するためには「OFF」にしてご覧ください。
※セーフサーチを「OFF」にすると、アダルト認証ページで「はい」を選択した状態になります。
※セーフサーチを「OFF」から「ON」に戻すと、次ページの表示もしくはページ更新後に認証が入ります。

平成最後の読書一生分プレゼントキャンペーン(~12/9)

【HB】丸善・ジュンク堂書店×hontoブックツリー ~陳浩基『世界を売った男』文庫化記念~ 日本と中華圏の本格ミステリの水脈 ポイント5倍キャンペーン(~12/5)

目次

統計的学習の基礎 データマイニング・推論・予測

統計的学習の基礎 データマイニング・推論・予測

  • Trevor Hastie(著)/ Robert Tibshirani(著)/ Jerome Friedman(著)/ 杉山 将(監訳)/ 井手 剛(監訳)/ 神嶌 敏弘(監訳)/ 栗田 多喜夫(監訳)/ 前田 英作(監訳)/ 井尻 善久(ほか訳)
  • 第1章 序章
  • 第2章 教師あり学習の概要
    • 2.1 導入
    • 2.2 変数の種類と用語
    • 2.3 予測のための二つの簡単なアプローチ:最小2乗法と最近傍法
    • 2.4 統計的決定理論
    • 2.5 高次元での局所的手法
    • 2.6 統計モデル,教師あり学習,関数近似
    • 2.7 構造化回帰モデル
    • 2.8 制限付き推定法
    • 2.9 モデル選択と,バイアスと分散のトレードオフ
    • 本章の参考文献
    • 本章の演習
  • 第3章 回帰のための線形手法
    • 3.1 導入
    • 3.2 線形回帰モデルと最小2乗法
    • 3.3 変数選択
    • 3.4 縮小推定
    • 3.5 入力に対して線形変換を行う方法
    • 3.6 考察:選択法と縮小法の比較
    • 3.7 複数の目的変数の縮小推定と変数選択
    • 3.8 lassoと関連する解追跡アルゴリズムに関する詳細
    • 3.9 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第4章 分類のための線形手法
    • 4.1 導入
    • 4.2 指示行列の線形回帰
    • 4.3 線形判別分析
    • 4.4 ロジスティック回帰
    • 4.5 分離超平面
    • 本章の参考文献
    • 本章の演習
  • 第5章 基底展開と正則化
    • 5.1 導入
    • 5.2 区分的多項式とスプライン
    • 5.3 フィルタリングと特徴抽出
    • 5.4 平滑化スプライン
    • 5.5 平滑化パラメータの自動選択
    • 5.6 ノンパラメトリックロジスティック回帰
    • 5.7 多次元スプライン
    • 5.8 正則化と再生核ヒルベルト空間
    • 5.9 ウェーブレット平滑化
    • 本章の参考文献
    • 本章の演習
    • 付録:スプラインの計算上考慮すべき事柄
  • 第6章 カーネル平滑化法
    • 6.1 1次元カーネル平滑化手法
    • 6.2 カーネル幅の選択
    • 6.3 Rpにおける局所回帰
    • 6.4 Rpにおける構造化局所回帰モデル
    • 6.5 局所尤度およびその他の手法
    • 6.6 カーネル密度推定と識別
    • 6.7 動径基底関数とカーネル
    • 6.8 密度推定と識別のための混合モデル
    • 6.9 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第7章 モデルの評価と選択
    • 7.1 導入
    • 7.2 バイアス,分散,モデルの複雑度
    • 7.3 バイアス−分散分解
    • 7.4 訓練誤差の最善度
    • 7.5 訓練標本外誤差の推定
    • 7.6 有効パラメータ数
    • 7.7 ベイズ法とベイズ情報量規準
    • 7.8 最小記述長
    • 7.9 バプニック=チェルボネンキス次元
    • 7.10 交差確認
    • 7.11 ブートストラップ法
    • 7.12 条件付きテスト誤差か期待テスト誤差か
    • 本章の参考文献
    • 本章の演習
  • 第8章 モデル推論と平均化
    • 8.1 導入
    • 8.2 ブートストラップと最尤推定法
    • 8.3 ベイズ法
    • 8.4 ブートストラップ法とベイズ推論の関係
    • 8.5 EMアルゴリズム
    • 8.6 事後確率分布から標本抽出するためのMCMC
    • 8.7 バギング
    • 8.8 モデルの平均と統合
    • 8.9 確率的探索:バンピング
    • 本章の参考文献
    • 本章の演習
  • 第9章 加法的モデル,木,および関連手法
    • 9.1 一般化加法的モデル
    • 9.2 木に基づく方法
    • 9.3 抑制的規則導出法
    • 9.4 多変量適応的回帰スプライン
    • 9.5 階層的エキスパート混合モデル
    • 9.6 欠損データ
    • 9.7 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第10章 ブースティングと加法的木
    • 10.1 ブースティング法
    • 10.2 ブースティングによる加法的モデル当てはめ
    • 10.3 前向き段階的加法的モデリング
    • 10.4 指数損失とアダブースト
    • 10.5 なぜ指数損失関数か
    • 10.6 損失関数とロバスト性
    • 10.7 データマイニングの「万能」手法
    • 10.8 例:スパムデータ
    • 10.9 ブースティング木
    • 10.10 勾配ブーステイングによる数値最適化
    • 10.11 ブースティングのための木の適切な大きさ
    • 10.12 正則化
    • 10.13 説明性
    • 10.14 具体例
    • 本章の参考文献
    • 本章の演習
  • 第11章 ニューラルネットワーク
    • 11.1 導入
    • 11.2 射影追跡回帰
    • 11.3 ニューラルネットワーク
    • 11.4 ニューラルネットワークの当てはめ
    • 11.5 ニューラルネットワークを訓練するときのいくつかの問題
    • 11.6 例:試行データ
    • 11.7 例:郵便番号データ
    • 11.8 考察
    • 11.9 ベイズニューラルネットワークとNIPS 2003チャレンジ
    • 11.10 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第12章 サポートベクトルマシンと適応型判別
    • 12.1 導入
    • 12.2 サポートベクトル分類器
    • 12.3 サポートベクトルマシンとカーネル
    • 12.4 線形判別分析の一般化
    • 12.5 適応型判別分析
    • 12.6 罰則付き判別分析
    • 12.7 混合判別分析
    • 12.8 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第13章 プロトタイプ法と最近傍探索
    • 13.1 導入
    • 13.2 プロトタイプ法
    • 13.3 k最近傍分類器
    • 13.4 適応的最近傍法
    • 13.5 計算上考慮すべき事柄
    • 本章の参考文献
    • 本章の演習
  • 第14章 教師なし学習
    • 14.1 導入
    • 14.2 相関ルール
    • 14.3 クラスタ分析
    • 14.4 自己組織化マップ
    • 14.5 主成分分析と主曲線・主曲面
    • 14.6 非負値行列分解
    • 14.7 独立成分分析と探索的射影追跡
    • 14.8 多次元尺度構成法
    • 14.9 非線形次元削減と局所多次元尺度構成法
    • 14.10 Googleページランクのアルゴリズム
    • 本章の参考文献
    • 本章の演習
  • 第15章 ランダムフォレスト
    • 15.1 導入
    • 15.2 ランダムフォレストの定義
    • 15.3 ランダムフォレストの詳細
    • 15.4 ランダムフォレストの解析
    • 本章の参考文献
    • 本章の演習
  • 第16章 アンサンブル学習
    • 16.1 導入
    • 16.2 ブースティングと正則化軌跡
    • 16.3 アンサンブルの学習
    • 本章の参考文献
    • 本章の演習
  • 第17章 無向グラフィカルモデル
    • 17.1 導入
    • 17.2 マルコフグラフとその性質
    • 17.3 連続変数に対する無向グラフィカルモデル
    • 17.4 離散変数に対する無向グラフィカルモデル
    • 本章の参考文献
    • 本章の演習
  • 第18章 高次元の問題
    • 18.1 pがNよりもかなり大きい場合
    • 18.2 対角線形判別分析と最近傍縮小重心
    • 18.3 2次正則化を用いた線形分類器
    • 18.4 L1正則化を用いた線形分類器
    • 18.5 特徴量が使えない場合の分類
    • 18.6 高次元回帰:教師あり主成分分析
    • 18.7 特徴量評価と多重検定問題
    • 本章の参考文献
    • 本章の演習