目次
Python機械学習ライブラリ scikit-learn活用レシピ80+
- Julian Avila / Trent Hauck / 株式会社クイープ
-
表紙
商標/サンプルコード/正誤表
口絵
著者紹介
レビュー担当者紹介
謝辞
はじめに
本書の内容
本書の対象読者
本書の表記
サンプルコードのダウンロード
第1章 機械学習の枠組みを理解する―NumPyからパイプラインまで/1.1 はじめに
1.2 NumPyの基礎<Recipe 1>
1.3 Irisデータセットを読み込む<Recipe 2>
1.4 Irisデータセットを可視化する<Recipe 3>
1.5 Irisデータセットをpandasで可視化する<Recipe 4>
1.6 NumPyとmatplotlibを使ってプロットする<Recipe 5>
1.7 最も小さな機械学習レシピ:SVM分類<Recipe 6>
1.8 交差検証の紹介<Recipe 7>
1.9 すべてを1つにまとめる<Recipe 8>
1.10 機械学習のオーバービュー:分類と回帰<Recipe 9>
第2章 モデル構築前のワークフローと前処理―サンプルデータの作成から確率的勾配降下法まで/2.1 はじめに
2.2 簡単な分析を行うためのサンプルデータを作成する<Recipe 10>
2.3 標準正規分布の尺度でデータをスケーリングする<Recipe 11>
2.4 しきい値化を通じて二値の特徴量を作成する<Recipe 12>
2.5 カテゴリ値の変数を操作する<Recipe 13>
2.6 さまざまな戦略を使って欠測値を補完する<Recipe 14>
2.7 外れ値が存在する状況での線形モデル<Recipe 15>
2.8 パイプラインを使ってすべてを1つにまとめる<Recipe 16>
2.9 回帰にガウス過程を使用する<Recipe 17>
2.10 回帰に確率的勾配降下法を使用する<Recipe 18>
第3章 次元削減―PCAから性能テストまで/3.1 はじめに
3.2 PCAによる次元削減<Recipe 19>
3.3 分解に因子分析を使用する<Recipe 20>
3.4 非線形次元削減にカーネルPCAを使用する<Recipe 21>
3.5 次元削減にTSVDを使用する<Recipe 22>
3.6 分類のための分解にDictionary Learningを使用する<Recipe 23>
3.7 次元削減に多様体を使用する:t-SNE<Recipe 24>
3.8 次元削減法をパイプラインでテストする<Recipe 25>
第4章 線形モデル―線形回帰からLARSまで/4.1 はじめに
4.2 直線をデータに適合させる<Recipe 26>
4.3 機械学習を使って直線をデータに適合させる<Recipe 27>
4.4 線形回帰モデルを評価する<Recipe 28>
4.5 リッジ回帰を使って線形回帰の欠点を克服する<Recipe 29>
4.6 リッジ回帰のパラメータを最適化する<Recipe 30>
4.7 疎性を使ってモデルを正則化する<Recipe 31>
4.8 LARSによる正則化へのより基本的なアプローチ<Recipe 32>
第5章 ロジスティック回帰―データの読み込みからパイプラインまで
5.1 はじめに/5.2 UCI Machine Learning Repositoryからデータを読み込む<Recipe 33>
5.3 pandasを使ってPima Indians Diabetesデータセットを可視化する<Recipe 34>
5.4 UCI Machine Learning RepositoryのWebページを調べる<Recipe 35>
5.5 ロジスティック回帰による機械学習<Recipe 36>
5.6 混同行列を使ってロジスティック回帰の誤分類を調べる<Recipe 37>
5.7 ロジスティック回帰で分類のしきい値を変化させる<Recipe 38>
5.8 ROC分析<Recipe 39>
5.9 コンテキストなしでROC曲線をプロットする<Recipe 40>
5.10 データセットの読み込みからROC曲線のプロットまでを1つにまとめる:UCI Breast Cancerデータセット<Recipe 41>
ほか
情報理論・情報科学 ランキング
前へ戻る
-
1位
-
2位
-
3位
-
4位
-
5位
次に進む