紙の本
何も知らないところから始められます
2017/04/02 23:53
5人中、5人の方がこのレビューが役に立ったと投票しています。
投稿者:honto_viewer - この投稿者のレビュー一覧を見る
この本に書かれているとおりに、Pythonを初めてインストールし、触りました。人工知能も初めて勉強します。この本には、人工知能の原理と、数式と、それを実現するための実際に動くコードが、書かれています。数学の知識は高校数学までで大丈夫なようですが、数学のセンスというものが必要で、「入力する配列の次元は何を意味しているんだろう?forで何を繰り返しているんだろう?」と、理解するのに時間がかかります。コードの説明は、ネットで調べられるグラフ描画等の一般的なコマンドについては省略されているので、Pythonが初めての場合は自分で調べる必要があります。
紙の本
ゼロからコードを書く
2016/12/23 20:04
4人中、3人の方がこのレビューが役に立ったと投票しています。
投稿者:Freiheit - この投稿者のレビュー一覧を見る
ゼロからコードを書くことで、しっかりと基礎を学ばせようとするコンセプトで書かれている。ライブラリは極力使われていない。
紙の本
ゼロから作るDeep Learning Python
2016/12/05 19:58
3人中、3人の方がこのレビューが役に立ったと投票しています。
投稿者:T - この投稿者のレビュー一覧を見る
大分頭の錆び付いた特にプログラミングを本業としない元理系中年読者だが、本書は理解できた。PythonとNumpiを使うと可也簡潔なコードでニューラルネット等が書けると知った。DeepLearningの部分はもっとページをさいて詳しく説明や利用例が有っても良いと思った。今後もこういったタイプの一般読者でもついて行ける様な書き方の本で更にアドバンスドな部分を書いて頂けないかと期待しております。
紙の本
深層学習に興味があればぜひ
2016/12/05 18:06
3人中、3人の方がこのレビューが役に立ったと投票しています。
投稿者:げん丸 - この投稿者のレビュー一覧を見る
本書では、Pythonを使って、かなり初歩的なパーツの組み立てから始まり、最終的には深層学習を実装していく。詳しい理論については説明が省かれているが、載っているソースコードを弄ったり実行したりしながら最後まで読むと、深層学習がどのように働いるのか分かる様になっている。この本を読むまで、深層学習は自分が理解できる範囲からかけ離れた、魔法のような技術なのかと思っていたが、学校で習う基本的な数学の応用であるようだ。情報系ではなくても、プログラミングを多少でもやったことがあれば理解できる内容。深層学習に興味がある方にオススメ。
紙の本
ディープラーニング
2020/04/24 13:31
1人中、1人の方がこのレビューが役に立ったと投票しています。
投稿者:でんでん - この投稿者のレビュー一覧を見る
この本の良いところは非常に噛み砕いたうえで読みやすく解説されているところだと思います。ディープラーニングの理論から丁寧に解説されており読破したうえで割としっかりと理解できました。
ただ、この本を読むに当たってPythonの文法はある程度書けることが前提となっているようには感じましたのでもしこの本を読まれるならばまず、基礎的な文法は押さえておくべきだとおもいます。
投稿元:
レビューを見る
既存のフレームワークを用いず、パーセプトロンからcnnの実装まで解説されていて、登竜門として最適な本。個人的には理論から入るよりも分かりやすかった。
投稿元:
レビューを見る
今年読んだ本の中で、間違いなく5本の指に入る一冊。
流行りのDeep Learningのアルゴリズムを分かりやすく解説しています。
特に、計算グラフを使っての、誤差逆伝搬法の章は面白かった。
実際にPythonを使って何作ってみたくなった。Mac、Windows、iPadそれぞれにPythonの環境を整えてしまったw
投稿元:
レビューを見る
GWの4日間使ってやってみた。集中した時間は延べ16時間くらい。Pythonやったことある人なら8〜10時間くらいで終わるのでは。Deep Learningの流れが分かってオススメです。
投稿元:
レビューを見る
いやー、本当に素晴らしい本です。
ディープラーニングの基本実装に関してほぼ理解できました。
そしてそれ以外の色んな機械学習の肝みたいなものも。。
あとは実際に実装しながら、さらに理解を深めていけばよい。
その入り口としてこの本を選んで本当に正解だった。
そう断言できる名著です。
投稿元:
レビューを見る
最初の1,2章くらいはなんとか読んでもついていけた気がするが、それより後になってくるとなんのこっちゃという感じだった。読み手側のリテラシーが追いついていなかった。実際に手を動かして試すと理解度が違ったりするのだろうか。自分にはこれより易しい入門書が必要だと実感した。
以下公式ページより引用した目次
https://www.oreilly.co.jp/books/9784873117584/
1章 Python入門
1.1 Pythonとは
1.2 Pythonのインストール
1.2.1 Pythonのバージョン
1.2.2 使用する外部ライブラリ
1.2.3 Anacondaディストリビューション
1.3 Pythonインタプリタ
1.3.1 算術計算
1.3.2 データ型
1.3.3 変数
1.3.4 リスト
1.3.5 ディクショナリ
1.3.6 ブーリアン
1.3.7 if文
1.3.8 for文
1.3.9 関数
1.4 Pythonスクリプトファイル
1.4.1 ファイルに保存
1.4.2 クラス
1.5 NumPy
1.5.1 NumPyのインポート
1.5.2 NumPy配列の生成
1.5.3 NumPyの算術計算
1.5.4 NumPyのN次元配列
1.5.5 ブロードキャスト
1.5.6 要素へのアクセス
1.6 Matplotlib
1.6.1 単純なグラフの描画
1.6.2 pyplotの機能
1.6.3 画像の表示
1.7 まとめ
2章 パーセプトロン
2.1 パーセプトロンとは
2.2 単純な論理回路
2.2.1 ANDゲート
2.2.2 NANDゲートとORゲート
2.3 パーセプトロンの実装
2.3.1 簡単な実装
2.3.2 重みとバイアスの導入
2.3.3 重みとバイアスによる実装
2.4 パーセプトロンの限界
2.4.1 XORゲート
2.4.2 線形と非線形
2.5 多層パーセプトロン
2.5.1 既存ゲートの組み合わせ
2.5.2 XORゲートの実装
2.6 NANDからコンピュータへ
2.7 まとめ
3章 ニューラルネットワーク
3.1 パーセプトロンからニューラルネットワークへ
3.1.1 ニューラルネットワークの例
3.1.2 パーセプトロンの復習
3.1.3 活性化関数の登場
3.2 活性化関数
3.2.1 シグモイド関数
3.2.2 ステップ関数の実装
3.2.3 ステップ関数のグラフ
3.2.4 シグモイド関数の実装
3.2.5 シグモイド関数とステップ関数の比較
3.2.6 非線形関数
3.2.7 ReLU関数
3.3 多次元配列の計算
3.3.1 多次元配列
3.3.2 行列の内積
3.3.3 ニューラルネットワークの内積
3.4 3層ニューラルネットワークの実装
3.4.1 記号の確認
3.4.2 各層における信号伝達の実装
3.4.3 実装のまとめ
3.5 出力層の設計
3.5.1 恒等関数とソフトマックス関数
3.5.2 ソフトマックス関数の実装上の注意
3.5.3 ソフトマックス関数の特徴
3.5.4 出力層のニューロンの数
3.6 手書き数字認識
3.6.1 MNISTデータセット
3.6.2 ニューラルネットワークの推論処理
3.6.3 バッチ処理
3.7 まとめ
4章 ニューラルネットワークの学習
4.1 データから学習する
4.1.1 データ駆動
4.1.2 訓練データとテストデータ
4.2 損失関数
4.2.1 2乗和誤差
4.2.2 交差エントロピー誤差
4.2.3 ミニバッチ学習
4.2.4 [バッチ対応版]交差エントロピー誤差の実装
4.2.5 なぜ損失関数を設定するのか?
4.3 数値微分
4.3.1 微分
4.3.2 数値微分の例
4.3.3 偏微分
4.4 勾配
4.4.1 勾配法
4.4.2 ニューラルネットワークに対する勾配
4.5 学習アルゴリズムの実装
4.5.1 2層ニューラルネットワークのクラス
4.5.2 ミニバッチ学習の実装
4.5.3 テストデータで評価
4.6 まとめ
5章 誤差逆伝播法
5.1 計算グラフ
5.1.1 計算グラフで解く
5.1.2 局所的な計算
5.1.3 なぜ計算グラフで解くのか?
5.2 連鎖率
5.2.1 計算グラフの逆伝播
5.2.2 連鎖率とは
5.2.3 連鎖率と計算グラフ
5.3 逆伝播
5.3.1 加算ノードの逆伝播
5.3.2 乗算ノードの逆伝播
5.3.3 リンゴの例
5.4 単純なレイヤの実装
5.4.1 乗算レイヤの実装
5.4.2 加算レイヤの実装
5.5 活性化関数レイヤの実装
5.5.1 ReLUレイヤ
5.5.2 Sigmoidレイヤ
5.6 A.ne/Softmaxレイヤの実装
5.6.1 A.neレイヤ
5.6.2 バッチ版A.neレイヤ
5.6.3 Softmax-with-Lossレイヤ
5.7 誤差逆伝播法の実装
5.7.1 ニューラルネットワークの学習の全体図
5.7.2 誤差逆伝播法に対応したニューラルネットワークの実装
5.7.3 誤差逆伝播法の勾配確認
5.7.4 誤差逆伝播法を使った学習
5.8 まとめ
6章 学習に関するテクニック
6.1 パラメータの更新
6.1.1 冒険家の話
6.1.2 SGD
6.1.3 SGDの欠点
6.1.4 Momentum
6.1.5 AdaGrad
6.1.6 Adam
6.1.7 どの更新手法を用いるか?
6.1.8 MNISTデータセットによる更新手法の比較
6.2 重みの初期値
6.2.1 重みの初期値を0にする?
6.2.2 隠れ層のアクティベーション分布
6.2.3 ReLUの場合の重みの初期値
6.2.4 MNISTデータセットによる重み初期値の比較
6.3 Batch Normalization
6.3.1 Batch Normalizationのアルゴリズム
6.3.2 Batch Normalizationの評価
6.4 正則化
6.4.1 過学習
6.4.2 Weight decay
6.4.3 Dropout
6.5 ハイパーパラメータの検証
6.5.1 検証データ
6.5.2 ハイパーパラメータの最適化
6.5.3 ハイパーパラメータ最適化の実装
6.6 まとめ
7章 畳み込みニューラルネットワーク
7.1 全体の構造
7.2 畳み込み層
7.2.1 全結合層の問題点
7.2.2 畳み込み演算
7.2.3 パディング
7.2.4 ストライド
7.2.5 3次元データの畳み込み演算
7.2.6 ブロックで考える
7.2.7 バッチ処理
7.3 プーリング層
7.3.1 プーリング層の特徴
7.4 Convolution/Poolingレイヤの実装
7.4.1 4次元配列
7.4.2 im2colによる展開
7.4.3 Convolutionレイヤの実装
7.4.4 Poolingレイヤの実装
7.5 CNNの実装
7.6 CNNの可視化
7.6.1 1層目の重みの可視化
7.6.2 階層構造による情報抽出
7.7 代表的なCNN
7.7.1 LeNet
7.7.2 AlexNet
7.8 まとめ
8章 ディープラーニング
8.1 ネットワークをより深く
8.1.1 よりディープなネットワークへ
8.1.2 さらに認識精度を高めるには
8.1.3 層を深くすることのモチベーション
8.2 ディープラーニングの小歴史
8.2.1 ImageNet
8.2.2 VGG
8.2.3 GoogLeNet
8.2.4 ResNet
8.3 ディープラーニングの高速化
8.3.1 取り組むべき問題
8.3.2 GPUによる高速化
8.3.3 分散学習
8.3.4 演算精度のビット削減
8.4 ディープラーニングの実用例
8.4.1 物体検出
8.4.2 セグメンテーション
8.4.3 画像キャプション生成
8.5 ディープラーニングの未来
8.5.1 画像スタイル変換
8.5.2 画像生成
8.5.3 自動運転
8.5.4 Deep Q-Network(強化学習)
8.6 まとめ
投稿元:
レビューを見る
DNNの基礎的なところからPythonを使って実践しながら学習することができる良書です。
DNNの場合、学習結果はブラックボックスと考えていたのですが、CNNの可視化に関する説明で畳みこみ層が学習前後でどう変わったかが示されており、非常にわかり易かったです。
投稿元:
レビューを見る
初心者には、わからないところも何箇所かあったが、比較的わかりやすかった。
Pythonを知っている+機械学習に興味がある、人は間違いなくこの本は読んで損はないはずです。
投稿元:
レビューを見る
Python知らなかったので、PCにインストールして週末に少しずつ動かしながら進めて、4ヶ月ぐらいかかって終わった。これ、すごく良いです。自力じゃ推論の仕組みの理解が限界で、勾配や誤差逆伝播だのオプティマイザーだの学習に関する仕組みについては理解できず、「深層学習」とか読もうとして挫折してたけど、この本読んでやっと理解できた。CNNも理解できた。あとはRNNとか強化学習とかも続編出してやってほしい。
これからはいろんな分野でディープラーニングを使いこなして行く必要あると思うので、理系の高校生には是非読んで欲しい。高校生は受験で忙しくて無理なら大学1年生は読むべしです。
投稿元:
レビューを見る
ディープラーニングよくわからないから、なんとなくわかる。まで確実連れて行ってくれる一冊。
Pythonがわからなくても十分に読める本であり、自分の得意な環境に応用していくのも難しくない。確実にディープラーニングの基礎を習得できます。
投稿元:
レビューを見る
前半は細かいが退屈。3層パーセプトロンあたりまでは「学習とニューラルネットワーク」の方が読みやすい
誤差逆伝播の説明のために計算グラフを導入
それはいいが、それ以降のニューラルネットの逆伝播の説明が、計算グラフあるんだから 計算できるでしょみたいな感じで終わっているのがちょっとアレ
まあ説明し出すと終わらなそうではあるが
SGDとMomentum/AdaGrad/Adamのあたりも興味深かったが、うーん所詮最急降下法?
その後のテクニック的なことも読んでて面白かった
CNNの話になってやっと面白くなってきた
ちょうどそこが系統だって学んでなくて知識が虫食いだったところなので大変助かった
2015年ころ、 google conv-net2 を見たときに分からなかったことが、ここでやっと判った感じ
CNNの後は、現在時点のディープラーニングのレビューという感じで、紹介にとどまっていて内容の説明まではない