この本も副題をよく見てからでないと買ってはいけない本だと思いますが、副題は「時系列データ処理」です。
したがってCNNは一切出てきません(画像処理については練習用画像データセットのMNISTに敢えて時系列処理を適用させてみた例だけです)。
逆にこの本で時系列データとして取り上げているのは自然言語だけです。
結局この本では最後まで「時系列」という言い方になっているようですが、Attentionになると反映される情報は概念的には「時間(時刻)」ではなく「位置」になると理解しているので「時系列」という言い方は必ずしも正しくないと思います。
というかそもそも自然言語が時系列なのかと言えば
当然のことながら言葉によって語順はマチマチなので
そうとも言えない気もします。
結局この本で学んだことは(この本の中身には直接関係しませんが)、少なくとも自然言語については時系列というデータ構造は存在せず、
時系列とは結局は処理の方法に過ぎないのではないか
ということです。
ちなみにこの本でTensorFlow/KerasとPyTorchのコードが併記してあるのは良い点かと思います。
この商品をお持ちですか?
マーケットプレイスに出品する

無料のKindleアプリをダウンロードして、スマートフォン、タブレット、またはコンピューターで今すぐKindle本を読むことができます。Kindleデバイスは必要ありません 。詳細はこちら
Kindle Cloud Readerを使い、ブラウザですぐに読むことができます。
携帯電話のカメラを使用する - 以下のコードをスキャンし、Kindleアプリをダウンロードしてください。
詳解ディープラーニング 第2版 ~TensorFlow/Keras・PyTorchによる時系列データ処理~ (Compass Booksシリーズ) 単行本(ソフトカバー) – 2019/11/27
購入を強化する
ディープラーニング実装入門書の決定版!
ニューラルネットワークの理論とディープラーニングの実装について丁寧に解説。実装には、Python(3.x)とディープラーニング向けライブラリKeras(2.x)、TensorFlow(2.x)、PyTorch(1.x)を用います。
本書では、自然言語処理をはじめとした時系列データ処理のためのディープラーニング・アルゴリズムに焦点を当てているのも大きな特徴の1つです。本書の[第1版](2017年)以降に次々と登場している新しい手法やモデルを丁寧に説明、記事も大幅にボリュームアップしました。
[本書の構成]
1章 数学の準備:ニューラルネットワークのアルゴリズムを理解するための数学の知識、偏微分と線形代数の基本を学びます。アルゴリズムが複雑になってもこの2つを押さえておけばきちんと理解できます。
2章 Pythonの準備:ディープラーニングのアルゴリズムを実装するため、Python環境の構築およびPythonの基本から代表的なライブラリの使い方までを解説します。
3章 ニューラルネットワーク:ニューラルネットワークとは何か、どういった手法かを解説します。単純パーセプトロン、ロジスティック回帰、多クラスロジスティック回帰、多層パーセプトロンを扱います。
4章 ディープニューラルネットワーク:ディープラーニングはニューラルネットワークのモデルの発展形です。ニューラルネットワークから「ディープ」ニューラルネットワークになるうえで発生する課題とそれを解決するテクニックについて解説します。
5章 リカレントニューラルネットワーク:ニューラルネットワークに「時間」という概念を取り込むとどのようなモデルになるのか。通常のディープラーニングのモデルではうまく扱うことができない時系列データの扱いに特化したモデルであるリカレントニューラルネットワーク(RNN)とその手法LSTM、GRUについて取り上げます。
6章 リカレントニューラルネットワークの応用:時系列データの扱いに関しては、自然言語処理で新しいモデルが考えられてきました。本章では、Encoder-Decoder、Attention、Transformerについて学んでいきます。
付録 ライブラリ内部の処理を理解するためのグラフの知識と、Pythonのデコレータ @tf.function の実装例、Keras、TensorFlow、PyTorchによるモデルの保存・読み込みについて解説します。
ニューラルネットワークの理論とディープラーニングの実装について丁寧に解説。実装には、Python(3.x)とディープラーニング向けライブラリKeras(2.x)、TensorFlow(2.x)、PyTorch(1.x)を用います。
本書では、自然言語処理をはじめとした時系列データ処理のためのディープラーニング・アルゴリズムに焦点を当てているのも大きな特徴の1つです。本書の[第1版](2017年)以降に次々と登場している新しい手法やモデルを丁寧に説明、記事も大幅にボリュームアップしました。
[本書の構成]
1章 数学の準備:ニューラルネットワークのアルゴリズムを理解するための数学の知識、偏微分と線形代数の基本を学びます。アルゴリズムが複雑になってもこの2つを押さえておけばきちんと理解できます。
2章 Pythonの準備:ディープラーニングのアルゴリズムを実装するため、Python環境の構築およびPythonの基本から代表的なライブラリの使い方までを解説します。
3章 ニューラルネットワーク:ニューラルネットワークとは何か、どういった手法かを解説します。単純パーセプトロン、ロジスティック回帰、多クラスロジスティック回帰、多層パーセプトロンを扱います。
4章 ディープニューラルネットワーク:ディープラーニングはニューラルネットワークのモデルの発展形です。ニューラルネットワークから「ディープ」ニューラルネットワークになるうえで発生する課題とそれを解決するテクニックについて解説します。
5章 リカレントニューラルネットワーク:ニューラルネットワークに「時間」という概念を取り込むとどのようなモデルになるのか。通常のディープラーニングのモデルではうまく扱うことができない時系列データの扱いに特化したモデルであるリカレントニューラルネットワーク(RNN)とその手法LSTM、GRUについて取り上げます。
6章 リカレントニューラルネットワークの応用:時系列データの扱いに関しては、自然言語処理で新しいモデルが考えられてきました。本章では、Encoder-Decoder、Attention、Transformerについて学んでいきます。
付録 ライブラリ内部の処理を理解するためのグラフの知識と、Pythonのデコレータ @tf.function の実装例、Keras、TensorFlow、PyTorchによるモデルの保存・読み込みについて解説します。
- 本の長さ456ページ
- 言語日本語
- 出版社マイナビ出版
- 発売日2019/11/27
- 寸法18.4 x 2.8 x 23.4 cm
- ISBN-104839969515
- ISBN-13978-4839969516
この商品を見た後に買っているのは?
ページ: 1 / 1 最初に戻るページ: 1 / 1
出版社より
![]() |
![]() |
![]() |
![]() |
|
---|---|---|---|---|
TensorFlowとKerasで動かしながら学ぶ ディープラーニングの仕組み | つくりながら学ぶ!PyTorchによる発展ディープラーニング | 東京大学のデータサイエンティスト育成講座 | やさしく学ぶ ディープラーニングがわかる数学のきほん | |
ディープラーニングを学ぶなら、「仕組み」も「プログラム」もしっかり解説している本書から! | ディープラーニングの発展・応用手法を実装しながら学ぼう! | 東大 松尾研究室が提供するあの人気講座が待望の書籍化! | 数学がニガテでも大丈夫! 今度はディープラーニングをやさしく学ぼう |
商品の説明
内容(「BOOK」データベースより)
ディープラーニング実装入門書の決定版!Keras 2.x/TensorFlow 2.x、PyTorch 1.x対応。ディープラーニングに関する様々な課題を新たに実装しコードを公開。定式化や実装をより丁寧に記述。本書第1版(2017年)以降に次々と登場している新しい手法や時系列データを扱うモデルの理論および実装など、大幅にボリュームアップ。
著者について
巣籠悠輔(すごもり ゆうすけ):株式会社MICIN CTO、日本ディープラーニング協会 有識者会員。2018年にForbes 30 Under 30 Asia 2018 に選出。著書に『詳解ディープラーニング』、監訳書に『PythonとKeras によるディープラーニング』(マイナビ出版刊)がある。
著者略歴 (「BOOK著者紹介情報」より)
巣籠/悠輔
Google NY支社勤務を経て、現在株式会社情報医療CTO。日本ディープラーニング協会有識者会員。2018年にForbes 30 Under 30 Asia 2018に選出(本データはこの書籍が刊行された当時に掲載されていたものです)
Google NY支社勤務を経て、現在株式会社情報医療CTO。日本ディープラーニング協会有識者会員。2018年にForbes 30 Under 30 Asia 2018に選出(本データはこの書籍が刊行された当時に掲載されていたものです)
1分以内にKindleで 詳解ディープラーニング 第2版 (Compass Books) をお読みいただけます。
Kindle をお持ちでない場合、こちらから購入いただけます。 Kindle 無料アプリのダウンロードはこちら。
Kindle をお持ちでない場合、こちらから購入いただけます。 Kindle 無料アプリのダウンロードはこちら。
登録情報
- 出版社 : マイナビ出版; 第2版 (2019/11/27)
- 発売日 : 2019/11/27
- 言語 : 日本語
- 単行本(ソフトカバー) : 456ページ
- ISBN-10 : 4839969515
- ISBN-13 : 978-4839969516
- 寸法 : 18.4 x 2.8 x 23.4 cm
- Amazon 売れ筋ランキング: - 39,839位本 (の売れ筋ランキングを見る本)
- - 41位情報学・情報科学全般関連書籍
- - 98位人工知能
- カスタマーレビュー:
著者について
著者をフォローして、新作のアップデートや改善されたおすすめを入手してください。

著者の本をもっと発見したり、よく似た著者を見つけたり、著者のブログを読んだりしましょう
カスタマーレビュー
5つ星のうち4.3
星5つ中の4.3
39 件のグローバル評価
評価はどのように計算されますか?
全体的な星の評価と星ごとの割合の内訳を計算するために、単純な平均は使用されません。その代わり、レビューの日時がどれだけ新しいかや、レビューアーがAmazonで商品を購入したかどうかなどが考慮されます。また、レビューを分析して信頼性が検証されます。
トップレビュー
上位レビュー、対象国: 日本
レビューのフィルタリング中に問題が発生しました。後でもう一度試してください。
2019年12月1日に日本でレビュー済み
違反を報告する
Amazonで購入
27人のお客様がこれが役に立ったと考えています
役に立った
2020年7月15日に日本でレビュー済み
Amazonで購入
この本のメリットは以下です。
1. 時系列データ処理を扱ってる(画像処理の本が多いです)。
⇒明日の天気や株価の予想だけでなく、翻訳とかの自然言語処理も
時系列データ処理の一種です。5.1節にも書いてます。
全然違うじゃん?って思われそうですけど、
手前のデータが次のデータに影響を与えるって意味じゃ同じです。
たとえば、5日分の天気のデータを渡して6日目の天気を予想するとか
5つの単語を含む文章を渡して、それを英語に翻訳するとか
そういう処理です。
2. Keras、TensorFlow、PyTorchのコードを併記している。
⇒入門者には、基本的にはKerasでいいと思いますけど、備えあればうれいなし。
3. TensorFlow 2系を使ってる。
⇒TensorFlow 2系の本っていう絞り込み方をすると、
実はグッと読める本が減ります。
私は1系は見てないですが、2系のほうが書き方が直感的らしいです。
どっちでもいい人なら、今からやるなら2系じゃないですかね。
4. 数式をちゃんと書いてる。
⇒なんちゃってでも、使えるには使えるかもしれませんが、
数式ベースで理解していれば、応用が効きやすくなるんじゃないですかね。
5. 時系列データ処理で、AttentionやTransformerまで扱ってる。
⇒『ゼロから作るDeep Learning ❷ ―自然言語処理編』だと、
Attentionの中途半端な所で終わってるってレビューを読みました。
こちらだとキリのいい所まで行けてるとは思います。
ただ、精度はそんなによくなくて、その後に出てきた
BERTやT5とかのほうがいいらしくて、
転移学習もできて、扱いやすいので、今だとこちらを使うことになりそうです。
BERTやT5もAttentionやTransformerがベースになってるらしいので、
AttentionやTransformer自体は微妙でも、
前提知識を学ぶという意味で良いのではないでしょうか。
この本のデメリットは以下です。
1. Kindle版の索引が大雑把すぎ。
⇒章単位でしか索引がないです。結構、ジャンプするのが面倒くさい。
2. Kindle版でテキスト選択ができない。
⇒ちょっとコピペしたりできません。
3. サンプルコードがJupyter Notebookの形式になってない。
⇒py形式なんで、全部実行しないといけません。
ちょっとずつ動かして、部分部分を理解していきたいんですが、
それがやりづらい。
4. 数学の説明はしてくれてるけど、きつい。
⇒この説明だけで理解できる人は数学が結構得意なんじゃないですかね。
たとえば、対数関数の微分したらどうなる?っていうのは、
当たり前の知識として話が進んで行きます。
一切話題にならず式展開での説明もないです。
そこで引っかかるようだと得意ではなさそうですね。
私は『ディープラーニングの数学』を先に読み込んでいたので、
冒頭の数学の説明の所は、それほど無理なく理解はできました。
5. アダマール積の記号を省略してる箇所があって行列積と勘違いして誤読しやすい。
⇒アダマール積の説明自体は数学の章で説明があるんですが、
本文のほうで、「見づらいのでアダマール積を省略します」的なことを
書いてる箇所がありますが、いやいや、それだと、どこがアダマールなのか
おれには分からんて。。全部書いてくれたほうが良かったです。
すぐ前後に省略を通知してる箇所だけでなく、他にもそういう箇所があるんじゃないかと
疑心暗鬼になります。途中で分からなくなってから、そこが疑わしくなって
結構戻って読み直すことになりました。最初から注意して見ておけば、
手戻りが無いと思います。
6. einsumが出て来るけど、3階以上のテンソルの説明はない。
⇒AttentionやTransformerでeinsumっていう関数が出てきますが、
それで、3階以上のテンソルを扱いますが、それについての説明はないので、
これ以上読んでも分からんな、ってなりました。
テンソル解析とかの本を別に読んだほうがいいかもしれません。
岡山大学の多田って人が説明のPDFをネットに上げてたりもしますが。。
1. 時系列データ処理を扱ってる(画像処理の本が多いです)。
⇒明日の天気や株価の予想だけでなく、翻訳とかの自然言語処理も
時系列データ処理の一種です。5.1節にも書いてます。
全然違うじゃん?って思われそうですけど、
手前のデータが次のデータに影響を与えるって意味じゃ同じです。
たとえば、5日分の天気のデータを渡して6日目の天気を予想するとか
5つの単語を含む文章を渡して、それを英語に翻訳するとか
そういう処理です。
2. Keras、TensorFlow、PyTorchのコードを併記している。
⇒入門者には、基本的にはKerasでいいと思いますけど、備えあればうれいなし。
3. TensorFlow 2系を使ってる。
⇒TensorFlow 2系の本っていう絞り込み方をすると、
実はグッと読める本が減ります。
私は1系は見てないですが、2系のほうが書き方が直感的らしいです。
どっちでもいい人なら、今からやるなら2系じゃないですかね。
4. 数式をちゃんと書いてる。
⇒なんちゃってでも、使えるには使えるかもしれませんが、
数式ベースで理解していれば、応用が効きやすくなるんじゃないですかね。
5. 時系列データ処理で、AttentionやTransformerまで扱ってる。
⇒『ゼロから作るDeep Learning ❷ ―自然言語処理編』だと、
Attentionの中途半端な所で終わってるってレビューを読みました。
こちらだとキリのいい所まで行けてるとは思います。
ただ、精度はそんなによくなくて、その後に出てきた
BERTやT5とかのほうがいいらしくて、
転移学習もできて、扱いやすいので、今だとこちらを使うことになりそうです。
BERTやT5もAttentionやTransformerがベースになってるらしいので、
AttentionやTransformer自体は微妙でも、
前提知識を学ぶという意味で良いのではないでしょうか。
この本のデメリットは以下です。
1. Kindle版の索引が大雑把すぎ。
⇒章単位でしか索引がないです。結構、ジャンプするのが面倒くさい。
2. Kindle版でテキスト選択ができない。
⇒ちょっとコピペしたりできません。
3. サンプルコードがJupyter Notebookの形式になってない。
⇒py形式なんで、全部実行しないといけません。
ちょっとずつ動かして、部分部分を理解していきたいんですが、
それがやりづらい。
4. 数学の説明はしてくれてるけど、きつい。
⇒この説明だけで理解できる人は数学が結構得意なんじゃないですかね。
たとえば、対数関数の微分したらどうなる?っていうのは、
当たり前の知識として話が進んで行きます。
一切話題にならず式展開での説明もないです。
そこで引っかかるようだと得意ではなさそうですね。
私は『ディープラーニングの数学』を先に読み込んでいたので、
冒頭の数学の説明の所は、それほど無理なく理解はできました。
5. アダマール積の記号を省略してる箇所があって行列積と勘違いして誤読しやすい。
⇒アダマール積の説明自体は数学の章で説明があるんですが、
本文のほうで、「見づらいのでアダマール積を省略します」的なことを
書いてる箇所がありますが、いやいや、それだと、どこがアダマールなのか
おれには分からんて。。全部書いてくれたほうが良かったです。
すぐ前後に省略を通知してる箇所だけでなく、他にもそういう箇所があるんじゃないかと
疑心暗鬼になります。途中で分からなくなってから、そこが疑わしくなって
結構戻って読み直すことになりました。最初から注意して見ておけば、
手戻りが無いと思います。
6. einsumが出て来るけど、3階以上のテンソルの説明はない。
⇒AttentionやTransformerでeinsumっていう関数が出てきますが、
それで、3階以上のテンソルを扱いますが、それについての説明はないので、
これ以上読んでも分からんな、ってなりました。
テンソル解析とかの本を別に読んだほうがいいかもしれません。
岡山大学の多田って人が説明のPDFをネットに上げてたりもしますが。。
2021年12月25日に日本でレビュー済み
Amazonで購入
内容としては他のディープランニング関連の書籍と同じような内容です。そしてTensorFlowを謳っている書籍なので、最初にphytonの説明、phytonのインストール方法、phytonの簡単な構文、関数説明、、、と本題以外の毎度おなじみの内容が、、、たぶんこの手の関連書籍はどの書籍も最初の半分くらいは同じ内容です。
似たようなものをすでに持っている、ディープランニングに関しては何となくかじったことがある、という人は買う必要はないと思います。
Python初めて、ディープラーニング初めて、ネットで調べるの面倒、って人には良いと思います。
私はTensorFlowのRNN(時系列データ処理)につられて購入しましたが、ネットで調べられる(日本語ページでも多く見つけられる)程度の内容しか載っていませんでした。
「まずは、理屈についてはどうでもよくて、TensorFlowの実装方法(使い方)が知りたい」ならネットで十分です、というかネットですぐ調べられる程度のことしか載っていないです。
この手の書籍はみんな同じです。ネットで調べたけどもっと細かいことが、、、ってのを求めても無駄です。
似たようなものをすでに持っている、ディープランニングに関しては何となくかじったことがある、という人は買う必要はないと思います。
Python初めて、ディープラーニング初めて、ネットで調べるの面倒、って人には良いと思います。
私はTensorFlowのRNN(時系列データ処理)につられて購入しましたが、ネットで調べられる(日本語ページでも多く見つけられる)程度の内容しか載っていませんでした。
「まずは、理屈についてはどうでもよくて、TensorFlowの実装方法(使い方)が知りたい」ならネットで十分です、というかネットですぐ調べられる程度のことしか載っていないです。
この手の書籍はみんな同じです。ネットで調べたけどもっと細かいことが、、、ってのを求めても無駄です。
2020年1月2日に日本でレビュー済み
第1版と第2版両方持っています。Tensorflowはいまのところ2.x系はまだまだこれからなので、実務では1.系とかだと思います。そうなると、第1版の方がいい。
第2版になてPytorchに対応したのはすごくいいのですが、その分、第1版の時のような説明がカットされているようにも取れる。
ほかのレビューにあるように、フィーリングな感じの説明があるのですが、逆にしっくり来たりするので、やはりちょこっと立ち読みしてから選ぶとよいのではないでしょうか。
第2版になてPytorchに対応したのはすごくいいのですが、その分、第1版の時のような説明がカットされているようにも取れる。
ほかのレビューにあるように、フィーリングな感じの説明があるのですが、逆にしっくり来たりするので、やはりちょこっと立ち読みしてから選ぶとよいのではないでしょうか。
2021年6月2日に日本でレビュー済み
時系列データのディープラーニングについて学びたいので購入しました。
決してシンプルな処理ではないので全部身についたとは言えませんが、ある程度の理解は得られました。
通勤電車の中など、すきま時間に読みましたが、サイズがデカいのが玉にキズ。
薄い紙にしてサイズを一回り小さくしてもらえれば、なお便利です。
第1版から間隔おかずに改訂してくださったことに感謝です。
ディープラーニングの進歩の速さに驚きます。
ぜひ第3版もお願いいたします!
決してシンプルな処理ではないので全部身についたとは言えませんが、ある程度の理解は得られました。
通勤電車の中など、すきま時間に読みましたが、サイズがデカいのが玉にキズ。
薄い紙にしてサイズを一回り小さくしてもらえれば、なお便利です。
第1版から間隔おかずに改訂してくださったことに感謝です。
ディープラーニングの進歩の速さに驚きます。
ぜひ第3版もお願いいたします!
2019年12月5日に日本でレビュー済み
これまでも何度もお世話になっている巣籠先生の本。書店だとAmazonより1日早く売り出されていたので、書店でさっそく購入しました。TensorFlow2系とPyTorchに対応してくれたのが非常に嬉しい。
内容としては、扱っているモデルは第1版と5章途中までは同じです。多層パーセプトロンやLSTMなど。ただし、実装はアップデートされており分かりやすかったです。大きく変わったのが6章。AttentionやTransformerの実装がされています。説明もさすが非常にわかりやすく、Attentionの説明なんか、目からウロコが出ました。自然言語だけでなく時系列全般に応用できそうな手法だということがよく分かりました。
内容としては、扱っているモデルは第1版と5章途中までは同じです。多層パーセプトロンやLSTMなど。ただし、実装はアップデートされており分かりやすかったです。大きく変わったのが6章。AttentionやTransformerの実装がされています。説明もさすが非常にわかりやすく、Attentionの説明なんか、目からウロコが出ました。自然言語だけでなく時系列全般に応用できそうな手法だということがよく分かりました。