そうそう、こういうことが知りたかった!ライブラリの使い方なんてちょっと検索すればわかる。数学的・構造的な解説が丁寧にされていて、とても良かったです!ありがとうございます!
最初この本から読み始めましたが1章に時間がかかり過ぎ、「ゼロから作るDeep Leaning」(1の方)から出直しました。1日8時間くらいとして
ゼロから作るDeep Leaning 5日
ゼロから作るDeep Leaning 2(本書) 10日
くらいで読了しました。最初から1の方を読んでいれば、2はもうちょっと早く読めたと思います。最後の方で、一見同じに見える変数が関数によって異なることに気づき、だーっと戻って確認したので、そこに最初から気づいている人は更に早く読み終えられると思います。"先に言ってよ"的な部分は1に比べると2の方がちょっと多いかな(汗)。最終的にはわかります。数学的には、線形代数と微分積分、ちょっとだけ情報理論、の知識があった方がわかりやすいです。
ポイントは配列の出てくる形を確認すること。git hubから落としてきたスクリプトを全て解読し、printを挿入しながら動かして確認しました。また、本スクリプト以外に、端末でインタプリタ or spyderを起動しておいて、ちょっとした関数の出力結果などを確認しながら読み進めました。pythonのcopyの性質を生かして作った部分がとっても参考になりました。「そうかー、こうやって書くんだ!」って、うなっちゃいました。さらっと解読しただけだと、ものすごくよくわかってる人以外は気付かないと思います。
「ん?」って思ったところはあるので、まとめてオライリーにメールしてみようと思っています。もしかしたらもう改訂されてるかな?
オライリーさん、ごめんなさい。私は今までオライリーの本の良い評判を一度も聞いたことがなかったので、1冊も持っていませんでした。これを機に考え方を改めます(笑)。どこの本でもそうだけど、日本人が書いたのか訳書なのかという境目はある気がする。訳の良し悪しではなく、ツボが違う、みたいな。あと、本書は文字フォントが読みやすいです(書籍で購入)。
ゼロから作るDeep Learning ❷ ―自然言語処理編 (日本語) 単行本(ソフトカバー) – 2018/7/21
斎藤 康毅
(著)
著者の作品一覧、著者略歴や口コミなどをご覧いただけます
この著者の 検索結果 を表示
あなたは著者ですか?
著者セントラルはこちら
|
-
本の長さ432ページ
-
言語日本語
-
出版社オライリージャパン
-
発売日2018/7/21
-
寸法21 x 15 x 2 cm
-
ISBN-104873118360
-
ISBN-13978-4873118369
よく一緒に購入されている商品
この商品をチェックした人はこんな商品もチェックしています
ページ: 1 / 1 最初に戻るページ: 1 / 1
- ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装単行本(ソフトカバー)
- ゼロから作るDeep Learning ❸ ―フレームワーク編単行本(ソフトカバー)
- Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎単行本(ソフトカバー)
- つくりながら学ぶ! PyTorchによる発展ディープラーニング単行本(ソフトカバー)
- Kaggleで勝つデータ分析の技術単行本(ソフトカバー)
- Pythonによるデータ分析入門 第2版 ―NumPy、pandasを使ったデータ処理単行本(ソフトカバー)
Kindle 端末は必要ありません。無料 Kindle アプリのいずれかをダウンロードすると、スマートフォン、タブレットPCで Kindle 本をお読みいただけます。
Kindle化リクエスト
このタイトルのKindle化をご希望の場合、こちらをクリックしてください。
Kindle をお持ちでない場合、こちらから購入いただけます。 Kindle 無料アプリのダウンロードはこちら。
このタイトルのKindle化をご希望の場合、こちらをクリックしてください。
Kindle をお持ちでない場合、こちらから購入いただけます。 Kindle 無料アプリのダウンロードはこちら。
商品の説明
出版社からのコメント
■本書「まえがき」より
本書のコンセプト
ディープラーニングを(もしくは、何らかの高度な技術を)深く理解するには、「ゼロから作る」という経験が重要だと筆者は考えます。ゼロから作るとは、自分の理解できる地点からスタートし、できるだけ外部の既製品は使わずに目的とする技術を完成させることです。そのような経験を通じて、表面的ではなく、しっかりとディープラーニングに精通すること――それが本書の目指すところです。
結局のところ、技術を深く理解するには、それを作れるだけの知識や技量が必要になります。本書では、ディープラーニングをゼロから作ります。そのためにさまざまなコードを書き、いろいろな実験を行います。それは時間のかかる作業であり、時に頭を悩ませることもあるでしょう。しかし、そのような時間のかかる作業には――むしろ、そのような作業にこそ――、技術を深く理解する上で重要なエッセンスが多く詰まっています。そのようにして得た知識は、既存のライブラリを使うにも、最先端の論文を読むにも、オリジナルのシステムを作るにも必ず役に立つはずです。そして何より、ディープラーニングの仕組みや原理をひとつずつ紐解きながら理解することは、純粋に楽しいものです。
自然言語処理の世界へ
本書の主なテーマは、ディープラーニングによる自然言語処理です。自然言語処理とは、簡単に言ってしまうと、私たちが普段話す言葉をコンピュータに理解させるための技術です。私たちの言葉をコンピュータに理解させることはとても難しい問題であり、そして同時に重要なテーマでもあります。実際に、この自然言語処理の技術によって、私たちの生活は大きく変わりました。Web 検索や機械翻訳、音声アシスタントなど、世の中に大きな影響を与えた技術の根幹には、自然言語処理の技術が使われています。
このように私たちの生活に欠かせない自然言語処理の技術ですが、この分野においても、ディープラーニングはきわめて重要な位置を占めています。実際、ディープラーニングによって、これまでの自然言語処理の性能が大きく向上してきました。たとえば、Googleの機械翻訳ひとつをとっても、ディープラーニングベースの手法によって、大きな進化を遂げたのは記憶に新しいところです。
(中略)
本書は、ディープラーニングを中心とした自然言語処理をめぐる冒険の書です。本書は全部で8章からなりますが、それらは一連の物語のように頭から順に読むように構成されています。問題が立ちはだかり、それを解決する新しい手法を考え、そしてさらに改良を加えます。そのような流れで、自然言語処理に関するさまざまな問題を、ディープラーニングという武器を手にひとつずつ解決していきます。そしてその冒険を通じて、ディープラーニングにおける重要なテクニックを深いレベルで習得し、そのおもしろさを体感していただきたいと思っています。
本書のコンセプト
ディープラーニングを(もしくは、何らかの高度な技術を)深く理解するには、「ゼロから作る」という経験が重要だと筆者は考えます。ゼロから作るとは、自分の理解できる地点からスタートし、できるだけ外部の既製品は使わずに目的とする技術を完成させることです。そのような経験を通じて、表面的ではなく、しっかりとディープラーニングに精通すること――それが本書の目指すところです。
結局のところ、技術を深く理解するには、それを作れるだけの知識や技量が必要になります。本書では、ディープラーニングをゼロから作ります。そのためにさまざまなコードを書き、いろいろな実験を行います。それは時間のかかる作業であり、時に頭を悩ませることもあるでしょう。しかし、そのような時間のかかる作業には――むしろ、そのような作業にこそ――、技術を深く理解する上で重要なエッセンスが多く詰まっています。そのようにして得た知識は、既存のライブラリを使うにも、最先端の論文を読むにも、オリジナルのシステムを作るにも必ず役に立つはずです。そして何より、ディープラーニングの仕組みや原理をひとつずつ紐解きながら理解することは、純粋に楽しいものです。
自然言語処理の世界へ
本書の主なテーマは、ディープラーニングによる自然言語処理です。自然言語処理とは、簡単に言ってしまうと、私たちが普段話す言葉をコンピュータに理解させるための技術です。私たちの言葉をコンピュータに理解させることはとても難しい問題であり、そして同時に重要なテーマでもあります。実際に、この自然言語処理の技術によって、私たちの生活は大きく変わりました。Web 検索や機械翻訳、音声アシスタントなど、世の中に大きな影響を与えた技術の根幹には、自然言語処理の技術が使われています。
このように私たちの生活に欠かせない自然言語処理の技術ですが、この分野においても、ディープラーニングはきわめて重要な位置を占めています。実際、ディープラーニングによって、これまでの自然言語処理の性能が大きく向上してきました。たとえば、Googleの機械翻訳ひとつをとっても、ディープラーニングベースの手法によって、大きな進化を遂げたのは記憶に新しいところです。
(中略)
本書は、ディープラーニングを中心とした自然言語処理をめぐる冒険の書です。本書は全部で8章からなりますが、それらは一連の物語のように頭から順に読むように構成されています。問題が立ちはだかり、それを解決する新しい手法を考え、そしてさらに改良を加えます。そのような流れで、自然言語処理に関するさまざまな問題を、ディープラーニングという武器を手にひとつずつ解決していきます。そしてその冒険を通じて、ディープラーニングにおける重要なテクニックを深いレベルで習得し、そのおもしろさを体感していただきたいと思っています。
内容(「BOOK」データベースより)
コンピュータの専門書として異例の大ヒットを記録した『ゼロから作るDeep Learning』の続編。自然言語処理や時系列データ処理に焦点を当て、ディープラーニングを使ってさまざまな問題に挑む。word2vecやRNN(リカレントニューラルネットワーク)、LSTMやGRU、seq2seqやAttention…ディープラーニングを支えるこれら最先端の技術を実装レベルでマスター。
著者について
斎藤 康毅(さいとう こうき):1984年長崎県対馬生まれ。東京工業大学工学部卒、東京大学大学院学際情報学府修士課程修了。現在、企業にて人工知能に関する研究開発に従事。著書に『ゼロから作る Deep Learning』、翻訳書に『実践 Python 3』『コンピュータシステムの理論と実装』『実践 機械学習システム』(以上、オライリー・ジャパン)などがある。
著者略歴 (「BOOK著者紹介情報」より)
斎藤/康毅
1984年長崎県対馬生まれ。東京工業大学工学部卒、東京大学大学院学際情報学府修士課程修了。現在、企業にて人工知能に関する研究開発に従事(本データはこの書籍が刊行された当時に掲載されていたものです)
1984年長崎県対馬生まれ。東京工業大学工学部卒、東京大学大学院学際情報学府修士課程修了。現在、企業にて人工知能に関する研究開発に従事(本データはこの書籍が刊行された当時に掲載されていたものです)
登録情報
- 出版社 : オライリージャパン (2018/7/21)
- 発売日 : 2018/7/21
- 言語 : 日本語
- 単行本(ソフトカバー) : 432ページ
- ISBN-10 : 4873118360
- ISBN-13 : 978-4873118369
- 寸法 : 21 x 15 x 2 cm
-
Amazon 売れ筋ランキング:
- 4,784位本 (の売れ筋ランキングを見る本)
- - 3位情報学・情報科学全般関連書籍
- - 32位ソフトウェア開発・言語
- カスタマーレビュー:
この商品を買った人はこんな商品も買っています
ページ: 1 / 1 最初に戻るページ: 1 / 1
カスタマーレビュー
5つ星のうち4.4
星5つ中の4.4
86 件のグローバル評価
評価はどのように計算されますか?
全体的な星の評価と星ごとの割合の内訳を計算するために、単純な平均は使用されません。その代わり、レビューの日時がどれだけ新しいかや、レビューアーがAmazonで商品を購入したかどうかなどが考慮されます。また、レビューを分析して信頼性が検証されます。
トップレビュー
上位レビュー、対象国: 日本
レビューのフィルタリング中に問題が発生しました。後でもう一度試してください。
2019年12月8日に日本でレビュー済み
Amazonで購入
まえがきに「冒険の書」また「問題」とその「解決」とあるとおり、
「問題」とその「解決」を軸に話を進めるのは、
一般向けの読み物(や特許明細書)に限らず、
こういった専門的な解説書でも構成の仕方として非常に正しいと思います(そうでないと面白くもないし、内容の理解も進まないわけですから)。
なので具体的な難しい中身が分からなくても
何となく分かった気分にさせられますが、
自然言語処理だからやっぱりRNNだよね、でもそれも問題があるからLSTMかな、と分かった気になったところで
最後の最後になってRNN(及びその改良版のLSTM)は、
計算が逐次(順番・時系列)なんで
CNNみたいに並列化で処理を高速にできない、ってことで
ラスボスの如くSelf-Attentionが登場するわけですが、
その解説もほとんどないので梯子を外された虚脱感を感じさせられる冒険の結末です。
そんなわけで残念ながら内容的には既に古くなってしまっていて、p.272-273に最先端として紹介されている内容も既に過去の話になってしまっています。
というか落ちを先に知ってしまった私は未だにRNNとLSTMがよく分からないままでいますが、著者の先生はきっと今Transformer以降の動向の解説を加えた第2版の執筆中だと信じています。
ちなみにこの本の評価には関係しませんが、
LSTMは普通の行列の積ではなく行列の同じ位置の要素の掛け算(アダマール積)を使うのがミソのようです。
「問題」とその「解決」を軸に話を進めるのは、
一般向けの読み物(や特許明細書)に限らず、
こういった専門的な解説書でも構成の仕方として非常に正しいと思います(そうでないと面白くもないし、内容の理解も進まないわけですから)。
なので具体的な難しい中身が分からなくても
何となく分かった気分にさせられますが、
自然言語処理だからやっぱりRNNだよね、でもそれも問題があるからLSTMかな、と分かった気になったところで
最後の最後になってRNN(及びその改良版のLSTM)は、
計算が逐次(順番・時系列)なんで
CNNみたいに並列化で処理を高速にできない、ってことで
ラスボスの如くSelf-Attentionが登場するわけですが、
その解説もほとんどないので梯子を外された虚脱感を感じさせられる冒険の結末です。
そんなわけで残念ながら内容的には既に古くなってしまっていて、p.272-273に最先端として紹介されている内容も既に過去の話になってしまっています。
というか落ちを先に知ってしまった私は未だにRNNとLSTMがよく分からないままでいますが、著者の先生はきっと今Transformer以降の動向の解説を加えた第2版の執筆中だと信じています。
ちなみにこの本の評価には関係しませんが、
LSTMは普通の行列の積ではなく行列の同じ位置の要素の掛け算(アダマール積)を使うのがミソのようです。
2018年10月31日に日本でレビュー済み
Amazonで購入
I bought this for learning word2vec.
But this book aim at the theory of word2vec or etc not the practical usage of those and doesn't pick up how to use any library like Gensim and nltk.
But this book aim at the theory of word2vec or etc not the practical usage of those and doesn't pick up how to use any library like Gensim and nltk.
2019年1月1日に日本でレビュー済み
Amazonで購入
初心者には重たい。
相談者がいないと内容を理解できないと思います。
相談者がいないと内容を理解できないと思います。
2019年11月30日に日本でレビュー済み
Amazonで購入
仕事とか、儲けるとか、そういうことでこの本を読むことは、あるいは向いていないかもしれません。むしろ身近にある物、Alexa, Siri, Cortana, OK Google等の音声アプリケーションや多くのSNS等のネットのサービスまたは日本語変換等のシステムの裏側の仕組みの基本を知りたい人の学びとしては、前作同様の良書です。
機械学習、Deep learning のようなひとくくりにAIと呼ばれるものは、この世の複雑系・カオスに代表される非線形現象の解析の一つとしてこれらがコンピュータが創り出す一つの回答だと考えられるとしたら、自分の家で現象の解析・予測をなぞるように学べるのは、自分としては最高の本と言えます。
機械学習、Deep learning のようなひとくくりにAIと呼ばれるものは、この世の複雑系・カオスに代表される非線形現象の解析の一つとしてこれらがコンピュータが創り出す一つの回答だと考えられるとしたら、自分の家で現象の解析・予測をなぞるように学べるのは、自分としては最高の本と言えます。
2020年9月3日に日本でレビュー済み
Amazonで購入
分布仮説(後述)にもとづく単語の意味を捉える方法(1)を除く)として、以下のアルゴリズムが紹介されている。
1)シソーラス
2)カウントベース
3)推論ベース
a) word2vec
b) リカレントネットワーク
c) LSTMを用いたリカレントネットワーク
さらに、翻訳など時系列データを別の時系列データに変換するseq2seqに関しては、
① LSTMを用いたリカレントネットワーク
② LSTMを用いたリカレントネットワークにAttentionを加えたもの
③ Attentionのみ
BERTの出現以降、上記③のAttentionのみによる方法が自然言語処理の主流となり、さらには、画像処理など他分野にも影響を与えつつある。
本書の最大の特徴は、前巻同様、上記3)b)のリカレントネットワークから②のLSTM+Attentionによるseq2segへの進化の過程とそれらの処理の内容が、実に丁寧に説明されているところだと思う。③のAttentionのみによるseq2seqについては、Self-AttentionやTransformerなどの基本要素の説明にとどまっているが、本書のあとがきの日付が、2018年6月1日になっていることを考えると、これだけ進歩が著しいDeep Learningの分野で最新の技術を包含できないのは、やむを得ないとことだと思う。
また、本書では上記の処理内容や進化の過程が実に詳細に説明されているのに対して、「分布仮説」や「分散表現」など、そもそも言語を理解するとはどういうことかという論点については、各々わずか1ページ程度しか割かれていないのが、唯一惜しまれる。
1)シソーラス
2)カウントベース
3)推論ベース
a) word2vec
b) リカレントネットワーク
c) LSTMを用いたリカレントネットワーク
さらに、翻訳など時系列データを別の時系列データに変換するseq2seqに関しては、
① LSTMを用いたリカレントネットワーク
② LSTMを用いたリカレントネットワークにAttentionを加えたもの
③ Attentionのみ
BERTの出現以降、上記③のAttentionのみによる方法が自然言語処理の主流となり、さらには、画像処理など他分野にも影響を与えつつある。
本書の最大の特徴は、前巻同様、上記3)b)のリカレントネットワークから②のLSTM+Attentionによるseq2segへの進化の過程とそれらの処理の内容が、実に丁寧に説明されているところだと思う。③のAttentionのみによるseq2seqについては、Self-AttentionやTransformerなどの基本要素の説明にとどまっているが、本書のあとがきの日付が、2018年6月1日になっていることを考えると、これだけ進歩が著しいDeep Learningの分野で最新の技術を包含できないのは、やむを得ないとことだと思う。
また、本書では上記の処理内容や進化の過程が実に詳細に説明されているのに対して、「分布仮説」や「分散表現」など、そもそも言語を理解するとはどういうことかという論点については、各々わずか1ページ程度しか割かれていないのが、唯一惜しまれる。