【送料無料】フリーソフトでつくる音声認識システム パターン認識・機械学習の初歩から対話システムまで
Overview
- Available: Yes
- Product ID: sunnynook:10115920
【送料無料】フリーソフトでつくる音声認識システム パターン認識・機械学習の初歩から対話システムまで
商品情報商品の説明・機械学習のしくみを知りたいけど、数学は苦手… ・専門書を読みたいけど、数式ばかりで挫折した… という人を「機械学習の世界」に導く,おすすめの1冊! 前半部では、機械学習・パターン認識の基礎を学びます。機械学習の理論を学習しようとすると、高度な数学の知識が必要と思われがちですが、本書は「パターン認識ってなに」といった初歩の初歩からかみくだいて解説しています。もちろん初歩だけでなく、ニューラルネットワーク・サポートベクトルマシンなどの重要トピックの理論的な側面まで、Scilab、Wekaを使ったパターン認識の演習を行いながら学ぶことができます。 後半部では、HTK、Julius、MMDなどのフリーソフトを使いながら音声認識システムをつくっていきます。音声やテキストに対してパターン認識を適用する際は、隠れマルコフモデル・N-gramなどの言語モデルに関する難解な知識が必要になりますが、手を動かすと同時に理論面も学習することによって、音声認識にとどまらない「実際の認識に使える」知識が身につきます。 「学びはじめの1冊に最適」と評判の機械学習の定番入門書が、リカレントニューラルネットワーク・畳込みニューラルネットワークなど近年の技術動向を反映した解説を加えて第2版となりました。 ◆電子版が発行されました/詳細は,森北出版webサイトにて 【目次】 第1部 パターン認識の基礎 第1章 パターン認識って何 1.1 パターン認識とは 1.2 パターン認識システムの構成 1.3 前処理部 1.4 特徴抽出部 1.5 識別部と識別辞書 1.5.1 基本的な識別手法 1.5.2 識別辞書の中身 演習問題 第2章 データをきちんと取り込もう 2.1 アナログ信号のディジタル化 2.1.1 アナログ信号は波である 2.1.2 標本化と量子化 2.2 人の知覚に近づける 2.2.1 音声の知覚 2.2.2 画像の知覚 2.3 特徴抽出をしやすくする処理 2.3.1 音声の場合 2.3.2 画像の場合 演習問題 第3章 パターンの特徴を調べよう 3.1 変動に強い特徴とは 3.1.1 音声の場合 3.1.2 画像の場合 3.2 特徴のスケールを揃える 3.3 特徴は多いほどよいか 3.3.1 偶然に見つかってしまってはまずい 3.3.2 特徴を減らそう 演習問題 第4章 パターンを識別しよう 4.1 NN 法の定式化と問題設定 4.1.1 「もっとも近い」の定義 4.1.2 プロトタイプと識別面の関係 4.1.3 プロトタイプの位置の決め方 4.2 パーセプトロンの学習規則 4.2.1 識別関数の設定 4.2.2 識別関数とパーセプトロン 4.2.3 2 クラスの識別関数の学習 4.2.4 パーセプトロンの学習アルゴリズム 4.3 区分的線形識別関数とk-NN 法 4.3.1 平面で区切れない場合 4.3.2 区分的線形識別関数の実現 4.3.3 区分的線形識別関数の識別能力と学習 4.3.4 学習をあきらめるのも一手—k-NN 法 演習問題 第5章 誤差をできるだけ小さくしよう 5.1 誤差評価に基づく学習とは 5.2 解析的な解法 5.3 最急降下法 5.3.1 最急降下法による最適化 5.3.2 Widrow−Hoff の学習規則 5.3.3 確率的最急降下法 5.4 パーセプトロンの学習規則との比較 5.4.1 パーセプトロンの学習規則を導く 5.4.2 着目するデータの違い 演習問題 第6章 限界は破れるか(1) —サポートベクトルマシン 6.1 識別面は見つかったけれど 6.2 サポートベクトルマシンの学習アルゴリズム 6.2.1 サポートベクトル 6.2.2 マージンを最大にする 6.3 線形分離可能にしてしまう 6.3.1 高次元空間への写像 6.3.2 カーネル法 6.3.3 具体的なカーネル関数 演習問題 第7章 限界は破れるか(2) —ニューラルネットワーク 7.1 ニューラルネットワークの構成 7.2 誤差逆伝播法による学習 7.2.1 誤差逆伝播法の名前の由来 7.2.2 結合重みの調整アルゴリズム 7.2.3 調整量を求める 7.2.4 過学習に気をつけよう 7.3 ディープニューラルネットワーク 7.3.1 勾配消失問題とは 7.3.2 多階層学習における工夫 7.3.3 特化した構造をもつニューラルネットワーク 演習問題 第8章 未知データを推定しよう—統計的方法 8.1 間違う確率を最小にしたい 8.1.1 誤り確率最小の判定法 8.1.2 事後確率の求め方 8.1.3 事後確率の間接的な求め方 8.1.4 厄介者p(x) を消そう 8.1.5 事前確率P(ωi) を求める 8.1.6 最後の難敵「クラス分布p(x|ωi)」 8.2 データの広がりを推定する 8.2.1 未知データの統計的性質を予測する 8.2.2 最尤推定 8.2.3 統計的な識別 8.3 実践的な統計的識別 8.3.1 単純ベイズ法 8.3.2 ベイズ推定 8.3.3 複雑な確率密度関数の推定 演習問題 第9章 本当にすごいシステムができたの 9.1 未知データに対する認識率の評価 9.1.1 分割学習法 9.1.2 交差確認法 9.2 システムを調整する方法 9.2.1 前処理の確認 9.2.2 特徴空間の評価 9.2.3 識別部の調整 演習問題 第2部 実践編 第10章 声をモデル化してみよう—音響モデルの作り方・使い方・鍛え方 10.1 連続音声の認識 10.2 音響モデルの作り方 10.3 音響モデルの使い方 10.3.1 HMM における確率計算 10.3.2 トレリスによる効率のよい計算 10.3.3 ビタビアルゴリズムによる近似計算 10.4 音響モデルの鍛え方 10.4.1 状態遷移系列がわかっている場合 10.4.2 状態遷移系列の確率がわかっている場合 10.4.3 Baum−Welch アルゴリズム 10.5 実際の音響モデル 10.5.1 離散値から連続値へ 10.5.2 ディープニューラルネットワークによる高精度化 10.5.3 調音結合をモデル化する 演習問題 第11章 HTK を使って単語を認識してみよう 11.1 HTK の構成 11.2 音声の録音とラベル付け 11.3 特徴抽出 11.4 初期モデルの作成 11.5 初期値の設定 11.6 HMM の学習 11.7 単語認識 11.8 認識率の評価 演習問題 第12章 文法規則を書いてみよう 12.1 音声認識における文法 12.2 タスクから文法を設計する 12.3 文法規則における制限 12.3.1 文脈自由文法 12.3.2 正規文法 12.4 Julius での文法記述 12.5 標準化された文法記述 演習問題 第13章 統計的言語モデルを作ろう 13.1 文の出現確率主な仕様
