1~2日で出荷、新刊の場合、発売日以降のお届けになります
【書籍の特徴】
本書では,機械学習を理解するために必要な数学分野「論理,集合,線形代数,微分積分,確率・統計,最適化」について章ごとに詳解します。例えば,線形代数や微分積分は機械学習に限らず,理工系分野において基礎的な数学として位置づけられていますが,それらがどのように関連しているか,結果として,機械学習と数学がどのように関連しているか,について詳解します。
【各章について】
数学の土台である論理を1章に,そして,集合を2章にまとめています。
3章で,機械学習を議論するための土俵となるユークリッド空間について詳解します。機械学習で扱うユークリッド空間の次元数はとてつもなく大きく,例えば,カラー画像のデータセットからルールを学習するための機械学習に現れる空間の次元数は一千万を超えます。このことから,一般の次元数を有するユークリッド空間の性質を理解することが,機械学習を理解するための第一歩といえます。
4章では,線形代数について詳解します。ユークリッド空間のベクトルは行列として表現することができるので,ユークリッド空間(3章)と行列に関する理論を展開する線形代数には密接な関係(4.1節)があります。最適化理論や機械学習を理解するうえで重要な行列といえば対称行列(4.1.2項)です。機械学習に現れる関数の2回微分係数(例4.6)は対称行列です。
5章では,微分積分について詳解します。機械学習のための手法の多くは,対象の関数(7.1節)の微分情報(5.1節)を利用し,その解析のために積分の概念(5.2節)を利用します。微分可能な凸関数(5.3節)とその2回微分係数(対称行列)の関係(5.3.2項)は微分積分と線形代数の架け橋となる結果を示します。
6章では,確率・統計について詳解します。確率・統計は,データの確率分布(6.2節)の理解とその推定(6.4節)に必要な概念であり,確率変数の独立性,および,その期待値と分散の性質(6.3節)を駆使することで,機械学習のための最適化手法の解析が可能となります(7.3節)。
7章では,機械学習と最適化の関係について詳解します。ニューラルネットワークを訓練するためには,確率・統計(6章)に基づいた経験損失と呼ばれる関数を最小化することが必要です(7.1節)。特有のパラメータ(ステップサイズとバッチサイズ)の設定における確率的勾配降下法(7.3節)による多峰性を有する経験損失の大域的最小化(7.4節)は機械学習に限らず,最適化理論の観点から見ても興味深いものと思います。
【読者へのメッセージ】
本書が機械学習関連の論文を読み解こうとする方の一助を担うことができれば幸いです。また,機械学習に関連する数学分野の講義のために教壇に立たれる教員の方や機械学習を理論立てて取り組みを始めたい方に対しても本書がお役に立てれば幸いです。
よく利用するジャンルを設定できます。
「+」ボタンからジャンル(検索条件)を絞って検索してください。
表示の並び替えができます。