機械学習

スポンサーリンク
数学

最尤法とは・KL情報量との関係・二乗和誤差を用いる理由

この記事では最尤法について解説したあとに, カルバック・ライブラー情報量(Kullback-Leibler divergence)との関係について解説する. また最尤法の応用例として, 線形回帰問題で2乗和誤差を用いる理由について説明する. w
数学

【情報理論】種々の情報量のまとめ【自己情報量・平均情報量・カルバック・ライブラー情報量など】

この記事では情報理論の基礎的な用語、特に、自己情報量、シャノンエントロピー(平均情報量)、カルバック・ライブラー情報量(カルバック・ライブラーダイバージェンス、Kullback-Leibler divergence)、交差エントロピー(クロスエントロピー)についてまとめる.
数学

条件付き確率とベイズの定理 〜検査結果の陽性が正しい確率を求める〜

この記事では条件付き確率やベイズの定理について解説します. また病気の検査結果についての例題を紹介します. この例題では, 検査結果が陽性だったときに, 一定の条件のもとで, その結果が正しい確率の求め方を解説します.
Python

主成分分析の数学的な理論とPythonによる実装

主成分分析(PCA:Principal Component Analysis)とはデータの散らばりが最も大きい方向へ次元圧縮(射影)する機械学習手法である. 例えば3次元空間上のデータを可視化するために2次元平面へ射影したデータを取得した...
Python

【svd】特異値分解をpythonで計算する方法

この記事では, pythonによる特異値分解の方法を端的にまとめました. 特異値分解の厳密な理論については, 以下の記事を参考にしてください. 簡単に特異値分解をまとめると次のようになります. (行列の成分は実数である...
数学

特異値分解の数学的な理論と証明【特異値・特異ベクトル】

この記事では, 行列の特異値分解(SVD:singular value decomposition)の数学的な理論や証明について詳しく解説します。pythonによる計算方法などは, 以下の記事で解説しています. 【svd】特異値分...
機械学習

ゼロから作るDeep Learningのエラー覚書 -MNISTの読み込み-

ゼロつくの74ページ。MNISTデータセットを読み込む際の以下のソースコードをGoogle Colaboratoryで走らせようとしたらエラーが。(ソースコードはOreilly-JapanからGit-Hubで公開されていますが、一部省略し...
機械学習

ディープラーニング、AI(人工知能)の用語まとめ ーG検定ー  

G検定取得のためのAI・ディープラーニング・機械学習などの用語まとめ、覚書になります。
スポンサーリンク
タイトルとURLをコピーしました