数学 最尤法とは・KL情報量との関係・二乗和誤差を用いる理由 この記事では最尤法について解説したあとに, カルバック・ライブラー情報量(Kullback-Leibler divergence)との関係について解説する. また最尤法の応用例として, 線形回帰問題で2乗和誤差を用いる理由について説明する. w 2024.02.22 数学機械学習
数学 【情報理論】種々の情報量のまとめ【自己情報量・平均情報量・カルバック・ライブラー情報量など】 この記事では情報理論の基礎的な用語、特に、自己情報量、シャノンエントロピー(平均情報量)、カルバック・ライブラー情報量(カルバック・ライブラーダイバージェンス、Kullback-Leibler divergence)、交差エントロピー(クロスエントロピー)についてまとめる. 2024.02.21 数学機械学習
数学 条件付き確率とベイズの定理 〜検査結果の陽性が正しい確率を求める〜 この記事では条件付き確率やベイズの定理について解説します. また病気の検査結果についての例題を紹介します. この例題では, 検査結果が陽性だったときに, 一定の条件のもとで, その結果が正しい確率の求め方を解説します. 2024.02.20 数学機械学習
Python 主成分分析の数学的な理論とPythonによる実装 主成分分析(PCA:Principal Component Analysis)とはデータの散らばりが最も大きい方向へ次元圧縮(射影)する機械学習手法である. 例えば3次元空間上のデータを可視化するために2次元平面へ射影したデータを取得した... 2024.02.09 Python機械学習
Python 【svd】特異値分解をpythonで計算する方法 この記事では, pythonによる特異値分解の方法を端的にまとめました. 特異値分解の厳密な理論については, 以下の記事を参考にしてください. 簡単に特異値分解をまとめると次のようになります. (行列の成分は実数である... 2024.02.08 Python機械学習
数学 特異値分解の数学的な理論と証明【特異値・特異ベクトル】 この記事では, 行列の特異値分解(SVD:singular value decomposition)の数学的な理論や証明について詳しく解説します。pythonによる計算方法などは, 以下の記事で解説しています. 【svd】特異値分... 2024.02.08 数学機械学習
機械学習 ゼロから作るDeep Learningのエラー覚書 -MNISTの読み込み- ゼロつくの74ページ。MNISTデータセットを読み込む際の以下のソースコードをGoogle Colaboratoryで走らせようとしたらエラーが。(ソースコードはOreilly-JapanからGit-Hubで公開されていますが、一部省略し... 2022.04.02 機械学習