【キカガク流】人工知能・機械学習 脱ブラックボックス講座 - 初級編 -

· ·

【キカガク流】人工知能・機械学習 脱ブラックボックス講座 - 初級編 -

機械学習コンテンツは過去に deeplearning.ai など色々手を付けてみたものの、実務で使っていないので忘れて結局元通り。 継続して勉強しないとなぁと思いながら、時々 Twitter で流れてくる初級講座をざっと受講してみました。

鶏頭なので思い出しながら、手元で計算したり jupyter を実際に操作しながら受けました。

【キカガク流】人工知能・機械学習 脱ブラックボックス講座 - 初級編 -

機械学習の STEP メモ 🔗

  1. モデルを決める
  2. モデルの「適切」を決める : 評価関数(損失関数)を決める
  3. 評価関数を「最小化(または最大化)」する

データの内挿、外挿に関しては基礎っぽいけれども、今まで気にしたことがなかったのでデータを可視化しつつ外挿になっていないかどうかを確認しながら進めるのが良いと思いました。

単回帰分析メモ 🔗

単回帰分析は入力変数と出力変数がそれぞれ 1 つに制限されている(言われてみれば当たり前なんですが気にしたことがなかった)

偏微分メモ 🔗

多変数を微分するのが偏微分。 複数の変数が含まれる数式に対してラウンドディー( $ \partial $ )を付けて何に対して微分するのかを明示する。

以下の場合は a について微分し、a 以外の文字列は数値とみなして良い。

$$ \frac{\partial}{\partial a} =C_0-2C_1a+C_2a^2 $$

つまるところ、この微分の答えは $$-2C_1+2C_2a$$ となる。

comments powered by Disqus