Cousera Machine Learning受講ノート 2

f:id:blackawa:20171218110601p:plain

Week 1 / Model and Cost Function

教師あり学習の周辺の用語定義回っぽい。

あるデータ群からモデルを作り、そのモデルを使って何かを推測する時、それは教師あり学習。

データの属性を表すnoteには - m: データ数 - x: 入力に使う特徴 - y: 求めたい値

の3つがある。

普通

(x(i), y(i))

というように1行に1つのデータを書く。

教師あり学習では、訓練データのxとyを使って、任意のxを入れるとそれらしいyが出るような仮説hを立てる。

このhをまずは

y = θ(0) + θ(1)x

と表現する。これはあるデータセットを分割できる直線を探すことを意味する。 これを単回帰と呼ぶ。

目的関数

次に、目的関数を定義する。 仮説に出てくるθをパラメーターと呼ぶ。パラメーターが変わると仮説関数の形が変わる。(単回帰の場合なら切片と傾きが変わる。)

式でこれを表現することで、この線形回帰の目的関数の計算式を導出できる。

仮説hのグラフの形とは別に、あるパラメーターの時の目的関数の値をプロットして、それが最小となる地点を調べることで、最適なパラメーターを決定できる。

課題も良い難易度だし、文系卒で線形代数わからなくてもまだ一応耐えられる。 今、高校数学・大学教養レベルの数学を学び直せばプログラミングで得た知識を使ってもう少し理解を深められそうだなぁ〜。