ML
来自个人维基
目录[隐藏] |
Week1
Cost Function损失函数
Squared error function/Mean squared function均方误差: J(θ)=12mm∑i=1(hθ(xi)−yi)2
Cross entropy交叉熵: J(θ)=−1mm∑i=1[y(i)∗loghθ(x(i))+(1−y(i))∗log(1−hθ(x(i)))]
Gradient Descent梯度下降
θj:=θj+α∂∂θjJ(θ)
对于线性模型,其损失函数为均方误差,故有(这里输入训练数据x为m*n矩阵, 线性参数θ为n*1,xi代表训练矩阵中的第i行,xik代表第i行第k列):
∂∂θjJ(θ)=∂∂θj(12mm∑i=1(hθ(xi)−yi)2)
- =12m∂∂θj(m∑i=1(hθ(xi)−yi)2)
- =12mm∑i=1(∂∂θj(hθ(xi)−yi)2)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjhθ(xi))//链式求导法式
- =1mm∑i=1((hθ(xi)−yi)∂∂θjxiθ)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjn−1∑k=0xikθk)
对于j>=1:
- =1mm∑i=1((hθ(xi)−yi)xij)
- =1m(hθ(x)−y)xj
Week2
Multivariate Linear Regression
hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn=θTx
其中,
x=|x0x1x2...xn|=|x(0)0x(1)0x(2)0...x(m)0x(0)1x(1)1x(2)1...x(m)1...............x(0)nx(1)mx(2)m...x(m)n|,θ=|θ0θ1θ2...θn|
- m为训练数据组数,n为特征个数(通常,为了方便处理,会令x(i)0=1,i=0,1,2,...,m)。
Feature Scaling & Standard Normalization
xi:=xi−μisi
其中,μi是第i个特征数据x_i的均值,而 si则要视情况而定:
- Feature Scaling:si为xi中最大值与最小值的差(max-min);
- Standard Normalization:si为xi中数据标准差(standard deviation)。