“ML”的版本间的差异
来自个人维基
小 (→Week2) |
小 (→Multivariate Linear Regression) |
||
第30行: | 第30行: | ||
\end{vmatrix} | \end{vmatrix} | ||
= \begin{vmatrix} | = \begin{vmatrix} | ||
− | + | x_0^{(1)} & x_0^{(2)} & ... & x_0^{(m)} \\ | |
− | + | x_1^{(1)} & x_1^{(2)} & ... & x_1^{(m)} \\ | |
− | + | ... & ... & ... & ...\\ | |
− | + | x_m^{(1)} & x_m^{(2)} & ... & x_n^{(m)} \\ | |
\end{vmatrix} | \end{vmatrix} | ||
, | , | ||
第44行: | 第44行: | ||
\end{vmatrix} | \end{vmatrix} | ||
</math> | </math> | ||
− | :m为训练数据组数,n为特征个数(通常,为了方便处理,会令<math>x_0^{(i)}=1, i= | + | :m为训练数据组数,n为特征个数(通常,为了方便处理,会令<math>x_0^{(i)}=1, i=1,2,...,m)</math>。 |
==Feature Scaling & Standard Normalization== | ==Feature Scaling & Standard Normalization== |
2018年12月21日 (五) 18:24的版本
目录[隐藏] |
Week1
Cost Function损失函数
Squared error function/Mean squared function均方误差: J(θ)=12mm∑i=1(hθ(xi)−yi)2
Cross entropy交叉熵: J(θ)=−1mm∑i=1[y(i)∗loghθ(x(i))+(1−y(i))∗log(1−hθ(x(i)))]
Gradient Descent梯度下降
θj:=θj+α∂∂θjJ(θ)
对于线性模型,其损失函数为均方误差,故有(这里输入训练数据x为m*n矩阵, 线性参数θ为n*1,xi代表训练矩阵中的第i行,xik代表第i行第k列):
∂∂θjJ(θ)=∂∂θj(12mm∑i=1(hθ(xi)−yi)2)
- =12m∂∂θj(m∑i=1(hθ(xi)−yi)2)
- =12mm∑i=1(∂∂θj(hθ(xi)−yi)2)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjhθ(xi))//链式求导法式
- =1mm∑i=1((hθ(xi)−yi)∂∂θjxiθ)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjn−1∑k=0xikθk)
对于j>=1:
- =1mm∑i=1((hθ(xi)−yi)xij)
- =1m(hθ(x)−y)xj
Week2
Multivariate Linear Regression
hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn=θTx
其中,
x=|x0x1x2...xn|=|x(1)0x(2)0...x(m)0x(1)1x(2)1...x(m)1............x(1)mx(2)m...x(m)n|,θ=|θ0θ1θ2...θn|
- m为训练数据组数,n为特征个数(通常,为了方便处理,会令x(i)0=1,i=1,2,...,m)。
Feature Scaling & Standard Normalization
xi:=xi−μisi
其中,μi是第i个特征数据x_i的均值,而 si则要视情况而定:
- Feature Scaling:si为xi中最大值与最小值的差(max-min);
- Standard Normalization:si为xi中数据标准差(standard deviation)。