“ML”的版本间的差异
来自个人维基
小 |
小 (→multivariate linear regression) |
||
第19行: | 第19行: | ||
=Week2= | =Week2= | ||
==multivariate linear regression== | ==multivariate linear regression== | ||
− | <math>h_θ(x) = θ^Tx</math> | + | <math>h_θ(x) = θ_0x_0 + θ_1x_1 + θ_2x_2 + ... + θ_nx_n = θ^Tx</math> |
其中, | 其中, | ||
<math> | <math> | ||
第28行: | 第28行: | ||
... \\ | ... \\ | ||
x_m | x_m | ||
− | \end{vmatrix}, | + | \end{vmatrix} |
+ | = \begin{vmatrix} | ||
+ | x_0^{(0)} & x_0^{(1)} & x_0^{(2)} & ... & x_0^{(n)} \\ | ||
+ | x_1^{(0)} & x_1^{(1)} & x_1^{(2)} & ... & x_1^{(n)} \\ | ||
+ | ... & ... & ... & ... & ...\\ | ||
+ | x_m^{(0)} & x_m^{(1)} & x_m^{(2)} & ... & x_m^{(n)} \\ | ||
+ | \end{vmatrix} | ||
+ | , | ||
θ=\begin{vmatrix} | θ=\begin{vmatrix} | ||
θ_0 \\ | θ_0 \\ | ||
第34行: | 第41行: | ||
θ_2\\ | θ_2\\ | ||
...\\ | ...\\ | ||
− | θ | + | θ_n |
− | \end{vmatrix} | + | \end{vmatrix}, m为训练数据组数,n为特征个数。 |
</math> | </math> |
2018年12月21日 (五) 17:32的版本
目录[隐藏] |
Week1
Cost Function损失函数
Squared error function/Mean squared function均方误差: J(θ)=12mm∑i=1(hθ(xi)−yi)2
Cross entropy交叉熵: J(θ)=−1mm∑i=1[y(i)∗loghθ(x(i))+(1−y(i))∗log(1−hθ(x(i)))]
Gradient Descent梯度下降
θj:=θj+α∂∂θjJ(θ)
对于线性模型,其损失函数为均方误差,故有(这里输入训练数据x为m*n矩阵, 线性参数θ为n*1,xi代表训练矩阵中的第i行,xik代表第i行第k列):
∂∂θjJ(θ)=∂∂θj(12mm∑i=1(hθ(xi)−yi)2)
- =12m∂∂θj(m∑i=1(hθ(xi)−yi)2)
- =12mm∑i=1(∂∂θj(hθ(xi)−yi)2)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjhθ(xi))//链式求导法式
- =1mm∑i=1((hθ(xi)−yi)∂∂θjxiθ)
- =1mm∑i=1((hθ(xi)−yi)∂∂θjn−1∑k=0xikθk)
对于j>=1:
- =1mm∑i=1((hθ(xi)−yi)xij)
- =1m(hθ(x)−y)xj
Week2
multivariate linear regression
hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn=θTx
其中,
x=|x0x1x2...xm|=|x(0)0x(1)0x(2)0...x(n)0x(0)1x(1)1x(2)1...x(n)1...............x(0)mx(1)mx(2)m...x(n)m|,θ=|θ0θ1θ2...θn|,m为训练数据组数,n为特征个数。