机器学习2
本周开始讲了多变量的参数学习。
不过我认为,这个东西也就和单变量一个样子。都是对cost function取最小值,最后得到趋向于稳定的参数。
特征缩放 Feature Scaling
- 让所有的特征都处于相同的数量等级,有助于加快回归
- mean scaling :(特征-平均值)/(最大-最小)
- 学习速率决定了回归质量
标准方程
- 梯度下降和标准方程的比较(在特征规模上的差别)
一些题目
week2-1
week2-2
2^6=64
1~=2 %不等于
1&&0 %与
xor(1,0) %异或
PS1('>> '); %新起一行
pi %圆周率
disp() %显示
分号 换行
ones(x,y) %x行y列 全1
rand(x,y) % 任意
hist %线图
eye %单位矩阵
size(矩阵,1或者2) %1是 row 2 is col
size(矩阵) %vector with 2 var
length(matrix) %longest length
pwd %working path
load filename Equal load('filename')
who show the all var
whos show details of who
save filename var encode
: mean every element along that row/col
[A B] row combine
[A ; B] col combine
A .^ 2 each element of A ^2
sum(A) sum of A
prod(A) product of A
floor(A)
ceil(A)
PS:特征缩放那一题是帮助了更快迭代回归,而不是使每一步都更小花费