明 光 大 正

机器学习2

    ML

本周开始讲了多变量的参数学习。

不过我认为,这个东西也就和单变量一个样子。都是对cost function取最小值,最后得到趋向于稳定的参数。

特征缩放 Feature Scaling

  1. 让所有的特征都处于相同的数量等级,有助于加快回归
  2. mean scaling :(特征-平均值)/(最大-最小)
  3. 学习速率决定了回归质量

标准方程

  1. 梯度下降和标准方程的比较(在特征规模上的差别)

一些题目

week2-1

week2-2

2^6=64
1~=2 %不等于
1&&0 %与
xor(1,0) %异或
PS1('>> '); %新起一行
pi %圆周率
disp() %显示
分号 换行
ones(x,y) %x行y列 全1
rand(x,y) %      任意
hist %线图
eye %单位矩阵
size(矩阵,1或者2) %1是 row 2 is col
size(矩阵) %vector with 2 var
length(matrix) %longest length
pwd %working path
load filename Equal load('filename')
who show the all var
whos show details of who
save filename var encode
: mean every element along that row/col
[A B] row combine
[A ; B] col combine
A .^ 2 each element of A ^2
sum(A) sum of A
prod(A) product of A
floor(A) 
ceil(A) 

PS:特征缩放那一题是帮助了更快迭代回归,而不是使每一步都更小花费

页阅读量:  ・  站访问量:  ・  站访客数: