shend学习基础
深度学习基础
机器学习三要素:
- 模型
- 学习准则
- 优化
- 步长不能设置太大,也不能太小,太大会不收敛,太小速度太慢
梯度下降法
np.linalg.inv 矩阵求逆
numpy基础
切片
跟python切面类似
视图
视图如果改变了,原来的也会改变
索引
arr>4 是成立的,他会arr里的每个数据都比较
布尔数组,
b= arr[arr>4] 这个可以获取大于4的数据
维度和轴
arr = np.arange(16).reshape(4,4)
这是是将16个数据分成4行4列
转置
arr.T 就是转置
transpose换轴
1,2,3,4
4,2,3,1
np.sum(array, axis=1) 求每行的和
np.sum(array, axis=0) 求每一列的和
逻辑回归基础
逻辑回归
代价函数
L(y^, y) = -( ylogy^ +(1-y)log(1-y^) )
cost function J(w, b) = -1/m(求和(L(y^, y)))
梯度下降训练
w := w - learning_rate * 对代价函数求导
w := w - learning_rate * 偏导w
b := b - learning_rate * 偏导b
计算图
- 从左向右传播
- 从右向左传播(复合函数求导)
向量化
bias 和 variance
高偏差,欠拟合
高方差,过拟合
判断依据: 模型在训练集和开发集上的误差
本文作者:NoOne
本文地址: https://noonegroup.xyz/posts/cd22847a/
版权声明:转载请注明出处!