梯度下降法 发表于 2018-09-28 | 分类于 机器学习 | 阅读次数: 梯度下降(Gradien Descent),严格来说不是一个机器学习算法,是一种基于搜索的最优方法,目的是最小化一个损失函数,找到最低点。 阅读全文 »
简单线性回归 发表于 2018-09-10 | 分类于 机器学习 | 阅读次数: 线性回归算法(Liner Regression),线性回归与上一节的KNN不同,KNN主要解决分类问题,而LR主要解决回归问题。本篇介绍简单回归算法(SimpleLinearRegression)。 阅读全文 »
最小二乘法 发表于 2018-09-09 | 分类于 机器学习 | 阅读次数: 最小二乘法通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合及其他一些优化问题。 阅读全文 »
K近邻算法—KNN 发表于 2018-09-08 | 分类于 机器学习 | 阅读次数: KNN算法全称K-Nearest Neighbors,是一个适合入门机器学习的算法,KNN思想简单,数学知识少,拥有机器学习完整的流程,易于理解。 阅读全文 »
神经网络优化--正则化 发表于 2018-08-15 | 分类于 深度学习 | 阅读次数: 正则化是在损失函数中给每个参数 w 加上权重,引入模型复杂度指标,从而抑制模型噪声,减小过拟合。 阅读全文 »
神经网络优化--滑动平均 发表于 2018-08-15 | 分类于 深度学习 | 阅读次数: 滑动平均:记录了一段时间内模型中所有参数 w 和 b 各自的平均值。利用滑动平均值可以增强模型的泛化能力。 阅读全文 »
神经网络优化--学习率 发表于 2018-08-15 | 分类于 深度学习 | 阅读次数: 学习率learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。 阅读全文 »