Xiangru's Blog


  • 博客首页

  • 文章分类

  • 关于

  • 文章归档

  • 文章标签

  • 导航

  • team

先验概率和后验概率

发表于 2017-07-18 |

基础知识2333

阅读全文 »

最优化方法总结

发表于 2017-07-18 |
  1. 梯度下降法(Gradient Descent)

  2. 牛顿法和拟牛顿法(Newton’s method & Quasi-Newton Methods)

  3. 共轭梯度法(Conjugate Gradient)

  4. 启发式优化方法

  5. 解决约束优化问题——拉格朗日乘数法

    阅读全文 »

分类器性能评估方法对比

发表于 2017-07-14 |

对于分类器,或者说分类算法,评价指标主要有precision,recall,F-score1,ROC和AUC。

阅读全文 »

kd tree

发表于 2017-07-14 |

kNN算法每次在查询k个最近邻的时候都需要遍历全集才能计算出来,可想而且如果训练样本很大的话,代价还是很大的

优化:kd tree

阅读全文 »

kNN算法

发表于 2017-07-14 |

1、knn?

k-近邻算法采用测量不同特征值之间距离的方法进行分类.思想很简单:如果一个样本的特征空间中最为临近(欧式距离进行判断)的K个点大都属于某一个类,那么该样本就属于这个类。这就是物以类聚的思想。

阅读全文 »

unique_summer_lab_0的书签

发表于 2017-07-05 |

完成第一个lab中的一些网页书签

阅读全文 »

Logistic Regression

发表于 2017-07-02 |

看了吴恩达课之后总结
(1)Logistic Regression的基本原理
(2)Logistic Regression的具体过程,即是先选取预测函数,求解Cost函数和J(θ),梯度下降法求J(θ)的最小值,以及递归下降过程的向量化(vectorization)
(3)对比《机器学习实战》中的实现代码 ,回答阅读LogisticRegression部分遇到的疑惑
(question:一般都是用梯度下降法求损失函数的最小值,为何这里用梯度上升法呢?书中说用梯度上升发,为何代码实现时没求梯度的代码?)

Stanford机器学习公开课(https://www.coursera.org/course/ml)
(图片公式来源于csdn)

阅读全文 »

聊天系统

发表于 2017-07-02 |

自动聊天system的解决方案和技术挑战

emmmm

阅读全文 »

talk with 李云涛

发表于 2017-06-27 |

和李云涛的晚上trip

阅读全文 »

未来教育

发表于 2017-06-25 |

emmmmm….

阅读全文 »
1…6789
Xiangru

Xiangru

Never Let Your Fear Decide Your Future

89 日志
© 2019 Xiangru