7月1日
- 阅读《数学之美》第1~7章
- 基于规则的-> 统计语言模型,计算句子的概率干什么呢,有什么用
- 大数定律?
- 注意力机制 Attention
- 《美团机器学习实践》第七章 评论挖掘
7月2日
- 无监督学习
- N-Gram语言模型 即 N阶马尔科夫链。。。???
- 连续状态马尔科夫链,转移核?
7月3日
- 机器翻译MT历史
- Monte Carlo方法,MCMC
- 采样,采样方法
- 接受拒绝采样
- 变分推断
- AI技术内参 p89-92
7月4日
- 肥宅
7月5日
- 肥宅
7月6日
- 周末
7月7日
- 周末
7月8日
- ESL 回归的线性方法
- 矩阵求导术
- TF-IDF,BM25
- point-wise,paire-wise,list-wise
7月9日
7月10日
7月11日
7月12日
7月13日 无所事事,撩妹,,,
7月14日
7月15日
7月16日
7月17日
- 上午听讲座
7月18日
- 好像没干啥,,,
7月19日
- 又到周五了
- 梯度下降,对谁的梯度,谁对谁,为什么下降?
- 损失函数关于参数的梯度,自变量是梯度,调节参数,是的Loss最小
- 知识都是别人的,
- 怎么才能搞成是自己的
7月20日
- kf混沌一天
7月21日
- 计算学习理论?
- PAC?
- 泛化误差?期望错误? 指在未知数据上的错误
- 经验误差?
- 频率选派 vs.贝叶斯学派,MLE vs.贝叶斯估计
- MAP = MLE + Prior ,使用贝叶斯公式,极大
- 贝叶斯估计,使用贝叶斯公式,求得后验分布密度函数
- 朴素贝叶斯 vs. 贝叶斯 贝叶斯决策论?
- 多维高斯分布
- 大数定律 E[R_emp (h)] = R(h) 经验误差 期望误差
- 自动梯度计算?为什么?怎么做?
- 奥卡姆剃刀原则?
- 高斯混合模型,GMM
- EM算法
- PCA
7月22日
7月23日
7月24日
7月25日
- PCA 理论导出,计算步骤
7月26日
7月27日
- Shallow Learning vs. Deep Learning
- 特征靠人工经验/特征转换 ? 是否涉及特征学习
- 表示学习Representation Learning
- Local Representation , Distributed Representation
- 端到端
7月28日
- 前馈网络 vs. 反馈网络 vs. 图网络
7月29日
*7月30日
- deep learning part1: chap2
7月31日
- 数据科学导论 chap5
转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 rat_racer@qq.com