毕业答辩结束,现在可以全心投入学习了。
这个月学完
- The foundations of machine learning
- 统计学习方法
- 机器学习 周志华
- Eliments of Statistical learning
- Deep Learning
6月4日
- 今天,
6月5日
- 肥宅
6月6日
- 肥宅
6月7日
- 肥宅
6月8日
- 肥宅
6月9日
- 肥宅
6月10日
- 肥宅
6月11日
- 肥宅
6月12日
- 肥宅
6月13日
- 肥宅
6月14日
- 今天。。
6月15日
- 贝叶斯决策理论,,
6月16日
- 肥宅
6月17日
- 肥宅
6月18日
- 《统计学习方法》第十章 :隐马尔科夫模型
- HMM , 两个序列,三个参数,两个基本假设,三个基本问题【概率就计算,训练,预测】,其应用
- CRF ,
- 牛顿法,l-bfgs,
- FTRL ,
- online learning在线学习
- SGD,OGD ,
6月19日
- HMM概率计算三种方法【暴力,前向算法,后向算法】
- Parameter Estimation: 点估计?MLE ,MAP ,贝叶斯估计,
- 什么是似然,为什么极大似然,怎么极大似然?
- 贝叶斯估计?估计什么?怎么估计?
- p(X,θ):联合分布,p(X|θ):似然 ,
- p(θ|X):后验概率,p(θ):参数先验
- p(θ|X) 正比于 p(θ)*p(X|θ)
- p(θ|X)= p(θ)*p(X|θ)/p(X,θ)
- MLE,MAP ,贝叶斯估计 区别?
- MCMC
- 区间估计?6666666666666
- 概率模型?
- 复杂系统?
- 参考:机器学习中的MLE、MAP、贝叶斯估计
6月20日
- MCMC
- 贝叶斯网,vs. 动态贝叶斯网
- 概率图模型分类 hierrachy
- EM算法,及其推广,Q 函数
- 理解EM算法的九层境界
- 不要一直半解!
6月21日
- 你数学好吗???
- SVM 回顾复习
* 为什么叫支持向量机?什么是支持向量? * 形式化表达?最大间隔? * 凸QP问题?KTT条件?拉格朗日?对偶? * 硬间隔,软间隔 * hinge loss? * 非线性SVM,核函数?正定核? * SMO?
- 凸优化 1-3
- CRF
- word2vec: CBOW,SkipGram
6月22日
- 本科毕业典礼
6月23日
- 什么是联结主义?
6月24日
6月25日
6月26日
- 词集模型,词袋模型,TF-IDF(含义)
- N-Gram
- trans-E
- NER,关系抽取
- 变分推断
6月27日
- end-to-end ?
- 文本匹配技术:
- 1970s 向量空间模型VSM: 表示:TF-IDF + 相似性度量 BM25? 缺陷?
- 1990s 潜在语义分析LSA:文档-词 矩阵 做SVD分解,不足之处?
- 2000s 主题模型Topic Model: LSA-> pLSA -> LDA
- 2013至今:Deep Learnning,Word2Vec
- NNLM, CBOW,Skip-Gram,
- 工具:jieba,gensim,word2vec,fasttext…..
- 排序模型
- 三类:pointwise,pairwise,listwise
- RankNet,
- MCP-> Peceptron-> MLP -> DNN,CNN,RNN,DRL
- sigmoid , tanh , relu ?
- 梯度消失,梯度爆炸
- 卷积,池化
- LSTM , GRU
6月28日
- PageRank
- 阅读《数学之美》8~15章
- NNLM
- Ensemble Methods:Bagging,Stacking,AdaBoost , Random Forest , GBDT ,XGBoost
6月29日
- BERT
- 睡觉
6月30日
- 听讲座
- 睡觉
转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 rat_racer@qq.com