6月计划

毕业答辩结束,现在可以全心投入学习了。
这个月学完

  1. The foundations of machine learning
  2. 统计学习方法
  3. 机器学习 周志华
  4. Eliments of Statistical learning
  5. Deep Learning
  • 6月4日

    • 今天,
  • 6月5日

    • 肥宅
  • 6月6日

    • 肥宅
  • 6月7日

    • 肥宅
  • 6月8日

    • 肥宅
  • 6月9日

    • 肥宅
  • 6月10日

    • 肥宅
  • 6月11日

    • 肥宅
  • 6月12日

    • 肥宅
  • 6月13日

    • 肥宅
  • 6月14日

    • 今天。。
  • 6月15日

    • 贝叶斯决策理论,,
  • 6月16日

    • 肥宅
  • 6月17日

    • 肥宅
  • 6月18日

    • 《统计学习方法》第十章 :隐马尔科夫模型
    • HMM , 两个序列,三个参数,两个基本假设,三个基本问题【概率就计算,训练,预测】,其应用
    • CRF ,
    • 牛顿法,l-bfgs,
    • FTRL ,
    • online learning在线学习
    • SGD,OGD ,
  • 6月19日

    • HMM概率计算三种方法【暴力,前向算法,后向算法】
    • Parameter Estimation: 点估计?MLE ,MAP ,贝叶斯估计,
    • 什么是似然,为什么极大似然,怎么极大似然?
    • 贝叶斯估计?估计什么?怎么估计?
    • p(X,θ):联合分布,p(X|θ):似然 ,
    • p(θ|X):后验概率,p(θ):参数先验
    • p(θ|X) 正比于 p(θ)*p(X|θ)
    • p(θ|X)= p(θ)*p(X|θ)/p(X,θ)
    • MLE,MAP ,贝叶斯估计 区别?
    • MCMC
    • 区间估计?6666666666666
    • 概率模型?
    • 复杂系统?
    • 参考:机器学习中的MLE、MAP、贝叶斯估计
  • 6月20日

    • MCMC
    • 贝叶斯网,vs. 动态贝叶斯网
    • 概率图模型分类 hierrachy
    • EM算法,及其推广,Q 函数
    • 理解EM算法的九层境界
    • 不要一直半解!
  • 6月21日

    • 你数学好吗???
    • SVM 回顾复习
       * 为什么叫支持向量机?什么是支持向量?
       * 形式化表达?最大间隔?
       * 凸QP问题?KTT条件?拉格朗日?对偶?
       * 硬间隔,软间隔
       * hinge loss? 
       * 非线性SVM,核函数?正定核?
       * SMO?
    • 凸优化 1-3
    • CRF
    • word2vec: CBOW,SkipGram
  • 6月22日

    • 本科毕业典礼
  • 6月23日

    • 什么是联结主义?
  • 6月24日

  • 6月25日

  • 6月26日

    • 词集模型,词袋模型,TF-IDF(含义)
    • N-Gram
    • trans-E
    • NER,关系抽取
    • 变分推断
  • 6月27日

    • end-to-end ?
    • 文本匹配技术:
    • 1970s 向量空间模型VSM: 表示:TF-IDF + 相似性度量 BM25? 缺陷?
    • 1990s 潜在语义分析LSA:文档-词 矩阵 做SVD分解,不足之处?
    • 2000s 主题模型Topic Model: LSA-> pLSA -> LDA
    • 2013至今:Deep Learnning,Word2Vec
    • NNLM, CBOW,Skip-Gram,
    • 工具:jieba,gensim,word2vec,fasttext…..
    • 排序模型
    • 三类:pointwise,pairwise,listwise
    • RankNet,
    • MCP-> Peceptron-> MLP -> DNN,CNN,RNN,DRL
    • sigmoid , tanh , relu ?
    • 梯度消失,梯度爆炸
    • 卷积,池化
    • LSTM , GRU
  • 6月28日

    • PageRank
    • 阅读《数学之美》8~15章
    • NNLM
    • Ensemble Methods:Bagging,Stacking,AdaBoost , Random Forest , GBDT ,XGBoost
  • 6月29日

    • BERT
    • 睡觉
  • 6月30日

    • 听讲座
    • 睡觉

转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 rat_racer@qq.com

×

喜欢就点赞,疼爱就打赏