关于深度学习的片面总结
前言
Deep Learning 一书被成为AI圣经,中文译者张志华老师说道:它告诉我们深度学习集技术、科学与艺术于一体,涉及统计、优化、矩阵、算法、编程、分布式计算等多个邻域。
这也意味着深度学习的门槛,当我作为一个萌新学者看这本书的时候,实在是难读和枯燥,但通过一年的学习再回来看这本书,收获颇丰,所以我决定再次研读“圣经”,并结合相应邻域的论文学习,同时我会尽可能的实践,然后根据拙见逐步的写完这篇总结,毕竟行万里路读万卷书嘛。
吐槽:慢慢学比较快!
机器学习基础
我先总结下深度学习的模型,这里之后再来补充 break
结构化概率模型
使用图描述模型结构
- 有向模型(信念网络,贝叶斯网络)
- 高效的从模型中抽取样本
- 无向模型(马尔可夫随机场MRF)
- 推导近似判断的过程
结构化概率模型的深度学习方法
- 图节点之间通过潜变量来表示
- 实例:受限玻尔兹曼机
蒙特卡罗方法
蒙特卡罗采样近似
- 无法精确计算或积分时
- 重要采样
马尔可夫链蒙特卡罗方法(MCMC)
- 马尔可夫链
- 人生哲理:The future is independent of the past given the present. 未来独立于过去,只基于当下。
- 转移概率矩阵(状态分布矩阵)
- 细致平稳条件(前后两个状态可以来回转换)
- MCMC采样
- 引入接受率alpha形成新的转移矩阵Q(按等式对称性)(这里书上写的是真的难懂😥)
- 从均匀分布采样与转移概率比较判断是否转移(随机过程)
- M-H(Metropolis-Hastings)采样使等式两边的转移概率比来随机转移,改进了收敛太慢的缺陷
- 引入接受率alpha形成新的转移矩阵Q(按等式对称性)(这里书上写的是真的难懂😥)
Gibbs采样
- 重新寻找细致平稳条件
- 解决计算量与高维特征联合概率不好求问题
- 将样本放到空间中来看,在同一条线上,条件概率分布作为转移概率满足平稳条件
- 推广到高维空间同理