前言
Deep Learning 一书被成为AI圣经,中文译者张志华老师说道:它告诉我们深度学习集技术、科学与艺术于一体,涉及统计、优化、矩阵、算法、编程、分布式计算等多个邻域。
这也意味着深度学习的门槛,当我作为一个萌新学者看这本书的时候,实在是难读和枯燥,但通过一年的学习再回来看这本书,收获颇丰,所以我决定再次研读“圣经”,并结合相应邻域的论文学习,同时我会尽可能的实践,然后根据拙见逐步的写完这篇总结,毕竟行万里路读万卷书嘛。
Deep Learning 一书被成为AI圣经,中文译者张志华老师说道:它告诉我们深度学习集技术、科学与艺术于一体,涉及统计、优化、矩阵、算法、编程、分布式计算等多个邻域。
这也意味着深度学习的门槛,当我作为一个萌新学者看这本书的时候,实在是难读和枯燥,但通过一年的学习再回来看这本书,收获颇丰,所以我决定再次研读“圣经”,并结合相应邻域的论文学习,同时我会尽可能的实践,然后根据拙见逐步的写完这篇总结,毕竟行万里路读万卷书嘛。
有点无趣,2022年了,人工智能还处于暴力学习的阶段。
去年我的大半时间花在神经网络的可解释性上,然后利用隐式损失和耦合梯度设计了在初始化前修剪模型的方法。 在应用层面似乎有些许价值,可是不论多大的稀疏率,大量的样本和模型暴力的求解方法总是显得深度学习有点蠢。 我对神经网络超长的训练时间愈发反感,虽然看过不少文献在模型优化方面的研究,但确实是不太看好目前模型的训练方式。
多模态和自学习等研究带来了一些曙光,但道可道非恒道。 我不知道当前在某个尺度空间下所谓人工智能的表现结果智能何在,且不说非一成不变的万物。 那么在对于人来说都是非恒道的世间,模型的泛化又能到何等地步?
书生意气,我不配在哲学层面讨论,毕竟目前的人工笨蛋也达不到。 虽然有一种基础科学被质子锁死的感觉,但路还是要一步步走的,在此记录一些深度学习模型泛化的相关研究。
怅寥廓,不知沉浮。