时代在召唤
大模型时代,学习和记录一些基于大语言模型构建和部署应用程序的方法和工具。
AI应用=大语言模型+交互+记忆+多模态
当然,现在主打一个提示工程(prompt engineering)。大模型才是长期记忆力,向量数据库是短期记忆。可能由更多模型组成的交互群体记忆会更牛逼。
大模型时代,学习和记录一些基于大语言模型构建和部署应用程序的方法和工具。
AI应用=大语言模型+交互+记忆+多模态
当然,现在主打一个提示工程(prompt engineering)。大模型才是长期记忆力,向量数据库是短期记忆。可能由更多模型组成的交互群体记忆会更牛逼。
微调的方法越来越有效,开源环境也越做越好,是真佩服这些大佬。
干啥啥不行,抄代码第一名。有时间稍微看点综述吧,整个脉络和体系应该再了解一下。
首先我们得承认一件事,在不久后的地球上,在人类的各行各业中,对AI工具的掌握远比对知识的掌握更重要。
刚接触神经网络那会我还在高呼人工不智能机器不学习,如今我只能对着大模型给出的结果大呼牛逼。
在此整理一些AI工具吧,也算一个简单的市场调研。新的赛道已经开辟了,等晚上去散个步,晨跑也行捏。
二零二二年年底ChatGPT就给了人类亿点点小震撼,他终于带来了一次新的变革,即使他还没有为人类带来物质财富的增长。
有点无趣,2022年了,人工智能还处于暴力学习的阶段。
去年我的大半时间花在神经网络的可解释性上,然后利用隐式损失和耦合梯度设计了在初始化前修剪模型的方法。 在应用层面似乎有些许价值,可是不论多大的稀疏率,大量的样本和模型暴力的求解方法总是显得深度学习有点蠢。 我对神经网络超长的训练时间愈发反感,虽然看过不少文献在模型优化方面的研究,但确实是不太看好目前模型的训练方式。
多模态和自学习等研究带来了一些曙光,但道可道非恒道。 我不知道当前在某个尺度空间下所谓人工智能的表现结果智能何在,且不说非一成不变的万物。 那么在对于人来说都是非恒道的世间,模型的泛化又能到何等地步?
书生意气,我不配在哲学层面讨论,毕竟目前的人工笨蛋也达不到。 虽然有一种基础科学被质子锁死的感觉,但路还是要一步步走的,在此记录一些深度学习模型泛化的相关研究。
怅寥廓,不知沉浮。
可解释性 —— 人工智能过不去的一道坎 志大才疏,待续,
NLP 自然语言处理(Natural Language Processing)
跟着师兄做知识图谱相关课题,果然知识图谱还是🉐和NLP结合,那就来把,先过一遍NLP。