随着近两年 OpenAI 带火的大语言模型( LLM )的兴起,AGI 可行性的话题重新开始流行起来。最近包括 OpenAI 几位高管,Nvidia 黄仁勋,Elon Musk 等人统统发表高论,言称 AGI 可能在 5 年内实现。我自己觉得这个时间点肯定过于乐观。但毫无疑问 GPT4 等大语言模型的出现让大家把 AGI 实现的预估时间从百年的量级缩短至十年单位的量级。
我自己目前已把 GPT4 当作日常工具来使用。对其优缺点也略有体会。简单说下我的使用体验。
以上这些是我个人使用过程中的一些简单体验。当然还有更多,但这里空间太小,我写不下(滑稽~).
所以这里想抛出的话题是:你认为 AGI 能否实现,可以围绕以下几个点来说下你的看法:
可以肯定的是,如果 AGI 能够实现,那它将是人类历史上的最后一个发明。
大家踊跃讨论下,也不限于以上几点,相关的都可以。
1
mcV473b9u4GfJG81 353 天前
真正意义上的互联网出现才多少年,再久远一点,个人电脑才出现多少年。
想一想小时候玩的和电子科技相关的产品,再看看现在玩的东西,其实科技发展的速度由于处于而当下感觉不明显。 个人感觉通用人工智能会在定居火星之前出现。 |
2
lDqe4OE6iOEUQNM7 353 天前 1
目前的 LLM 架构不足以达到 AGI,本质是已有压缩知识,然后随机最大概率的前几个回答,openai 的那个泄露的 Q*项目貌似再往另一个方向,从爆料的信息来看目前能做对小学的数学题,研究人员对它的未来很可观,说明再往答案没有幻觉,而且推理能力可以,要是后面能做到像牛顿发现万有引力,爱因斯坦的那种,才可能,创造新的知识,归纳旧知识,才能通向 AGI
|
3
sentinelK 353 天前
先声明,本人无任何计算机科学从业背景,以下言论均为出于直觉的妄加揣测。
从我个人的学习经历来理解,目前的大语言模型,其实和真正的“智能”(至少是人类理解的智能)应该是有本质的区别(注意,是“区别”,不是“高下”)。我也不认为基于统计学的机器学习模型,能够做到“人类意义上的智能”。 1 、机器学习模型是挖掘的既有内容的统计学规律,是历史数据的过拟合。人类理解的智能是由既有规律组合推结果。是历史规律的过拟合。这是本质因果上的不同。(历史规律和历史数据是有差别的,规律可以创造,可以猜测,可以人为调整,但历史数据不可以。) 2 、人类的智能是可传递的,可监视的,可预期的,可修整的。机器学习模型不可(至少是现阶段)。 3 、因为人类的“学习”是输入“模型”或“规律”,而不是自我做统计学总结。这就导致人脑的功耗很低(一说人脑功率 40 瓦)。而统计学模型的能耗与数据目前看很快就要到达一个瓶颈。 btw:其实我一直人为,AI 并不需要“强”或者“通用”,现阶段的统计学 AI 已经有其独到的优势了(在很多领域破除了人类一直以为的“最优解”。也在很多领域找到了之前人类并没有发现的统计学关系。比如教育、棋牌、写代码等等)。 人类最不擅长的就是高效率的挖掘统计学规律。我们应该把现阶段的 AI 理解为一种从统计学角度理解事物的工具,而不是一种拟人的手段。 他拥有人类认可的“智能”,或者说“思考学习方式”,在我看来并不是一个有吸引力的 feature 。 |
4
sentinelK 353 天前
如果要举例的话,现在的大语言模型,就像是一个震动翅膀飞行的机械鸟。(因为既有的数据都是震动翅膀飞行的)
能飞,也确实带领我们领略了不同的风景。 但震动翅膀的飞行是飞行的唯一方式么?是像鸟重要,还是飞行重要?我们人类需要的到底是飞行还是像鸟? |
5
NoOneNoBody 353 天前
这两天让 3.5 搞得神经衰弱
给了个答案,里面有这句:……7*10**6 ,这样就不会超过一百万了…… |
6
tfdetang 353 天前
a. 不觉得 AGI 可以通过目前的 LLM scaling up 的方式达到,但目前的方式极大的促进了 AI 的商业化,促进了 AGI 的到来;
b. 目前的这套方案规模再大,本质上还是一个自回归的模型;需要一个明确的指令然后根据上下文和已输出的部分来预测下一个 token ; 直觉上这个和人类思考的模式还是有很大不同,虽然现在有一些通过多 agent 的思维链,思维网的方式来复杂化思维过程,但感觉并不是本质上的改变 |
7
zzboat0422 353 天前
人类最强的是“脑补”功能,基于输入的少量信息,再配合记忆进行脑补补全。这跟现有的 chatGPT 是完全不同的思考方式啊。
|
8
metalvest 351 天前 via Android
幻觉问题还是比较严重的
大家可以试试这个提示,基本上各家号称有搜索能力的大模型得到的结果都是胡编乱造。 提示语: 请模仿一下:注意看这个男人,这种小帅小美式解说风格,讲解电影《交通费》。 |