V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  catazshadow  ›  全部回复第 27 页 / 共 55 页
回复总数  1091
1 ... 23  24  25  26  27  28  29  30  31  32 ... 55  
@icyalala 上头别人不是问过你了,你要怎么定义智力啊?

还是说你非要拿苹果和梨比?
@InkStone 你觉得我的观点有没有价值那是你的判断,与这个世界的很多事情都无关

至于真的智能是否存在,我顶楼就说了,在模型逼近真实人脑的规模之前没有答案,我没有说它存在也没有说它不存在。你为什么觉得这东西就不存在呢?
@InkStone

你要明白,白马非马这套在我这没用。

“或许一个鹦鹉确实处理问题的能力显著强于另一个”

我觉得我已经没什么好说的了
@InkStone 你说的是 AI 用来解决某些具体问题是有效的,这我不否认,我意思是这离真的智能差的很远。更不能用来反过来倒推人的本质和大脑的本质。
@InkStone 这不代表 LLM 不是神经网络
@InkStone 神经网络这个数据结构之所以叫神经网络,就是因为它是在模仿人脑的神经结构
@sillydaddy 我不赌,不代表我说的没有道理

我上面问你的话是很难理解吗?你在崇拜一个人造现象,我告诉你这现象只是人造的离真的差得远。

你感到智商受到了侮辱吗?
@sillydaddy 看来我出来说这个是挡了你财路咯

那不好意思,不是我挡了你,是这个世界挡了你,不服那你也只能憋着。

嘻嘻
@coefuqin 后会有期
@icyalala 神经元的连接能够对应智能的水平吗?你怎么证明?

我不能在科学意义上证明,而且像我顶楼说的,我也不觉得在几十年内有人能够在科学意义上证明。

但是,狗比老鼠聪明,狗脑子比老鼠脑子大,这点相关性是存在的。

至于为什么大模型参数量和神经连接对应,你去给自己科普下这些神经网络的结构不就知道了?

前一层到后一层的每一根线不就对应一个参数?这不就是神经连接?
@icyalala 或者什么是你所说的“有用”的?
@icyalala 那你怎么证明这 6500000 亿个连接里,只有 600B 是有用的?或者只有 6000B 是有用的?或者到底哪些是有用的?
@HENQIGUAI 别忘了 AI 浪潮之前 7 、80 年代已经死过一次了
@trungdieu031 集群的话,就会撞上功耗问题了。上面说了,一个 openAI 已经让美国电力短缺了,假设算力扩展是线性的(现实世界通常不是),要来几千个吗?
@coefuqin 英文世界有人把 LLM 叫做 stochastic parrot ,很贴切了。上面那人就是因为我把这个说法搬过来叫做概率鹦鹉跑来追着我咬的
@icyalala 你要比应该在相同的基准上来比,多大的 LLM 能够分别完成所有老鼠和人的功能?然后比较 LLM 的大小你也许能获得老鼠和人哪个更具有智能

我希望你能获得你想要的答案
@trungdieu031 业内现在喷老黄喷的是他 GPU 单元的利用率其实是及其底下的,原因之一就是内存墙,数据供不上
@icyalala 老鼠不能理解文字,真的要比只能比在现实世界中完成任务的情况,比如觅食,躲避捕食者,交配

多大的 LLM 能够完成这些?
@trungdieu031 老黄吹的是 GPU 内的算力,他不会告诉你的是,从 DDR 读数据的带宽是有尽头的,一个周期只能读回来那么多数据,怎么在合理时间内读回来足够的数据,用来表示比现在的模型大 1000 倍的更大的模型? HBM ?集成几百颗显存吗?
@trungdieu031 不不不,半导体已经到头了,1000 倍现在就是遥不可及
1 ... 23  24  25  26  27  28  29  30  31  32 ... 55  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2475 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 13:29 · PVG 21:29 · LAX 06:29 · JFK 09:29
♥ Do have faith in what you're doing.