V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  trungdieu031  ›  全部回复第 1 页 / 共 3 页
回复总数  53
1  2  3  
我认为会。
楼上说的取代小国的法币是短期内可以预见的。
但我认为取代大国的法币也并非不可能。大国固然不想把铸币权拱手让人。但问题在于几乎所有的国家都是无锚铸币,长期看来(也不会很长期),这些国家的法币丧失信用从而退出市场几乎是个不可逆的过程。
这是个逐渐渗透的过程。
差太多了。ascend 勉强能做推理,做训练的话可能连边都摸不着,性能差,功耗高,生态残缺,跑个模型要改一堆算子...
不过上头在强推这点是真的。
85 天前
回复了 nosugar 创建的主题 问与答 大模型的训练是不是到头了?
至少目前还没到头。

不过你可以说现有范式下的 pre training 趋于平缓了,test time training 还远没看到上限,作为例子,本次 GPT5 pro 模式下,数学等逻辑推理能力提升很大,幻觉也大大降低了(但大部分人可能都用不到)。这是 o 系列模型进一步提升的效果。而且 OpenAI 最近接连在 IMO 和 IOI 上连续获得金牌也足以说明一些问题。

我看很多人说 GPT5 智力下降了,表现在连个 9.11 和 9.8 的大小都比不出来。这一方面是 OpenAI 路由的问题,本来这些数学问题无论大小都要用 thinking 模式,如果只是路由到直接输出的基模,不管谁家的都有可能大错;另一方面也可能大多数用户也不知道这些常识,什么时候要用什么样的模型里面也是有点门道的~

目前的大模型能力在继续增强是毫无疑问的,但也不是没有缺陷。on-line learning, memory, long term planning 这些还都要进一步突破~
138 天前
回复了 XianV 创建的主题 生活 旅居的第 48 天,讲讲我为什么逃离西安
想问下 OP, 去大理后是自己找的房子还是住数字游民社区?怎么认识其他新朋友的?
我最近也打算去那边,纯 i 人担心去了后一个人比较无聊...
德扑应该是有专用 AI , 强化学习训练的,我记着挺强...
为啥要用 LLM...
177 天前
回复了 einvince 创建的主题 生活 农村父母,没有养老金的,怎么处理
看上面这些个的回答我一时之间有些恍惚,v 站老哥们看来确实都是中上层人士,对中国底层的高龄农民/工的生活状况一无所知!

有推荐养蜜蜂养鸡的,有疑问为啥不补交的,有让去大城市找工作再就业的,有问一辈子积蓄都去哪儿的, 还有竟然这算家里名下百万房产来说事的 ...

如果你真的了解过农村农工,在北方的农村走过一圈,见过空巢老人和农村的衰败,了解过年轻时透支生命带来的伤痛,知道养蜂所需要的精神和体力,养能产生 2 万 RMB 价值的鸡所需要的投入与风险,对中国当下高龄者的就业状况有轻微的了解,就不会说出这么蠢的话来 ...

为什么不补缴呢,一辈子的积蓄呢?
如果有那些补缴的钱,又怎么会有这样的困境;
一辈子的其他积蓄呢?年轻的时候种粮上缴给老爷,年轻的时候进城盖水泥房子,光是活着就拼尽全力了,哪还有什么积蓄

这个问题只有一个解决方案。
做好医保。
每年打钱。
@coefuqin COT 的确是让思考过程更精确。你这里说的又是另一个问题,LLM 能否做出原创性的思考?
归根到底,看你是不是认为人脑的智能的过程都是可计算的。
智能的表现形式里,COT 是一种,但它只能在既有的知识范围内推理,像数学里的演绎。COT 能被 LLM 学习到,转化为 LLM 隐式空间里的向量。
直觉也是智能的一种形式,如果它是可计算,那它必然也能转化为隐式空间的向量。
所以这个问题就变成,你是不是相信大脑有超越图灵机的能力,如果没有,那它必然是可计算的。
至少目前世界上还没有发现能超越图灵机计算能力的实际模型。
实际上没有什么东西是完全无中生有的创造,都是在既有范围内的创新,但范围本身要不断扩大。
@catazshadow 目前来说功耗确实是问题。但在实现 AGI 这个目标面前,功耗带来的成本增加会显得不值一提!
@coefuqin 他那文章说的是,同样的 671B 的模型,用同样的数据训练,他们模型的能力范围是一样大的,比如数据集里没有法文的数据,那你后训练 RL 再怎么跑,也没法回答法文的问题。
那么为什么 COT 会对模型能力尤其是推理能力有提升呢,因为 COT 的训练其实是在强化思考过程,就像对数学里的加法运算一样,这里的 COT 其实就是加法,只不过作用在在不同的名词/实事上,使模型推理能力提升!
@catazshadow 我们说现在“摩尔定律失效“ 一般都在说晶体管尺寸(制成工艺)快要达到物理极限了,显存读取带宽目前还没有达到物理极限。
目前的超大模型都是在集群/分布式训练的, 单卡很少能容纳一个完整的超大参数模型,单卡的 DRM 读取速度不是主要瓶颈,因为卡与卡之间的通信比这个要久,所以未来比这个更大的模型也会采用同样的思路。而且还有其他手段来解决这些问题!
@coefuqin 我建议你不要听风就是雨!
先仔细看看文章说的是啥再来辩经!
他这篇文章的结论是 RL 无法实现超越基础模型能力的推理。RL 只是激发能力做推理过程,文章讨论的模型能力的边界问题。举个例子,如果一个模型在预训练阶段没有在数学集上做过相应的训练,那么 RL 深度思考也是没法表现出来数学的形式计算能力。

开口之前先过过脑子!
@catazshadow CPU 的摩尔定律已经很慢了,GPU 的摩尔定律显然还没到头,看老黄每年新卡的计算能力就知道了。
现有 LLM 和人类大脑智能的形成机制共性远大于差异。
共性是底层必然都是神经连接的形式,而且需要达到一定的规模才能涌现出智能,差异可能存在与比如是否是 token by token 的预测方式,是否是梯度方向传播这些。但目前的神经学和 LLM 的发展表现出来的能力都指向了一个比较明确的结论:智能是大量神经元信息处理过程中的涌现,不依赖于具体的计算质(人类神经元或是半导体),必要条件是神经连接足够以及计算能力足够。
这种涌现无法用还原论的方法来解释,有点像你没法通过水分子来推测水的层流/湍流/雪花等。

1. 智能和神经元连接数量密切相关。从斑马鱼果蝇到老鼠猴子大象到智人,随着神经元连接的增大,智力有明显的递增关系。
2. 你上面给个那个大模型参数量目前只有人脑参数量的千分之一,数量级是对的。但 1000 倍不是什么遥不可及的数量级,尤其是半导体领域。更不用说人脑中有许多的冗余,负责感知的神经元等。
3. 目前神经科学比较认可的结论是人脑的智力和量子效应没有关系。本质上量子效应相干时间太短,没法维持在大脑这么大的器官上稳定处理信息。
4. 你说的完整记录“一个字之后另一个字”肯定是不对的。大模型的训练是学习模式,或者收条件概率。现在的顶级的大模型能做 10 位以内的加法,你不能说把所有 10 位以内的加法全都背下来了,显然不是。LLM 学习了加法规则,就像学习了人的思维方式一样(COT).
有。
233 天前
回复了 andyL 创建的主题 VXNA 申请收录个人博客: 弓满月
博客文章好像打不开 ~
保持不了。
我知道很多人说要学会使用 AI , 去卷走那些不会 AI 的 人; 还有人说新的技术浪潮会产生新的岗位,总会有坑出来,只要保持学习的态度 ....
我的看法是这样想未免过于乐观了,属于刻舟求剑式的推演,用过去的技术革命来外推现在这轮,实属想当然了。
从我对 AI 进展观察来看,大概还有个两年的窗口期,两年内你或许能比那些不会 AI 的人有略微的比较优势。两年后,生成式 AI 足以替换掉 90 % 的程序员,白领行业大规模的失业潮会在这个时候到来,到时候所有人都会有所感知 ...
说实话我现在也看不出来有什么好的解决方案,也许 UBI 是一种思路,但在国内这样不养懒汉的意识形态下很难推行起来。最终或许会被形势推着前进。
AI 创造的岗位也会被 AI 所取代,这轮技术趋势不会产生新的岗位需求了~
258 天前
回复了 cat 创建的主题 问与答 DeepSeek 一直不稳定,为啥不推出付费渠道?
国内受芯片禁运的影响,算力短缺就这个样子。
deepseek 应该是自建机房卖服务的,他们肯定也是处于算力饥饿状态。如果部署模型到其他厂商的云服务器,可能价格就得上去。
云服务厂可能也因算力供给需求不平衡而涨价,想想更不划算了。DeepSeek 从春节后就一直这个鸟样子,短期内没法改变了 ...
260 天前
回复了 madantech 创建的主题 职场话题 失业近一年的回顾(看我如何自救)
@madantech , sol 链上 dex 之间的套利现在还有利可图吗,我听说这块卷的飞起了都?
1  2  3  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1001 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 31ms · UTC 22:45 · PVG 06:45 · LAX 14:45 · JFK 17:45
♥ Do have faith in what you're doing.