Taikyo 最近的时间轴更新
Taikyo

Taikyo

V2EX 第 209230 号会员,加入于 2017-01-04 21:13:11 +08:00
摄影入门求微单推荐
摄影  •  Taikyo  •  2021-05-10 17:01:44 PM  •  最后回复来自 zellalan
7
收个 PS4 Pro
二手交易  •  Taikyo  •  2020-06-01 15:56:50 PM  •  最后回复来自 cd2want
17
迫于不看或看完不想看了,送书
免费赠送  •  Taikyo  •  2019-10-06 10:51:47 AM  •  最后回复来自 Taikyo
18
迫于显示器太大,出一个 32 寸 4k 显示器
二手交易  •  Taikyo  •  2018-07-29 01:10:21 AM  •  最后回复来自 Taikyo
12
Taikyo 最近回复了
对了,针对 4 楼的问题,我讲下我的理解,因为大语言模型回答的时候,是通过激活跟上下文相关的权重网络进行理解和回应的,并不是检索数据的过程,假设把 context 只针对本次 session 的参数,可能会有另一个问题,就是 context 如果是错误的,根据错误的权重网络,那么就会推导出错误的结果。
训练数据训练的过程其实不是记忆全部数据的过程,而是学习语言规律,用法,结构的过程,训练过程中会调整参数,在训练结束后,这些参数就是大语言模型的 “长期记忆”,而聊天的上下文,会传给大语言模型进行推理,找到权重相关的内容,然后组织出答案。上下文越多,关联的东西就越多,大语言模型需要进行更多的文本分析和激活更多的参数权重,所以就约束了参数的上下文长度。
上面那个是我跟 chagpt-4 一起交流出来的,然后梳理出来的我的理解,有错的欢迎交流指正
如果原文是英文的话,蹲个原文
同样用 2 楼那个字体,中文叫霞鹜文体
362 天前
回复了 sjmcefc2 创建的主题 程序员 想请教 windows 上如何阅读 epub?
@iloveoovx readwise
2023-03-26 22:48:02 +08:00
回复了 djyde 创建的主题 程序员 28 岁,我还想生猛下去
@zhaorunze 要不你分享下你的经历?
2022-02-02 13:32:38 +08:00
回复了 37Y37 创建的主题 生活 新年礼物
看了竟有些感动,楼主很幸福。祝新年快乐。
2022-01-28 12:26:20 +08:00
回复了 curiousjude 创建的主题 生活 不堪回首的 2020,曙光重现的 2021
加油
2022-01-26 23:11:34 +08:00
回复了 vcfghtyjc 创建的主题 程序员 有什么有趣的 side project 可以做?
@mirone 先 fork 看下。后面有问题我们交流下
2022-01-21 22:55:18 +08:00
回复了 vcfghtyjc 创建的主题 程序员 有什么有趣的 side project 可以做?
@mirone 这个看起来有点意思,请问怎么加入?
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   985 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 15ms · UTC 19:52 · PVG 03:52 · LAX 12:52 · JFK 15:52
Developed with CodeLauncher
♥ Do have faith in what you're doing.