1
ttgo 2023-02-25 09:54:16 +08:00 via iPhone
有没有人试一下 new bing 怎么回答同样的问题?
|
2
rimutuyuan 2023-02-25 09:56:01 +08:00
是的,它经常给出一些不存在的代码,后面搜索后是根据其他语言相似的实现“学习”出来的
|
3
oygh 2023-02-25 09:58:54 +08:00 7
ChatGPT 的优势并不在于知道得多,而是在于能“理解”人类的语言,并且能以人类能理解的方式与人类进行交流。
它的回答不可避免会存在一些事实错误,特别是当输入的信息存在故意误导时。就像你问他怎么做红烧钢丝球,它也能一本正经地告诉你具体步骤。 不过就算你提出了非常正经的问题,它也有可能胡说八道,毕竟它又没吞下整个互联网,无法了解这个世界上发生的一切。 |
4
registerrr 2023-02-25 09:59:14 +08:00
您好,这是 Bing 。根据搜索结果 1 ,这篇文章的标题是“图学习:一项调查”( Graph Learning: A Survey )。它是一篇关于图数据和图机器学习的综述文章,发表在 IEEE Journals & Magazine 上。
|
5
cmdOptionKana 2023-02-25 10:02:31 +08:00
你不会要求迈克尔乔丹去踢足球世界杯
你也不会要求奥斯卡影帝去证明数学猜想 那你为什么要要求一个专门为了胡说八道而设计出来的语言模型给你准确答案? 这个 chatGPT 总的来说只是一种 demo ,一种演示,需要定制的话要另外加钱的(商业合作)。 |
6
neteroster 2023-02-25 10:03:34 +08:00
New Bing:
> 你能告诉我这篇文章的标题和它的主要工作吗: https://ieeexplore.ieee.org/document/9416834 > 根据网上的搜索结果 1 ,这篇文章的标题是图学习:一项调查( Graph Learning: A Survey ),它是一篇综述性的文章,主要介绍了图学习的基本概念、方法、应用和挑战。它的主要工作有三个方面: 它为不同领域(如社会计算、信息检索、计算机视觉、生物信息学、经济学和电子商务)的研究人员和从业者提供了一个图学习的快速参考; 它展示了图学习领域中存在的一些开放性的研究问题; 它旨在激发新的研究思路和更多的跨学科合作。 希望这个回答能帮助你理解这篇文章。😊 |
7
haimall 2023-02-25 10:04:54 +08:00 4
外国人认真研究 openai 可用于其他行业的可行性,
我就发现中国人研究怎么让他变傻子 |
8
ttgo 2023-02-25 10:09:04 +08:00
|
9
zxCoder 2023-02-25 10:16:11 +08:00 3
你可以试试问他“美国 427 事件”啊,“中国 119 事件” 等等,他也能给你侃侃而谈
|
10
Chrisplus 2023-02-25 10:33:32 +08:00
chatGPT 没有网络检索的接口,New Bing 有。
|
11
aphorism 2023-02-25 10:35:07 +08:00 via Android 1
1. 有宣传部的地方就可以完美地做到不让 chatGPT 胡说八道。
2. 你需要做的只是先找到这样一个地方。 3. 然后根据当地的法律法规和政策去做。 |
12
zzm88104 2023-02-25 10:36:55 +08:00
现阶段他没有 [不知道] 这个 feature ,只能:
- 避免问他一定不知道的事情(例如楼主这个问题,99%不会得到好答案,因为他不能接外部网络) - 尽量不问他可能不知道的事情(例如与最新的资讯相关的,因为他资料不没 update )。即使问了,就多留个心眼多方印证。 - 用英语,理论上既然他学习的资料都是英语,就用英语去使用他才能发挥最大价值。 |
13
holystrike 2023-02-25 10:38:05 +08:00
可以问问 bing ,有没有什么办法让 chatgpt 不要胡说八道
|
14
yzqtdu 2023-02-25 11:46:34 +08:00 1
不让 chatgpt 胡说八道约等于知道它知道,知道不知道,约等于接近完全的语义理解,目前来看还很难。现在在用人工反馈强迫模型对齐,但是错误回答的空间很大,更好的方式还在探索
|
15
fnmgzbv2 2023-02-25 11:58:04 +08:00 via iPhone
您好,這是 Bing 。根據我在網路上找到的資訊,這篇文章的標題是 Graph Learning: A Survey1 。這是一篇關於圖學習的綜述文章,作者是來自中國和美國的四位學者。
|
16
zictos 2023-02-25 12:13:44 +08:00
说明有时候他真的不知道,但是即便是答案有一点错误也会有点参考性,如果经常遇到回复不知道,用户也会很失望的
|
17
yangzhezjgs 2023-02-25 12:16:24 +08:00
这是生成式 AI 的必然毛病,因为他只是根据大量现存的数据进行模仿,并不是真的理解,而且深度学习本来就是黑箱,可解释性差,无法像正常软件一样调整控制
|
18
ryd994 2023-02-25 12:33:16 +08:00 via Android
其实就算说对了的那些,它也不知道不明白
它作为语言模型,任务就是一本正经地胡说八道 至于说出来的内容是什么意思,它并没有逻辑能力,无法判断 |
19
dcsuibian 2023-02-25 12:52:38 +08:00
就算你给他错误的论点,他也能给你像模像样解释出来。
这东西没有判断正误的能力的,只是在仿。 不让他胡说八道的办法只能提前找到相关的资料喂给它。 |
20
Ericcccccccc 2023-02-25 14:35:26 +08:00
你用搜索引擎的时候会不会有同样的疑问.
|
21
whileFalse 2023-02-25 15:02:18 +08:00 via iPhone
你以为他在这个问题下胡说八道
其实他在所有问题下都在胡说八道 他就是个接话生成器 不会用它是你的问题 不是他的问题 |
22
dqzcwxb 2023-02-25 15:23:07 +08:00
在聊天模型里追求准确性就相当于在虚假世界里追求真实
|
23
akira 2023-02-25 17:48:02 +08:00
chatgpt 的本质 就是胡说八道 。
判断是非正确性不在 chatgpt 的能力范围之内 |
24
LaurelHarmon 2023-02-25 18:02:26 +08:00
ACL 故事汇有请
|
25
yangchuansheng33 2023-02-25 19:24:21 +08:00
这个是 openai 需要努力的部分,跟你这个用户没啥关系,你只需要静静等待技术的变革
|
26
wtdd 2023-02-25 19:52:28 +08:00
如果有办法能让人不胡说八道,同样的办法显然就能让 chatgpt 不胡说八道,
一个思路是要利用人自私的本性,一旦让 AI 自动形成这个,后面就细思极恐了 |
27
Alfie007 2023-02-25 21:22:07 +08:00 via iPhone
它是有意识的说谎吗?……
|
28
paradoxs 2023-02-25 21:24:09 +08:00
如果 chatgpt 不胡说八道,后果就很严重了。
那就是 强 AI 了。。 到时候失业的人就更多了 |
29
dtdtxybc 2023-02-25 21:33:58 +08:00 1
hallucination 本身就是 NLG 领域这几年一直研究的问题,所以如果“有办法”,那就没必要研究了
在 chatgpt 火起来之后,这个问题显得更重要了,所以这几年里或许能“有办法” 当然从某种意义上,那些一直说“我无法回答”的对话 ai ,倒也是做到了不乱说话 /doge |
30
James369 2023-02-25 23:16:19 +08:00
这很简单,将它生成的结果重新扔回正规的搜索引擎,再验证一遍就 ok 了
|
31
yangyaofei 2023-02-25 23:55:39 +08:00
看是哪个层面的, 如果是上面多数人认为的层面的, 应该是无解的, 但是透过重新训练模型是可能的, 比如最近有一篇 https://arxiv.org/abs/2302.04761 ,让模型输出的是 API 调用, 这样再结合现在的这个 alignment gpt 应该就可以做到, 估计 bing 的搜索也是类似的原理. 就是 模型输出 action 获取外部数据, 然后根据外部数据再输出最终的数据, 这样的可靠性应该就好多了.
但是这些在当前这个环境下, 对于普通的研究者或者学校组织等等都是无意义的, 因为并没有能力进行 fine tuning, 做 NLP 的其实挺绝望的...飞龙骑脸啊! |
32
em70 2023-02-26 00:00:13 +08:00
用 chatgpt 的 NLP 能力,而不是用它的资料库,把搜索引擎的资料放 prompt 一起给它就行了
|
33
MrLonely 2023-02-26 01:06:45 +08:00
上次做完作业,尝试用 ChatGPT 验证了一下随机微分方程的答案。跟我做出来的不一样。然后去检查步骤,发现直接第一步就错了。
|
34
06_taro 2023-02-26 01:29:39 +08:00
|
35
levelworm 2023-02-26 07:03:59 +08:00 via Android
@rimutuyuan 其实这很厉害。。。
|
36
opengps 2023-02-26 09:18:17 +08:00
我感觉是样本的问题,现在互联网上公开数据太多都是被污染的,chatgpt 可能就是从公网获取数据训练,以至于在入口处口就已经有这类污染
|
37
janxin 2023-02-26 09:26:13 +08:00
因为 ChatGPT 根本就无法阻止它胡说八道
|
38
NoOneNoBody 2023-02-26 13:32:56 +08:00
“最优化”就是这样的,当已知全部为负值,你需要求一个正值解,它会给出最接近 0 的那个,而不是给出“无解”
@oygh #3 说得对,ChatGPT 出现的意义不在准确率,而是能做到语义、语境的理解,如果确实如此,我觉得是里程碑式的。只是目前我还持保留意见,毕竟判断一句话还是容易的(一问一答),如果能达到一个持久的对话而“不跑题”,或者能“理解”长文,那才算达标 之前一直跟别人说,参考翻译软件能对全文翻译做到通顺、较高准确率,那才能说 AI 进入一个新阶段;如果翻译一直没能突破语境难题,那 AI 技术仍然是初级阶段 —— 只是分类+拼凑,横向比较只是谁的学习样本更佳而已 别人徒手画一个圈,你能理解它是一个“圆”,而不是“椭圆”或其他,这个思维过程对人类来说极其简单,对机器来说就复杂了 |