V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
fengleiyidao
V2EX  ›  问与答

不是调侃,有办法不让 chatgpt 胡说八道么?

  •  
  •   fengleiyidao · 2023-02-25 09:47:19 +08:00 · 5073 次点击
    这是一个创建于 421 天前的主题,其中的信息可能已经有所发展或是发生改变。
    希望他不知道就是不知道,而不是胡说八道,给一个完全错误的回答。

    比如

    问:下面这篇文章的标题是什么? https://ieeexplore.ieee.org/document/9416834

    回答:这篇文章的标题是 "Neural Networks-Based Multi-Objective Control for a Hybrid Renewable Energy System with Energy Storage",发表在 IEEE Transactions on Industrial Electronics 期刊上。

    然而, 事实上并不是他说的这个标题, 而且他说的这篇文章并不存在。
    38 条回复    2023-02-26 13:32:56 +08:00
    ttgo
        1
    ttgo  
       2023-02-25 09:54:16 +08:00 via iPhone
    有没有人试一下 new bing 怎么回答同样的问题?
    rimutuyuan
        2
    rimutuyuan  
       2023-02-25 09:56:01 +08:00
    是的,它经常给出一些不存在的代码,后面搜索后是根据其他语言相似的实现“学习”出来的
    oygh
        3
    oygh  
       2023-02-25 09:58:54 +08:00   ❤️ 7
    ChatGPT 的优势并不在于知道得多,而是在于能“理解”人类的语言,并且能以人类能理解的方式与人类进行交流。
    它的回答不可避免会存在一些事实错误,特别是当输入的信息存在故意误导时。就像你问他怎么做红烧钢丝球,它也能一本正经地告诉你具体步骤。
    不过就算你提出了非常正经的问题,它也有可能胡说八道,毕竟它又没吞下整个互联网,无法了解这个世界上发生的一切。
    registerrr
        4
    registerrr  
       2023-02-25 09:59:14 +08:00
    您好,这是 Bing 。根据搜索结果 1 ,这篇文章的标题是“图学习:一项调查”( Graph Learning: A Survey )。它是一篇关于图数据和图机器学习的综述文章,发表在 IEEE Journals & Magazine 上。
    cmdOptionKana
        5
    cmdOptionKana  
       2023-02-25 10:02:31 +08:00
    你不会要求迈克尔乔丹去踢足球世界杯
    你也不会要求奥斯卡影帝去证明数学猜想

    那你为什么要要求一个专门为了胡说八道而设计出来的语言模型给你准确答案?

    这个 chatGPT 总的来说只是一种 demo ,一种演示,需要定制的话要另外加钱的(商业合作)。
    neteroster
        6
    neteroster  
       2023-02-25 10:03:34 +08:00
    New Bing:

    > 你能告诉我这篇文章的标题和它的主要工作吗: https://ieeexplore.ieee.org/document/9416834

    > 根据网上的搜索结果 1 ,这篇文章的标题是图学习:一项调查( Graph Learning: A Survey ),它是一篇综述性的文章,主要介绍了图学习的基本概念、方法、应用和挑战。它的主要工作有三个方面:

    它为不同领域(如社会计算、信息检索、计算机视觉、生物信息学、经济学和电子商务)的研究人员和从业者提供了一个图学习的快速参考;
    它展示了图学习领域中存在的一些开放性的研究问题;
    它旨在激发新的研究思路和更多的跨学科合作。
    希望这个回答能帮助你理解这篇文章。😊
    haimall
        7
    haimall  
       2023-02-25 10:04:54 +08:00   ❤️ 4
    外国人认真研究 openai 可用于其他行业的可行性,
    我就发现中国人研究怎么让他变傻子
    ttgo
        8
    ttgo  
       2023-02-25 10:09:04 +08:00
    @registerrr @neteroster
    bing 靠谱啊!
    zxCoder
        9
    zxCoder  
       2023-02-25 10:16:11 +08:00   ❤️ 3
    你可以试试问他“美国 427 事件”啊,“中国 119 事件” 等等,他也能给你侃侃而谈
    Chrisplus
        10
    Chrisplus  
       2023-02-25 10:33:32 +08:00
    chatGPT 没有网络检索的接口,New Bing 有。
    aphorism
        11
    aphorism  
       2023-02-25 10:35:07 +08:00 via Android   ❤️ 1
    1. 有宣传部的地方就可以完美地做到不让 chatGPT 胡说八道。
    2. 你需要做的只是先找到这样一个地方。
    3. 然后根据当地的法律法规和政策去做。
    zzm88104
        12
    zzm88104  
       2023-02-25 10:36:55 +08:00
    现阶段他没有 [不知道] 这个 feature ,只能:

    - 避免问他一定不知道的事情(例如楼主这个问题,99%不会得到好答案,因为他不能接外部网络)

    - 尽量不问他可能不知道的事情(例如与最新的资讯相关的,因为他资料不没 update )。即使问了,就多留个心眼多方印证。

    - 用英语,理论上既然他学习的资料都是英语,就用英语去使用他才能发挥最大价值。
    holystrike
        13
    holystrike  
       2023-02-25 10:38:05 +08:00
    可以问问 bing ,有没有什么办法让 chatgpt 不要胡说八道
    yzqtdu
        14
    yzqtdu  
       2023-02-25 11:46:34 +08:00   ❤️ 1
    不让 chatgpt 胡说八道约等于知道它知道,知道不知道,约等于接近完全的语义理解,目前来看还很难。现在在用人工反馈强迫模型对齐,但是错误回答的空间很大,更好的方式还在探索
    fnmgzbv2
        15
    fnmgzbv2  
       2023-02-25 11:58:04 +08:00 via iPhone
    您好,這是 Bing 。根據我在網路上找到的資訊,這篇文章的標題是 Graph Learning: A Survey1 。這是一篇關於圖學習的綜述文章,作者是來自中國和美國的四位學者。
    zictos
        16
    zictos  
       2023-02-25 12:13:44 +08:00
    说明有时候他真的不知道,但是即便是答案有一点错误也会有点参考性,如果经常遇到回复不知道,用户也会很失望的
    yangzhezjgs
        17
    yangzhezjgs  
       2023-02-25 12:16:24 +08:00
    这是生成式 AI 的必然毛病,因为他只是根据大量现存的数据进行模仿,并不是真的理解,而且深度学习本来就是黑箱,可解释性差,无法像正常软件一样调整控制
    ryd994
        18
    ryd994  
       2023-02-25 12:33:16 +08:00 via Android
    其实就算说对了的那些,它也不知道不明白
    它作为语言模型,任务就是一本正经地胡说八道
    至于说出来的内容是什么意思,它并没有逻辑能力,无法判断
    dcsuibian
        19
    dcsuibian  
       2023-02-25 12:52:38 +08:00
    就算你给他错误的论点,他也能给你像模像样解释出来。
    这东西没有判断正误的能力的,只是在仿。
    不让他胡说八道的办法只能提前找到相关的资料喂给它。
    Ericcccccccc
        20
    Ericcccccccc  
       2023-02-25 14:35:26 +08:00
    你用搜索引擎的时候会不会有同样的疑问.
    whileFalse
        21
    whileFalse  
       2023-02-25 15:02:18 +08:00 via iPhone
    你以为他在这个问题下胡说八道
    其实他在所有问题下都在胡说八道

    他就是个接话生成器
    不会用它是你的问题 不是他的问题
    dqzcwxb
        22
    dqzcwxb  
       2023-02-25 15:23:07 +08:00
    在聊天模型里追求准确性就相当于在虚假世界里追求真实
    akira
        23
    akira  
       2023-02-25 17:48:02 +08:00
    chatgpt 的本质 就是胡说八道 。
    判断是非正确性不在 chatgpt 的能力范围之内
    LaurelHarmon
        24
    LaurelHarmon  
       2023-02-25 18:02:26 +08:00
    ACL 故事汇有请
    yangchuansheng33
        25
    yangchuansheng33  
       2023-02-25 19:24:21 +08:00
    这个是 openai 需要努力的部分,跟你这个用户没啥关系,你只需要静静等待技术的变革
    wtdd
        26
    wtdd  
       2023-02-25 19:52:28 +08:00
    如果有办法能让人不胡说八道,同样的办法显然就能让 chatgpt 不胡说八道,
    一个思路是要利用人自私的本性,一旦让 AI 自动形成这个,后面就细思极恐了
    Alfie007
        27
    Alfie007  
       2023-02-25 21:22:07 +08:00 via iPhone
    它是有意识的说谎吗?……
    paradoxs
        28
    paradoxs  
       2023-02-25 21:24:09 +08:00
    如果 chatgpt 不胡说八道,后果就很严重了。

    那就是 强 AI 了。。

    到时候失业的人就更多了
    dtdtxybc
        29
    dtdtxybc  
       2023-02-25 21:33:58 +08:00   ❤️ 1
    hallucination 本身就是 NLG 领域这几年一直研究的问题,所以如果“有办法”,那就没必要研究了

    在 chatgpt 火起来之后,这个问题显得更重要了,所以这几年里或许能“有办法”

    当然从某种意义上,那些一直说“我无法回答”的对话 ai ,倒也是做到了不乱说话 /doge
    James369
        30
    James369  
       2023-02-25 23:16:19 +08:00
    这很简单,将它生成的结果重新扔回正规的搜索引擎,再验证一遍就 ok 了
    yangyaofei
        31
    yangyaofei  
       2023-02-25 23:55:39 +08:00
    看是哪个层面的, 如果是上面多数人认为的层面的, 应该是无解的, 但是透过重新训练模型是可能的, 比如最近有一篇 https://arxiv.org/abs/2302.04761 ,让模型输出的是 API 调用, 这样再结合现在的这个 alignment gpt 应该就可以做到, 估计 bing 的搜索也是类似的原理. 就是 模型输出 action 获取外部数据, 然后根据外部数据再输出最终的数据, 这样的可靠性应该就好多了.

    但是这些在当前这个环境下, 对于普通的研究者或者学校组织等等都是无意义的, 因为并没有能力进行 fine tuning, 做 NLP 的其实挺绝望的...飞龙骑脸啊!
    em70
        32
    em70  
       2023-02-26 00:00:13 +08:00
    用 chatgpt 的 NLP 能力,而不是用它的资料库,把搜索引擎的资料放 prompt 一起给它就行了
    MrLonely
        33
    MrLonely  
       2023-02-26 01:06:45 +08:00
    上次做完作业,尝试用 ChatGPT 验证了一下随机微分方程的答案。跟我做出来的不一样。然后去检查步骤,发现直接第一步就错了。
    06_taro
        34
    06_taro  
       2023-02-26 01:29:39 +08:00
    levelworm
        35
    levelworm  
       2023-02-26 07:03:59 +08:00 via Android
    @rimutuyuan 其实这很厉害。。。
    opengps
        36
    opengps  
       2023-02-26 09:18:17 +08:00
    我感觉是样本的问题,现在互联网上公开数据太多都是被污染的,chatgpt 可能就是从公网获取数据训练,以至于在入口处口就已经有这类污染
    janxin
        37
    janxin  
       2023-02-26 09:26:13 +08:00
    因为 ChatGPT 根本就无法阻止它胡说八道
    NoOneNoBody
        38
    NoOneNoBody  
       2023-02-26 13:32:56 +08:00
    “最优化”就是这样的,当已知全部为负值,你需要求一个正值解,它会给出最接近 0 的那个,而不是给出“无解”

    @oygh #3 说得对,ChatGPT 出现的意义不在准确率,而是能做到语义、语境的理解,如果确实如此,我觉得是里程碑式的。只是目前我还持保留意见,毕竟判断一句话还是容易的(一问一答),如果能达到一个持久的对话而“不跑题”,或者能“理解”长文,那才算达标

    之前一直跟别人说,参考翻译软件能对全文翻译做到通顺、较高准确率,那才能说 AI 进入一个新阶段;如果翻译一直没能突破语境难题,那 AI 技术仍然是初级阶段 —— 只是分类+拼凑,横向比较只是谁的学习样本更佳而已

    别人徒手画一个圈,你能理解它是一个“圆”,而不是“椭圆”或其他,这个思维过程对人类来说极其简单,对机器来说就复杂了
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2620 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 35ms · UTC 05:10 · PVG 13:10 · LAX 22:10 · JFK 01:10
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.