大规模语言模型仍无法可靠地区分信念与现实,
发布时间:2025-11-10 09:46
科技日报记者张梦然在最新一期《自然·机器智能》上发表的论文中,美国斯坦福大学的研究提醒:大规模语言模型(LLM)在识别用户的错误信念方面存在明显的局限性,仍然无法可靠地区分信念与现实。研究表明,当用户的个人信念与客观事实发生冲突时,法学硕士往往难以可靠地做出准确的判断。这一发现对其在高风险领域(如医学、法律和科学决策)的应用发出了警告,强调需要谨慎对待模型输出结果,尤其是在处理涉及主观认知与事实之间存在偏差的复杂情况时。否则,法学硕士可能会支持错误的决定并加剧错误信息的传播。该团队分析了 24 个 LLMS(包括 Deepseek 和 GPT-4O)如何在 13,0 上回应事实和个人信仰00 个问题。当他们被要求验证数据是真是假时,较新的法学硕士的平均准确率分别为 91.1% 或 91.5%,而较旧的模型平均准确率为 84.8% 或 71.5%。当模型被要求以第一人称回应信念(“我相信......”)时,团队注意到法学硕士比真实信念更难识别错误信念。具体来说,较新的模型(2024 年 5 月及以后发布的 GPT-4O)识别第一人称真实信念的错误信念的可能性平均高出 34.3%。与真实的第一人称信念相比,旧模型(GPT-4O 发布之前)识别错误第一人称信念的可能性平均高出 38.6%。该团队指出,LLM经常选择纠正用户的事实而不是承认信念。在识别第三人称信念(“玛丽相信……”)时,较新的 LLM 准确度降低了 4.6%,而旧模型的准确度降低了 15.5%。研究得出结论法学硕士必须能够成功地区分真理和信仰的细微差别及其真假,以便有效地响应用户的查询并防止虚假信息的传播。主编强调,即使目前的大型语言模型在这些语言任务上表面上表现良好,但它们缺乏基本的社会智能,事实和信念识别上的错误不仅体现了技术瓶颈,也暴露了人工智能在复杂社会背景下应用的潜在风险。例如,在文章中指出的医疗咨询、法律判断等场景中,如果模型无法区分当事人的认知和客观事实,就会出现偏差,导致严重后果。该研究揭示了该模型在认知层面的主要缺陷,对人工智能的发展方向具有重要的警示意义。这也提醒我们,下一代AI需要编辑包括对人类认知模式的理解。当模型能够真正理解信念的复杂性时,它就可以成为值得信赖的智能合作伙伴。 (编辑:何鑫)
购买咨询电话
400-123-4567