聊天机器人胡言乱语?牛津研究人员利用语义熵来识破幻觉
6月24日消息,近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“幻觉”问题,即提供错误的答案,有时甚至是危险的信息。
图源Pexels
造成“幻觉”的原因之一是训练数据不准确、泛化能力不足以及数据采集过程中的副作用。不过,牛津大学的研究人员另辟蹊径,在最新出版的《自然》杂志上详细介绍了一种他们新开发的方法,用于检测大型语言模型(LLMs)的“捏造”(即任意生成的不正确信息)问题。
LLM通过在训练数据中寻找特定模式来生成答案。但这种方法并非总是奏效,就像人类能从云朵形状中看到动物一样,AI机器人也可能找到并不存在的模式。然而,人类知道云朵只是形状而已,天上并没有漂浮的巨型大象。LLM则可能将此视为真实的,从而“捏造”出并不存在的新科技和其他虚假信息。

牛津大学的研究人员利用语义熵的概念,通过概率来判断LLM是否出现“幻觉”。语义熵指的是同一个词语拥有多种含义的情况,例如,“desert”可以指沙漠,也可以表示抛弃某人。当LLM使用这类词语时,可能会对表达的含义感到困惑。通过检测语义熵,研究人员旨在判断LLM的输出内容是否存在“幻觉”的可能。
利用语义熵的优势在于无需额外的监督或强化学习,即可快速检测LLM的“幻觉”问题。由于该方法不依赖于特定任务的数据,因此即使LLM面临从未遇到过的新任务,也能加以应用。这将大大提升用户对于LLM的信任感,即使是AI首次遇到某个问题或指令。
研究团队表示:“我们的方法可以帮助用户理解何时需要对LLM的输出保持谨慎,并为原本因不可靠性而受限的LLM应用开辟了新天地。”
如果语义熵被证明是一种有效的“幻觉”检测手段,那么我们可以利用这类工具对人工智能的输出进行双重校验,使其成为更加可靠的伙伴。不过IT之家需要提醒的是,就像人类并非无懈可击一样,即使配备了最先进的错误检测工具,LLM也仍然可能出错。因此,聊天机器人胡言乱语?牛津研究人员利用语义熵来识破幻觉始终对ChatGPT等聊天机器人提供的答案进行仔细核查仍然是明智之举。
【来源:IT之家】
标签: 聊天机器人胡言乱语?牛津研究人员利用语义熵来识破幻觉
相关文章
-
畅游世界,一键掌握 旅游网站管理系统的奇妙之旅详细阅读
亲爱的旅行爱好者们,你是否曾梦想过拥有一个神奇的遥控器,只需轻轻一按,就能带你穿梭于世界各地的美景之中?虽然现实中我们还没有这样的科技,但我们有一样东...
2025-07-14 1
-
计算机组成原理,构建数字世界的基石详细阅读
亲爱的读者,你是否曾经好奇过,当我们在键盘上敲击每一个字母,或者点击屏幕上的每一个图标时,计算机是如何理解和响应这些指令的呢?这一切的奥秘都隐藏在计算...
2025-07-14 3
-
轻松获取VC60中文版,下载指南与使用技巧详细阅读
亲爱的读者,您好!我们将一起探索如何轻松下载并使用Visual C++ 6.0(简称VC60)的中文版,对于那些对编程充满热情,尤其是对C++语言感兴...
2025-07-14 2
-
远程桌面服务,连接、协作与效率的新纪元详细阅读
在数字化时代,远程工作已成为新常态,而远程桌面服务则是实现这一模式的关键技术之一,本文将深入探讨远程桌面服务的概念、优势、应用场景以及如何有效利用这一...
2025-07-13 4
-
轻装上阵,Zepto库的下载与应用,让Web开发更高效详细阅读
在数字化时代,我们每天都在与各种网站和应用打交道,它们或简洁、或复杂,但都离不开一个共同的基石——JavaScript库,我们要聊的是这样一个小巧而强...
2025-07-13 6
-
游戏加速原理,如何让游戏跑得更快、更顺畅详细阅读
想象一下,你正在玩一款你最喜欢的游戏,突然间,画面卡顿、延迟飙升,你的游戏体验就像是在泥泞中艰难前行,这不仅仅是令人沮丧,更是让人想要放弃游戏,如果你...
2025-07-13 6
-
深入了解安卓来电归属地,技术、应用与隐私保护详细阅读
在智能手机普及的今天,来电归属地功能已成为我们日常生活中不可或缺的一部分,它不仅帮助我们识别陌生来电,还能有效防止诈骗电话的侵扰,本文将深入探讨安卓系...
2025-07-13 4
-
深入解析,黑盒测试的奥秘与实践指南详细阅读
在软件开发的世界里,测试是一个不可或缺的环节,它确保了软件产品的质量和可靠性,而在众多测试方法中,黑盒测试以其独特的视角和方法论,成为了软件测试中的一...
2025-07-13 6