不要惊讶通过人工智能聊天机器人创建假的引用

不要惊讶通过人工智能聊天机器人创建假的引用

这篇文章最初发表在市场技术

东北大学的伯大尼Edmunds说这些系雷竞技app最新版raybet雷竞技统生成文本和语言构建的,不是准确的,但是可能他们似乎引用。

现在很多人都熟悉chatbot“幻觉”——人工智能语言模型的趋势做出东西。

最近我们已经看到这些工具的报告得到创造性和参考书目。

例如,上周华盛顿邮报报道在法学教授的名字的情况下出现在法律学者指控性骚扰的列表。ChatGPT生成的列表是作为一个研究项目的一部分,和聊天机器人作为其源头2018年3月《华盛顿邮报》的一篇文章引用不存在的。

人们开始称这些幻想引用“hallucitations。”

最近市场的梅根·麦卡蒂带有与伯大尼Edmunds,东北大学教学教授,这是为什么。raybet雷竞技雷竞技app最新版埃德蒙兹说,这样的结果是可以预料到的。

下面是一个编辑的记录他们的谈话。

埃德蒙兹伯大尼:嗯,我想要记住的是,他们创造了生成新的文本。这就是我们的目标。这不是回答问题,并非是真实正确的。它是复制语言。他们这样做非常好。但作为人类,我们实际上不只是说话,我们查找信息,我们召回信息,我们推断出从我们的经验。所以这是一个不同的概念,对吧?能够去回答一个问题。我们使用搜索引擎很长一段时间来回答问题,他们做的很好。但这实际上是一个不同的任务比说,“我想让你创建一个段落。” And so I think where the difficulty is coming in, is that people are looking to something that is generating language, and that is its main goal, and expecting that language to also be factually correct when that is not the task at hand.

梅根·麦卡蒂带有:正如我所提到的,你知道,这些工具不仅是在编故事[和]事实错误。他们也指向完全虚构的来源信息是从哪里来的。我的意思是,这似乎尤其成问题。

埃德蒙兹:但有些可预测的,对吧?如果我们告诉它从头开始创建的东西,它会从头开始创建的东西。我想的事情变得棘手的是可信的。在与文本的互动中,我们假设所有的人类行为的机器只是生成文本。所以我们将所有这些思维过程和意义背后出来的时候真的是什么都是,是文本。

麦卡蒂带有:所以在你看来,鉴于你知道大型语言模型,这是一个可以解决的问题吗?

埃德蒙兹:我认为,如果你想要的话。你知道,看大公司,购买这些软件的大型组织和寻求纳入现有的产品,他们将不得不花时间说,“好吧,这是值得还是我们要放一个免责声明吗?”因为我认为它需要大量的努力。的系统,他们意识到,好吧,如果太同性恋或种族主义或有害的是说,系统不会被采纳。他们外包很多工作要确保它不是那么可恶的最初。所以我认为这些模型还可以更改,但必须在组织的目标。

麦卡蒂带有:这些幻觉和hallucitations你最担心什么?

埃德蒙兹:人们会相信它。担心我是人们倾向于相信机器在其他个体。他们怀疑其他个体,但如果一台机器做,我们倾向于认为,“哦,一定有原因的。一定是真实正确的。它必须知道一些我不喜欢。“有很多的风险,人们相信这些机器在说什么,然后采取行动或改变他们的思想基于他们阅读。另一个是该机构从个人依靠机器在我们自己和我们的尊严和社会如何处理个人的理解,如何检查,如何做某些事情,我们教长大。我们认为,你知道,如果机器回来,显然,某人的审查。我认为我们需要确保个人正在使用的系统知道如何准确,有偏见的,如何使用这些警告。