使用 5 种方法来减少 ChatGPT 生成的虚假信息
如果你经常使用 ChatGPT,你会发现 ChatGPT 有些生成内容会一本正经的胡说八
道。
举个例子,我让 ChatGPT 写一篇文章,来说明如何通过资产负债表中的在建工程
这个财务指标来判断企业的成长潜力。其中要用一个 A 股上市公司的具体案例来
做解释。 {width="5.764583333333333in"
height="3.3375in"}
ChatGPT 写了文章,看起来不错,也举了 A 股上市公司光明乳业(以前叫光明食
品)的例子。但是,对 ChatGPT 有些了解的人一眼就会看出问题。因为 ChatGPT
的训练数据是截止到 2021 年 9 月的,而文章中说"根据该公司 2022 年年报",那
这些数据肯定是有误的。打开光明乳业的 2022 年年报,在建公司是 10.28 亿,
和 ChatGPT 文中的 15 亿差别很大。
{width="5.763888888888889in"
height="2.6368055555555556in"}
对于这类非虚构文章来说,这是一个重大的错误。
ChatGPT 是一个内容生成应用,而非搜索引擎。其生成的内容并不总是根据事实,
而是经常无中生有的捏造一些事实,生成虚假信息。这被称为"AI 幻觉"。作为用
户,我们永远不确定它输出的任何特定细节是否正确。
AI 幻觉是指 AI 模型在给定输入数据的情况下产生看似合理的错误输出的情况。
当 AI 模型对其输出过于自信时,即使输出是完全错误的,也会出现这些幻觉。
例如,在训练人工智能应用程序时,开发人员使用数据,包括图像、文本等,如
果数据发生更改或失真,应用程序会以不同的方式解释输入,从而给出错误的输
出。
根据 OpenAI 的首席科学家 Ilya
Sutskever,AI 幻觉这个问题以后是可能完全被解决的。
但是,目前阶段该如何减少 AI 幻觉呢?
●时刻检查 ChatGPT 的生成内容
我们一定得时刻牢记:ChatGPT 的生成内容并不总是可靠的,所以一定要进行人
工核查。即当 ChatGPT 或其他 AI 模型给我们一个答案时,总是问自己这个答案
来自哪里,以及答案一来的数据本身是否值得信赖。