myfreax

OpenAI 希望阻止 AI 说谎与产生幻觉

尽管 ChatGPT、微软的 Bing 和 Google 的 Bard 等 AI 机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的 AI 幻觉

2 min read
By myfreax
OpenAI 希望阻止 AI 说谎与产生幻觉
OpenAI 希望阻止 AI 说谎与产生幻觉

尽管 ChatGPT、微软的 Bing 和 Google 的 Bard 等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的 AI 幻觉(hallucinations),这让 AI 是否会对人类造成重大危机的讨论就被推向高峰。

OpenAI 希望阻止 AI 产生幻觉

近日ChatGPT 开发商 OpenAI 就对此发表论文,阐述已找到对策,希望解决 AI 在生成内容时出现的问题,包括幻觉和撒谎,从而减少模型逻辑错误,避免编造谎言。

根据这篇文章,OpenAI 意识到 AI 系统可能会生成虚假的讯息或误导性的内容,这可能对使用者产生负面影响。

为了解决这个问题,他们提出了一种新的训练方法,称为抑制式学习 inhibition learning ,旨在教导 AI 辨别和避免产生虚假或误导性的内容。

另外,据CNBC 报导,OpenAI 的研究人员表示,未来将会在训练 AI 模型期间加以监督,当 AI 在每个步骤推理正确时,便会给予奖励,而不是仅等到推理出正确的最终结论时才给予奖励。研究人员解释:

这方法为过程监督,不再只是进行结果监督,相信这能更有效地鼓励模型,可按照类似人类的思考方式进行推理,训练出更好的 AI。

据了解,AI 幻觉指的是,AI 自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。多数研究人员认为,幻觉问题是运行聊天机器人的大语言模型 Large Language Models 本身设计的问题。

而目前研究人员纷纷提出建议,盼能不断改善相关问题,例如麻省理工学院 MIT 最新报告就提议,让多个机器人相互辩论,来取得更符合事实的答案。

此外,一封包括 OpenAI 董事长 Sam Altman 在内的 350 位 AI 领域的权威专家,也在本周共同签署一封公开信,呼吁人们重视正在开发的 AI 技术,可能会对人类生存构成重大威胁。