大模型没有幻觉,它只是喜欢胡说八道

大模型如 OpenAI 的 Chatgpt 彻底改变了 AI 与人类互动的方式,它能生成类似人类写作的流畅文本。尽管其能力令人影响深刻,但大模型也以其不准确性著称,它犯下的错误被称为 AI 幻觉。根据发表在《Ethics and Information Technology》上的一篇论文《ChatGPT is bullshit》,格拉斯哥大学 Michael Townsen Hicks 等人认为,这种不准确性应该被称为胡说八道。大模型是旨在生成类似人类文本的复杂程序,其实现方法是通过分析大量语料使用统计技术按顺序预测下一个特定单词的可能性。它们能对提示生成连贯且上下文恰当的响应。人类大脑有着丰富的目标和行为,大模型与之不同,它只有单一的目标,即生成与人类语言极为相似的文本。这也意味着它们的主要功能是复制人类语言和写作的模式和结构,不是理解或传递事实信息。AI 幻觉这一形容词暗示大模型有理解和传达真实的意图,但实际上它并没有。AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。

© 2024, 免責聲明:* 文章不代表本網立場,如有侵權,請盡快聯繫我們 info@uscommercenews.com * 讀者評論僅代表其個人意見,不代表本網立場。評論不可涉及非法、粗俗、猥褻、歧視,或令人反感的內容,本網有權刪除相關內容。.