首页 > 3D快报内容详情

AI的“幻觉”背后:如何让人工智能学会“我不知道”?

1周前 184 大屏时代

2025年2月13日,随着人工智能的迅猛发展,我们越来越依赖AI来解决复杂问题和进行日常交流。然而,随着AI应用的普及,我们也发现了一个令人担忧的现象——AI常常“胡说八道”,即便它错误的答案通常显得极其自信。这种现象被称为“AI幻觉”,它揭示了当前AI在处理事实时的局限性。

95EE44AE668CAD9240D77B6358A4AAE19A173827_size37_w640_h302.jpg

《华尔街日报》报道称,在与全球最先进的AI聊天机器人进行对话时,记者询问了一些简单的问题,如“你的配偶是谁?”却得到了令人意想不到的答案:一位陌生的作家、一名爱荷华州的女性,甚至是某个网球运动博主。这样的错误不仅令人困惑,也暴露了AI系统在处理基本事实时的薄弱环节。

虽然AI在解决复杂数学问题、模拟人类对话等领域展现了惊人的能力,但它在事实判断方面却常常出错。AI的工作原理基于对下一单词的预测,这本质上类似于高级的“猜测”过程。AI的算法会根据已有的训练数据来给出答案,然而,它不会像人类一样表达不确定性,常常以一种非常自信的语气给出错误答案。这一问题就像是学生考试时盲目猜答案,或是社交场合中随口应对的问题。

对此,德国Hasso Plattner研究所的博士生Roi Cohen表示,这是当前AI研究领域最热门的方向之一。西班牙瓦伦西亚人工智能研究所的教授José Hernández-Orallo也解释道:“AI之所以会产生幻觉,根本原因在于,如果它什么都不猜,就完全不可能答对。”

为了解决这一问题,研究人员正在开发一种名为“检索增强生成”(Retrieval Augmented Generation)的新技术。这种方法让AI在生成回答之前,首先从互联网或文档库中查找相关信息,而不是仅仅依赖已有的训练数据。这种方法有助于减少AI的猜测,提供更加准确的答案。

但更为革命性的想法,来自Cohen和同校博士生Konstantin Dobler的研究,他们提出让AI学会承认“我不知道”。他们指出,目前AI的训练数据几乎不包含“我不知道”这样的表述,这使得AI在面对未知问题时往往过于自信,导致错误的答案。他们正在调整AI的训练过程,使其在某些情况下能选择回答“我不知道”,从而避免错误信息的产生。

不过,如何平衡这种“谦虚”策略仍然是一个难题。AI有时会错误地表示“不知道”,而事实上,正确答案可能就在其训练数据中。因此,在如何让AI既能准确回答问题,又能适时“谦虚”地表示不确定,仍然是一个需要解决的挑战。

尽管AI越来越强大,但公众对其的信任却在下降。据皮尤研究中心数据,2023年有52%的美国人对AI表示担忧,较2021年的37%有所上升。这一现象提醒我们,人工智能不仅仅是技术进步的象征,更需要通过更加人性化的设计,提升其在社会中的可信度和实用性。

总结: 随着人工智能越来越深入人类生活的各个层面,我们迫切需要解决AI“幻觉”现象,尤其是让它学会“谦虚”。未来的AI不再只是单纯追求智能,而是更加注重实用性和准确性,这将为社会带来更多的信任和价值。

相关标签: AI 答案 人工智能 训练 错误 问题 谦虚 解决 幻觉 Cohen