苹果研究人员质疑AI的推理能力:简单数学问题稍作改动就会答错

发布时间:2025-04-24 来源:互联网

近年来,人工智能(AI)在各个领域取得了显著的进展,其中大型语言模型(LLM)能够生成人类水平的文本,甚至在某些任务上超越人类的表现。然而,研究人员对 LLM 的推理能力提出了质疑,他们发现这些模型在解决简单的数学问题时,只要稍加改动,就会犯错误,这表明它们可能并不具备真正的逻辑推理能力。

苹果研究人员质疑 AI 的推理能力:简单数学问题稍作改动就会答错

图源 Pexels

周四,苹果公司的一组研究人员发布了一篇名为《理解大型语言模型中数学推理的局限性》的论文,揭示 LLM 在解决数学问题时容易受到干扰。IT之家注意到,研究人员通过对数学问题的微小改动,例如添加无关的信息,来测试 LLM 的推理能力。结果发现,这些模型在面对这样的变化时,其表现急剧下降。

例如,当研究人员给出一个简单的数学问题:“奥利弗星期五摘了 44 个奇异果,星期六摘了 58 个奇异果。星期日,他摘的奇异果是星期五的两倍。奥利弗一共摘了多少个奇异果?”时,LLM 能够正确地计算出答案。然而,当研究人员添加一个无关的细节,“星期日,他摘的奇异果是星期五的两倍,其中 5 个比平均小。”时,LLM 的回答却出现了错误。例如,GPT-o1-mini 的回答是:“… 星期日,其中 5 个奇异果比平均小。我们需要从星期日的总数中减去它们:88(星期日的奇异果) – 5(较小的奇异果) = 83 个奇异果。”

上面只是一个简单的例子,研究人员修改了数百个问题,几乎所有问题都导致模型的回答成功率大幅下降。

研究人员认为,这种现象表明 LLM 并没有真正理解数学问题,而是仅仅根据训练数据中的模式进行预测。但一旦需要真正的“推理”,例如是否计算小的奇异果,它们就会产生奇怪的、不合常理的结果。

这一发现对 AI 的发展具有重要的启示。虽然 LLM 在许多领域表现出色,但其推理能力仍然存在局限性。未来,研究人员需要进一步探索如何提高 LLM 的推理能力,使其能够更好地理解和解决复杂的问题。

本周热门教程

1
中国科技馆AI主题活动的举办,增强人工智能科学素养提升

中国科技馆AI主题活动的举办,增强人工智能科学素养提升

2025/04/16

2
中国银河证券:建议关注AI+应用相关以及半导体设备零部件领域龙头公司

中国银河证券:建议关注AI+应用相关以及半导体设备零部件领域龙头公司

2025/03/19

3
AI遇上化学:“不可能”变为“可能”

AI遇上化学:“不可能”变为“可能”

2025/01/07

4
AI智能体创作模式来了,版权忧患也来了

AI智能体创作模式来了,版权忧患也来了

2025/02/18

5
当AI赋予机器人“灵魂”:2024年最值得关注的AI机器人技术盘点

当AI赋予机器人“灵魂”:2024年最值得关注的AI机器人技术盘点

2025/02/11

6
中国科学院院士陈润生:人工智能大模型仍在发展初期生物医药行业的应用刚刚开始

中国科学院院士陈润生:人工智能大模型仍在发展初期生物医药行业的应用刚刚开始

2025/02/24

7
中经评论:勇立潮头拥抱人工智能

中经评论:勇立潮头拥抱人工智能

2025/02/25

8
2024地球环境系统科学观测与人工智能模型发展研讨会在武义召开

2024地球环境系统科学观测与人工智能模型发展研讨会在武义召开

2025/01/10

9
AI应用范围持续扩大商业化空间进一步打开

AI应用范围持续扩大商业化空间进一步打开

2025/02/12

10
推动人工智能“从数字走向实体”

推动人工智能“从数字走向实体”

2025/02/13