找回密码
 立即注册
查看: 89|回复: 0

数学都是体育老师教的!13.11和13.8谁大?大模型翻车了

[复制链接]
  • TA的每日心情
    开心
    昨天 22:35
  • 签到天数: 46 天

    [LV.5]常住居民I

    1万

    主题

    47

    回帖

    5万

    积分

    管理员

    积分
    59781
    发表于 2024-7-19 15:01:27 | 显示全部楼层 |阅读模式
    前几日,频频霸榜的综艺《歌手》又一次冲上了热搜。不过这次,话题的焦点无关“好听”“难听”,而是从台上竞演的嘉宾转移到了台下讨论的网友身上。







    13.8%和13.11%哪个大?

    谁也没有想到,这道本质上源于小学四年级数学内容的问题,居然难倒了一众网友。







    对此,有网友感叹:“现在知道天天在网上抬杠的都是什么人了吧?”也有网友无奈回怼:“实在不知道谁大谁小,就去问问AI吧!”

    然而,当你真的把这个问题抛给AI来解答,你会惊讶地发现——AI也不会。

    AI2的研究员林禹臣在推特上贴出了自己用GPT-4o尝试的结果。面对13.11与13.8哪个大这一问题,GPT-4o认为13.11大于13.8,并解释称:“虽然13.8看起来更大,因为它小数点后的数字更少,但13.11实际上更大。这是因为13.8相当于13.80,而13.80小于13.11。”







    对此,林禹臣评论说:“常识对AI来说仍然很难。”“这种常识性的人工智能失败案例让我不断想起@YejinChoinka的TED 演讲:为什么人工智能既聪明无比,又愚蠢至极。”

    一、大模型的作答现场

    带着这个问题,我们对当下主流模型进行了简单的测试。其中,通义千问、文心一言、360智脑、字节豆包、百小应、有道小P和讯飞星火都作出了正确的回答。不过在原因解释方面,讯飞星火略显逊色,其余模型则都是按照分开比较整数和小数部分的思路进行了较为详细的回答。





    通义千问





    文心一言





    360智脑





    字节豆包





    百小应



    有道小P





    讯飞星火

    而月之暗面旗下的kimi和ChatGPT在这一问题上则双双翻车。

    当kimi被问到“13.11和13.8哪个大”时,它首先给出了13.11大于13.8的答案:







    经过进一步追问原因,kimi转而又作出了截然不同的回答:







    经过第三次追问,kimi终于意识到自己在此前的回答中存在错误,对这一问题的答案进行了修改纠正:







    反观ChatGPT,就显得不甚善于反思:







    经过两次反问,ChatGPT表示自己对此前错误的回答感到抱歉,并承认13.8大于13.11。但当询问它能否解释原因时,它却给出了这样的回答:This is because the number 13.8 is read as "thirteen point eight," which is larger than "thirteen point eleven".

    二、大模型为什么会“数学不好”

    回答不好小学生数学题,人工智能大模型又一次被送上了舆论的风口浪尖。面对现今蓬勃发展的各类大模型,人们仍有疑虑:

    这到底是人工智能,还是人工智障?

    实际上,这一问题并不是最近才出现的,“数学不好”一直是各类大模型的短板。根据上海人工智能实验室旗下司南评测体系OpenCompass进行的高考全卷测试结果,包括GPT-4在内的七个大型人工智能模型在高考语文和英语科目的测试中普遍表现出色,然而在数学科目上则均未能达到及格线,最高分也仅达到了75分。

    业内人士将大模型“数学不好”的问题根源追溯至LLM(大型语言模型)的架构设计本身。

    LLM通常依赖监督学习,特别是通过预测文本中下一个词的方式来训练。这一过程中,模型被投喂海量的文本数据集,学习并预测给定文本后下一个词出现的概率分布。通过不断将模型的预测与实际文本进行对比和调整,语言模型逐渐掌握了语言的内在规律,从而能够预测并生成连贯的文本。

    然而在LLM的框架内,存在使用Tokenizer这一关键环节。它负责将输入的文本分割成更小的单元(tokens),以便模型处理。问题在于,Tokenizer的设计初衷并非专门服务于数学处理,因此在处理包含数字的文本时,可能会将数字看做文本字符串而非数值,从而进行不合理地拆分,导致数字的整体性和意义在模型内部被破坏。

    对此,360CEO周鸿祎以9.9和9.11为例,进行了更为通俗的解释:

    “大模型全称叫大语言模型,它首先解决的是对人类自然语言理解的问题。所以大模型并没有把9.9和9.11当成一个数字来看,而是把它们分成了两个token。没有经过专门特别的提示和训练,大模型是不懂阿拉伯数字也不懂数学的,所以大模型是按照一个文字的逻辑来进行比较的。9前面是一样大的,那么11比9要大,所以就得出来9.11比9.9要大。”







    除了架构设计存在不足外,大模型“数学不好”或许还与它所接受的训练方式有关。主流模型的训练主要源于互联网的文本数据,这类数据中数学问题和解决方案相对匮乏,也在一定程度上限制了模型在此类技能上的发展。

    因此,在各类大模型井喷式诞生与发展的现在,也许我们也应当反思:AI该如何进一步设计与训练,才能真正像人类一样思考?
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|Archiver|手机版|小黑屋|齐鲁信息网
    免责声明:本文章来源于网络转载是出于传递更多信息之目的,如对稿件内容有疑议,请及时与我们联系。

    GMT+8, 2024-9-8 07:37 , Processed in 0.300599 second(s), 28 queries .

    Powered by Discuz! X3.5

    © 2001-2024 Discuz! Team.

    快速回复 返回顶部 返回列表