近日,港中来自香港中文大学(深圳)的深团数学一支科研团队通过求解器的引入,把大模型回答的队打大模资阳市某某生态科技运营部数学模型交给求解器解决,进而通过比对求解器的造新重基准答案,得以成功判断数学模型的型A型检正确性。
这相当于为参加考试的测集成考生准备了高级计算器,只需输入方程就能得出准确答案。港中这样一来,深团数学就可以判断学生所写的队打大模方程是否正确。
基于这个理念,造新重基准该团队构建了一款名为 Mamo 的型A型检评测集,能够结合不同的测集成求解器评测大模型相应的建模能力。
未来,港中资阳市某某生态科技运营部这一评测集可能会成为数学大模型检验的深团数学重要基准,从而能够用于测试新训练大模型的队打大模建模能力。
同时,本次评测集的出现,也让评测中间过程成为可能,有望带动运筹大模型的发展。
谈及本次课题的初衷,研究人员表示在讨论 AI for math、特别是讨论大模型 for math 的时候,他们重点讨论了使用大模型做定理证明的任务。
借此发现采用现有的形式化定理证明工具,可以自动地验证证明过程的正确性,从而确定大模型的证明是否正确。否则,用自动化的方式判断一段数学证明的正确性是比较困难的。
以此为启发:他们想知道在其他任务中,是否存在和形式化定理证明工具一样的东西?如果有的话,能否让他们以简单的方式判断大模型的答案是否正确?
于是他们想到了求解器。当给定目标之后,求解器可以帮助运行出对应问题/对应方程的解。
通过对不同解答的比对,就可以判断中间过程、也就是判断数学模型的正确性。
此外,一直以来,人们对于大模型的数学能力的比较,一直是在最终结果(即一道题的最终答案)上,但却缺乏对于中间过程的关注。
打个比方,就是像数学考试解答题的判卷中,只考虑最后的答案正不正确,而忽略了中间的解题过程。但是,中间的解题过程和答案一样重要。
因此,课题组希望把这个评价体系拆开,不再只是关注最终答案,而是关注中间的解题过程。于是,便开展了本次研究并发表了相关论文。
图 | 论文作者黄旭函(来源:黄旭函)
日前,相关论文以《Mamo: 一个带有求解器的数学建模基准》(Mamo: a Mathematical Modeling Benchmark with 求解器 s)为题发在arXiv[1]。
图 | 相关论文(来源:arXiv)
下一步,他们将扩充数据,同时探索能够适配 Mamo 的不同求解器种类,以及构建相应的评测集。
参考资料:
1.https://arxiv.org/pdf/2405.13144