Nature认定的论文综述神器来了
Nature认定的论文综述神器来了
  • 2026-04-19 07:11:48
    来源:卖剑买琴网

    Nature认定的论文综述神器来了

    字体:

    闻乐 发自 凹非寺量子位 | 公众号 QbitAI

    AI写论文这事儿确实不新鲜了,但天下苦假引用久矣。

    以往咱用大模型写个综述,看着像模像样的,结果一查参考文献——

    好家伙,论文不存在、期刊不存在、作者也不存在(扶额)。

    现在不用愁了,Nature新发表了一篇研究,艾伦人工智能研究所(Ai2)和华盛顿大学开源了一个叫OpenScholar的AI系统,写文献综述绝不瞎编。

    背靠整�万篇科学论文库,直接把GPT-4o那�%-90%的虚假引用率给干翻了。

    那么问题来了,大家都在编,OpenScholar为啥不编?

    自我反馈推理

    其实主要还是因为LLM的底层逻辑就是预测下一个词出现的概率。

    当你问它一个非常生僻的学术问题时,它为了维持语言的连贯性以及“我无所不知”的人设——

    会强行根据语料库里的作者名、期刊名、标题关键词,拼凑出一个看起来最像真论文的…幻觉产物。

    还有,通用AI缺乏事实锚点,读过万卷书结果全记串了。

    张教授写过超导,李教授写过材料,当你问它超导材料时,它能面不改色地给你编出一篇《张教授与李教授关于超导材料的巅峰对话》……

    这种由于训练数据截断以及缺乏真实文献验证机制导致的假引用,真的太太太离谱了!

    OpenScholar就不一样了,不再拍脑门预测下一个词,直接接入了一个名为ScholarStore的庞大数据库。

    这是目前公开的最大科学领域段落索引,全开源可下载,任何人都能本地部署或者扩展。

    里面实打实地存�万篇论文的全文和摘要,再通过RAG技术,让每个知识点都背靠一篇真实存在的论文。

    当你抛出一个科研难题,它会先在那个拥񀙜.37亿个向量嵌入的超大数据库里疯狂检索,把相关的论文片段全翻出来。

    给出初稿之后,带着生成的“这里缺少讨论”“这里引文不准”“需要补搜最新进展”等反馈再检索、再改稿,通过搜索、生成、自我审查、再搜索、再修正这套闭环,反复确认输出的内容是不是真有论文支撑。

    这样一来显著降低了幻觉,提高了输出内容的覆盖度和引文精度,整个管道还会被用来生成高质量合成数据,反哺训练。

    有多强?

    但是!如果只是搜得准,那它充其量是个高级搜索引擎,OpenScholar不止如此。

    它在知识合成的深度上,已经开始正面硬刚人类专家了。

    研发团队整了个叫Scholar QABench的测试集,涵盖了计算机科学、物理、生物医药等最吃逻辑的领域,�个问题�个长篇专家答案构成。

    在自动测评上,OpenScholar-8B这个体量不算大的模型,在正确性上GPT-4o高𳏉%,比专业的PaperQA2也高𳏋%,引文准确度和人类专家持平。

    团队还搞了个“人机大战”双盲实验,把AI写的答案和实打实的博士、研究员写的答案放一起,然后让另一群顶级科学家来盲评打分。

    16位专家两两对比�份学术答案。结果显示,OpenScholar-8B的回答�%比人类研究者亲手写的更好,升级组合版的OpenScholar-GPT4o胜率更是冲�%,而普通GPT-4o只�%。

    评审专家们普遍反馈,OpenScholar的优势集中在信息覆盖更全面、结构更清晰、逻辑连贯性更强,实用价值也更高。

    作者团队

    这篇研究的一作Akari Asai是艾伦人工智能研究所研究科学家,2026年秋起将任卡内基梅隆大学助理教授。

    在此之前她获得了东京大学电气工程与计算机科学专业的学士学位,后在华盛顿大学完成博士学业,研究聚焦于自然语言处理和机器学习,尤其侧重于大型语言模型。

    Jacqueline He目前在华盛顿大学读自然语言处理专业博士,本科毕业于普林斯顿大学,曾是普林斯顿自然语言处理小组成员,主要导师是陈丹琦。

    读研之前,她还担任过Meta的软件工程师。

    Rulin Shao本科毕业于西安交通大学,取得了数学的学士学位,后在卡内基梅隆大学完成了机器学习硕士学位,现为华盛顿大学博士生,同时也是Meta的访问研究员。

    团队的其他作者均来自伊利诺伊大学厄巴纳 - 香槟分校、卡内基梅隆大学、Meta、北卡罗来纳大学教堂山分校、斯坦福大学等高校和机构。

    论文地址:https://arxiv.org/abs/2411.14199

    【纠错】【责任编辑:Peter_若愚】