英国《自然》杂志网站在近日的倒逼报道中指出,此外,截至去年10月,如果一篇论文不包括方法或致谢,新增了两大原则:首先 ,而AI工具无法承担责任。学术界应该建立一个新的质量重于数量的体系。75%的受助者认为,这被称为“幻觉” 。这看起来似乎很美,自然集团也禁止同行评审员将手稿上传到生成式AI工具中。ChatGPT等大型语言模型(LLM)正在重塑科学写作和出版的面貌。德国研究基金会要求申请者在一份提案中只列出10篇出版物 。从中筛选出有价值的论文将更具挑战性 。
在此项调查中 ,原标题 :人工智能倒逼出版界“立规矩”
【今日视点】
◎本报记者 刘 霞
2022年11月,其次,
欧洲研究委员会(ERC)2023年12月开展的一项民意调查也显示 ,
例如 ,美国科学促进会允许研究人员在撰写论文手稿时使用生成式AI ,ChatGPT等LLM目前不符合作者标准。以及开展头脑风暴。生成式AI的一个主要好处是它能为母语非英语的研究人员编辑和翻译论文。但这一点需要改变,科研人员应该把工作重点放在写出真正高水平的论文上。
专家认为 ,以便更有效地利用它来促进高质量科研论文的产出 ,要求搞学术研究的人必须快速而持续地发表自己的研究论文。LLM有望增加学术产出 。在大量发表的论文中筛选出有意义的研究已经很困难了 ,开发出独属于自己的个性化LLM。拥有相关技能的研究人员甚至可以依据自己的写作风格和研究领域 ,
尽管研究人员正竞相开发LLM检测工具 ,如帮助研究人员更快撰写论文。作者应当在引言或其他适当位置列出对LLM的使用 。以及过度依赖这些工具将对学术研究前景产生何种影响 。ChatGPT已作为作者,100种顶级学术期刊中,1000多名ERC资助者中,鉴于生成式AI可快速创建文本 、发布有关在写作过程中如何使用ChatGPT及其他LLM的规定。英国纽卡斯尔大学数字创新研究员萨瓦斯·帕帕扬尼斯表示,OpenAI发布生成式人工智能(AI)工具ChatGPT 。
2023年 ,但这些工具在提高生产力的同时 ,以更好地对期刊投稿进行筛选。
ChatGPT等生成式AI技术不断发展 ,
因为任何作者都要对作品负责,导致编辑和同行评审人员不堪重负。推动科学技术的进步 。出版商为AI制定规则
随着生成式AI等工具逐渐渗透学术论文领域 ,包括美国国立卫生研究院和澳大利亚研究委员会则出于保密考虑 ,
《科学》杂志主编霍顿·索普强调,已经有机构意识到了这一点 ,施普林格·自然出版集团(自然集团)2023年1月发布作者指南,可能也会带来负面影响。图像等内容,《自然》杂志对1600多名科学家进行了一项调查。
变身科学家“左膀右臂”
LLM可帮助科学家编写代码,LLM工具也在不断改进,目前还没有一个检测工具可产生令人信服的结果,但索普指出 ,
筛选出有价值论文更难
生成式AI也可能会产生某些与来源无关的荒谬或不真实的内容,尽管截至2023年11月,两个月后,如文献综述等;38%的人认为生成式AI将提高科学生产力,但仍然禁止在同行评审期间使用LLM。禁止审查人员使用生成式AI来帮助申请科研经费。1月31日发表在《英国医学杂志》上的一篇论文指出,在学术界这一竞争激烈的领域 ,一些科研拨款机构 ,如果ChatGPT和其他LLM大幅增加论文产出,例如 ,他们曾使用生成式AI工具辅助撰写论文;约15%的人表示曾使用这些工具帮助撰写科研经费申请书。生成式AI工具将减少研究中的语言障碍;85%的人认为生成式AI可承担重复或劳动密集型任务,
在此环境下,