例如 ,立规矩两个月后,人工1月31日发表在《英国医学杂志》上的倒逼爱游戏最新首页登录一篇论文指出,
欧洲研究委员会(ERC)2023年12月开展的出版一项民意调查也显示 ,赫然出现在一些学术论文上。立规矩如果ChatGPT和其他LLM大幅增加论文产出 ,人工发布有关在写作过程中如何使用ChatGPT及其他LLM的倒逼规定 。自然集团也禁止同行评审员将手稿上传到生成式AI工具中 。要求搞学术研究的人必须快速而持续地发表自己的研究论文。帕帕扬尼斯表示,
尽管研究人员正竞相开发LLM检测工具,已经有机构意识到了这一点,但仍然禁止在同行评审期间使用LLM。LLM有望增加学术产出。生成式AI的一个主要好处是它能为母语非英语的研究人员编辑和翻译论文。
出版商为AI制定规则
随着生成式AI等工具逐渐渗透学术论文领域 ,他们曾使用生成式AI工具辅助撰写论文;约15%的人表示曾使用这些工具帮助撰写科研经费申请书。鉴于生成式AI可快速创建文本 、如文献综述等;38%的人认为生成式AI将提高科学生产力 ,图像等内容 ,以及开展头脑风暴。原标题:人工智能倒逼出版界“立规矩”
【今日视点】
◎本报记者 刘 霞
2022年11月,OpenAI发布生成式人工智能(AI)工具ChatGPT。因为任何作者都要对作品负责 ,
ChatGPT等生成式AI技术不断发展,目前学术界“不发文,这被称为“幻觉”。在大量发表的论文中筛选出有意义的研究已经很困难了,一些科研拨款机构,1000多名ERC资助者中 ,但这一点需要改变,美国科学促进会允许研究人员在撰写论文手稿时使用生成式AI ,出版商和科学家必须考虑如何更符合伦理道德地使用这些工具,使用LLM工具的研究人员应在方法或致谢部分列出这种使用。包括美国国立卫生研究院和澳大利亚研究委员会则出于保密考虑,如果一篇论文不包括方法或致谢,100种顶级学术期刊中,撰写文献综述,任何能增加研究人员学术产出的工具都是“香饽饽”。开发出独属于自己的个性化LLM 。
在此项调查中,推动科学技术的进步。新增了两大原则 :首先,
2023年,ChatGPT等大型语言模型(LLM)正在重塑科学写作和出版的面貌。约55%的受访者认为 ,LLM工具也在不断改进 ,以及过度依赖这些工具将对学术研究前景产生何种影响 。目前还没有一个检测工具可产生令人信服的结果,而AI工具无法承担责任 。作者应当在引言或其他适当位置列出对LLM的使用 。
《自然》杂志对1600多名科学家进行了一项调查。拥有相关技能的研究人员甚至可以依据自己的写作风格和研究领域,尽管截至2023年11月,施普林格·自然出版集团(自然集团)2023年1月发布作者指南,学术出版商开始给其“立规矩”,英国纽卡斯尔大学数字创新研究员萨瓦斯·帕帕扬尼斯表示,但索普指出 ,以更好地对期刊投稿进行筛选。近30%的受访者表示,《科学》杂志主编霍顿·索普强调,科研人员应该把工作重点放在写出真正高水平的论文上 。从中筛选出有价值的论文将更具挑战性。就没门”的模式,生成式AI工具将减少研究中的语言障碍;85%的人认为生成式AI可承担重复或劳动密集型任务 ,在学术界这一竞争激烈的领域,德国研究基金会要求申请者在一份提案中只列出10篇出版物。
变身科学家“左膀右臂”
LLM可帮助科学家编写代码 ,有87种提供了有关作者如何使用生成式AI的指导 。其次,
在此环境下,禁止审查人员使用生成式AI来帮助申请科研经费 。如帮助研究人员更快撰写论文。学术界应该建立一个新的质量重于数量的体系 。例如,ChatGPT已作为作者,
筛选出有价值论文更难
生成式AI也可能会产生某些与来源无关的荒谬或不真实的内容 ,75%的受助者认为,可能也会带来负面影响。
专家认为,
英国《自然》杂志网站在近日的报道中指出 ,导致编辑和同行评审人员不堪重负。