人工智能可否被用来写医学论文 - 服务指南 - 安徽省医师协会
服务指南 > 医学大家谈科普 > 人工智能可否被用来写医学论文

人工智能可否被用来写医学论文

发布时间:2024-01-22 08:26:48来源:管理员 阅读:

    具有文本、图片、音频、视频、数据、代码、模式等内容生成能力的模型及相关技术的生成式人工智能(GenAI),正在影响和改变人们的学术研究和论文写作。
    从诞生之初,这一技术就引起了全球各领域研究者的关注,对其应用前景及规范也产生了不少争议。近日,中华医学会杂志社发布的《关于在论文写作和评审过程中使用生成式人工智能技术的有关规定》,引发了国内医学领域对于这一新技术应用的探讨。
国内科研领域应用
已有相关规范
    为维护科研诚信,防范学术不端,确保科研过程和成果的真实性、准确性及透明性,中华医学会杂志社近日发布《关于在论文写作和评审过程中使用生成式人工智能技术的有关规定》(以下简称《规定》),对在医学科技论文写作和评审过程中使用生成式人工智能的行为进行规范。
    该《规定》明确指出,生成式人工智能不能用于整篇论文或论文重要部分的撰写(如研究方法、结果和对结果的解释分析等);所有属于科学贡献或智力劳动范畴的内容均应由作者完成;如论文主要内容使用生成式人工智能完成,编辑部将按照学术不端行为进行处理。
    2023年12月,科技部监督司发布《负责任研究行为规范指引(2023)》(以下简称《指引》),针对科研人员、科研单位、科研资助机构、科技类社团、学术期刊等不同主体,提出了开展负责任研究应普遍遵循的科学道德要求和学术研究规范。其中,在研究实施、数据管理、成果署名与发表、文献引用等方面,《指引》对如何依规合理使用生成式人工智能作出了具体要求。
    《指引》特别提出,不得使用生成式人工智能直接生成申报材料,不得将生成式人工智能列为成果共同完成人,不得直接使用未经核实的由生成式人工智能生成的参考文献等。
生成式人工智能
备受学界关注
    生成式人工智能技术在刚面世时就受到了广泛关注,还在学术界引发了一些争议。
    2023年2月,荷兰研究人员在《自然》期刊发表文章,指出ChatGPT研究的五个重点问题。文章提出,人们目前已使用ChatGPT和其他大型语言模型来撰写论文和演讲、总结文献、编写计算机代码、统计分析等。这些工具可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学更加公平,并增加科学观点的多样性。然而,它们也会带来隐忧,如可能降低研究的质量和透明度,可能会歪曲科学事实并传播错误信息等。
    学术界对于这项新技术的态度变得谨慎起来。2023年初,《自然》《科学》等多家国际知名学术期刊先后发布声明,对投稿者使用ChatGPT等人工智能(AI)工具进行了一定的限制。此后,有一大批国内外高等院校相继宣布禁止学生使用ChatGPT及相关AI工具完成论文及作业。例如2023年3月,英国牛津大学、爱丁堡大学等8所罗素大学集团成员宣布禁止使用ChatGPT。
学界对人工智能
态度出现转变
    不到一年,转机出现。2023年10月,荷兰阿姆斯特丹大学的学者在《自然》期刊上发表文章,建议应建立独立的科学机构来测试和认证生成式人工智能,以免该技术损害科学和公众信任。
    其后,《科学》期刊在2023年11月正式更新了投稿政策,放宽了AI工具的使用限制。根据最新规定:只要在研究方法部分对AI辅助技术(如大型语言模型、聊天机器人和图像生成工具)的使用进行适当披露,在研究中使用这些工具是可以接受的。(来源:健康报)

版权所有:安徽省医师协会 未经许可 禁止非法拷贝或镜象     皖ICP备15004723号    

皖公网安备 34010402702526号


传真:0551-62242131 电话:0551-62242130 邮箱:ahysxh@163.com
地址:合肥市蜀山区绩溪路218号安徽医科大学第一附属医院西区综合楼4楼
技术支持:炎黄网络