剑桥大学出版社发布了一份新的人工智能伦理政策,禁止将AI视为其出版的学术论文和书籍的作者。
该出版社表示,这些指南旨在维护学术标准,因为像ChatGPT这样的工具引发了诸如剽窃、原创性和准确性等问题。
新政策规定,作者要对其作品的原创性、诚信和准确性负责。任何使用AI的方式必须在研究论文中声明,并且不能违反出版社的抄袭政策。论文必须是作者自己的学术作品,不能使用他人的想法、数据、言语或其他材料,必须进行“充分引用和透明引用”。
剑桥大学出版社的系列编辑R. Michael Alvarez表示:“生成式AI为学术研究人员和教育者引入了许多问题。”他说,学者和作者将“在未来多年里一直讨论由生成式AI为学术出版带来的机遇和陷阱”。
该政策表明AI与人类在学术出版领域的角色划分问题将引起越来越多的关注和争议。剑桥大学出版社的此项政策可能会影响其他出版社及学术机构的决策,将有助于维护学术诚信和规范,促进学术研究的质量和可信度。
此前,知名学术期刊《Science》和《Nature》也禁止AI列为论文作者。《Science》决定任何论文使用AI工具产生内容都属科学性不当,如果没有编辑明确许可,不得使用这类内容写论文、附带数据、图片或图表。此外,人工智能模型也不能列为论文作者。《Nature》新规则也类似,不接受人工智能模型列为论文作者,不过论文本身可使用AI工具产生文本,但需在研究方法或谢辞部分清楚标示。