AI聊天机器人ChatGPT 能够进行自然对话、编写代码、生成诗歌、作曲、通过律师资格考试、计算复杂的数学公式、设计简历,甚至提供食谱,吸引了广泛的关注。
但这种现象也有令人担忧的不足之处。观察家很早就警告说,从互联网上挖掘虚假信息并通过 ChatGPT 对话传播虚假信息的危险,以及对生成恶意代码和越来越有说服力的网络钓鱼活动的可能性的担忧。
本周,艾伦人工智能研究所、普林斯顿大学和佐治亚理工学院的研究人员发出了新的警告。
在一份题为“ChatGPT中的毒性:分析角色分配的语言模型(Toxicity in ChatGPT: Analyzing Persona-assigned Language Models)”的报告中,研究人员表示,ChatGPT可以在回答用户问题时产生种族主义和其他有害的对话。
研究人员将ChatGPT赋予“人物角色”后 ,给出响应变得“非常有问题”并产生“有偏见和伤害性的评论”。OpenAI 尚未对这项最新研究做出回应,但它已经解决了较早的冒犯性语言事件。例如,如果被明确要求写一篇种族主义报道,ChatGPT会拒绝,并回应说它“不会产生攻击性或有害的内容。”
研究人员表示,他们的项目“首次对ChatGPT的语言生成进行了大规模、系统的毒性分析。”他们指出,由于越来越多的企业开始用ChatGPT,这个问题被“放大”了。