ChatGPT 的诞生,改写了很多领域的游戏规则。现在,在很多地方,学校和大厂都下了 ChatGPT 封杀令。
12 月,ChatGPT 大红大紫之际,就有诸多学者和研究人员发出警告:ChatGPT 很可能「杀死」大学论文。最近,纽约市教育局就正式对 ChatGPT 下了封杀令。
无独有偶,在很多互联网大厂,ChatGPT 也遭到了封杀。很多已经习惯向 ChatGPT 咨询代码问题的码农们,原地爆哭……
大厂封杀 ChatGPT,码农哭了
近日,一位码农在网上发帖称,在自己所在的大厂,办公室 wifi 禁用了 ChatGPT。这直接把他整崩溃了。
博主表示,自己一名初级软件工程师,而在团队中,前辈们总是很忙,没有时间给他解释问题。
每当他在工作中卡住时,ChatGPT 都是他的救星。
但是昨天,当他在办公室坐下时,忽然发现没法访问 ChatGPT 了!他瞬间破防。
在他的帖子下,热心网友纷纷献计。
比如,买一个便宜的 VPS 和域名并设置一个反向代理到 ChatGPT 官网;在浏览器中启用 DoH 和 ECH;使用一个在线代理;或者在手机上通过电子邮件将输出结果发送给自己等等。
当然,有网友对公司的这个操作表示赞同:「你司禁用 ChatGPT 是很有道理的,好好想想,如果你解决公司问题的代码可以很轻易地被竞争对手获得,会产生什么后果吧。」
「不要向 ChatGPT,或者从 ChatGPT 上复制粘贴代码。在法律上,公司或客户的代码并不属于你。而且你也没有 ChatGPT 上代码的版权。如果你这么做,会让你面临诉讼,被解雇。」
的确,已经有大厂向员工发送电子邮件称:「ChatGPT 不是不能用,但是如果你往里面上传代码,你就会面临被解雇的风险,因为我们的代码非常敏感。」
不过,也有网友给出了扎心回复:「如果一个初级开发者在没有 ChatGPT 的情况下,就无法完成工作,那么他对公司来说,真的是可有可无。」
纽约颁布禁令,师生全都禁用
就在 1 月 3 日,拥有全美最大公立学校系统的纽约市,正式颁布了「ChatGPT 禁令」。
也就是说,不管是老师还是学生,都无法在纽约市公立学校的网络和设备上使用 ChatGPT。
最近,洛杉矶和巴尔的摩的学区也加入到了这个行列。
纽约市教育局发言人 Jenna Lyle 表示,虽然 ChatGPT 可以提供快速和简单的问题答案,但它不能培养学生批判性思维和解决问题的能力,而这些对于学术和终身成功来说至关重要。
当然,如果学校的目的是研究 ChatGPT 背后的技术,还是可以申请访问的。
目前,ChatGPT 将对论文作弊的风险产生什么影响还有待观察,因为学生仍然可以在校外访问自己的设备和网络。
而佐治亚州的科布县的态度,不仅没那么强硬,甚至还对采用 ChatGPT 颇有兴趣。
该学区的一位发言人表示,「在高素质的科布县教师手中,ChatGPT 可以成为补充学生对学术内容理解的宝贵工具,并可以帮助学生发展批判性思维能力。」
对此,在纽约精英高中 Brooklyn Tech 任教的 Adam Stevens 也认为,禁用 ChatGPT 反而会带来消极的影响。
毕竟在 15、20 年前,当学生可以「在网上找到答案」时,这些人也是这么针对谷歌的。
Stevens 认为,培养学生批判性写作技能的最好方法是「邀请他们探索值得了解的事情」,并远离基于严格的评分标准的公式化写作教学。
「当然,如果你更看重学期末的分数,那么 ChatGPT 确实是一个威胁。」
同样,俄勒冈州桑迪市的一名高中英语老师也有类似的看法。
Shields 老师有 25 年教龄,她认为,其实大可不必「谈 ChatGPT 色变」,这款 AI 完全可以被用来帮助学生产生想法、组织思路,甚至撰写整篇论文。
在她看来,教师们应该接受,AI 是学生可以使用的一种工具,就像每个老师都教学生如何使用搜索引擎一样。
很多学生苦于无话可写,此时教师可以使用 ChatGPT 向学生展示如何生成提示,来刺激他们的写作。
Shields 老师曾让 ChatGPT 以 7 年级生、10 年级生和大学生的风格写同一个主题的文章,每个级别之间的句法差异程度令人震惊。因而,完全可以使用这种 AI 生成的反馈,来向学生展示如何改进他们的写作。
ICML 发文澄清:主要为防止抄袭,不影响润色文章
前两天,国际机器学习会议 ICML 2023 突然宣布:禁止使用大规模语言模型(如 ChatGPT)生成论文的内容,除非这些文本是实验分析的一部分。
要求一经提出,便引发了众多研究人员的不满:拼写检查和文本预测基于的就是语言模型,为啥不让我们用?
对此 ,图灵奖得主 Yann LeCun 评论道:「大型语言模型不能用,意思是换成中型和小型语言模型就行咯?」
随后还不忘阴阳一句:「明年的 ICML 道德准则应该变成:研究人员必须徒手完成各种计算,不能借助计算机;各类图形必须用笔和纸手绘;从今天起,ICML 的官方语言变为瑞典语(瑞典:?)。」
由于引发的讨论太过激烈,ICML 不得不单独发一条长文来解释这个规定。概括来说,有三个要点:
-
政策禁止完全由 LLM「生成」的文本,但这并影响作者使用 LLM 来编辑或润色自己写的文本。
-
政策主要是防止使用 LLM 可能会出现的潜在问题,比如抄袭。
-
目前,政策仅适用于 ICML2023。随着我们对 LLM 及其对科学出版的影响有了更深入的了解,这一政策可能会在未来的会议中发生变化。
大规模语言模型,争议丛生
在过去的几年里,大规模语言模型(LLM)的发展非常迅速。最近,这一进展不仅没有放缓,甚至还更快了。
正如大家看到的,过去几个月发布的 LLM,如 OpenAI 的 ChatGPT,已经能够生成难以与人类相区分的文本片段。毫无疑问,这是自然语言处理和生成方面令人兴奋的进展。
但这种快速的进展往往伴随着意想不到的后果以及无法解答的问题。比如,由模型生成的文本和图像是新颖的,还是现有工作的衍生品?
此外,文本片段、图像以及其他由这些模型产生的内容,又应该归谁所有:是生成模型的用户,还是训练模型的开发者,抑或是制作训练数据的内容创作者?
可以肯定的是,随着大规模生成模型被更广泛地应用,这些问题都将随着时间的推移得到解答,但现在还不行。尤其是距离 ChatGPT 的发布才过了不到 2 个月(2022 年 11 月底)。
而对于 ICML 来说,他们并没有足够的时间来观察和调研 ChatGPT 将会对论文审稿和发表过程,产生何种影响。
考虑到针对这项新技术所采用的策略,会直接关系到研究人员的职业生涯。因此 ICML 表示,自己只能更加谨慎,甚至还会有些保守。
时有错漏,但码农依然爱不释手
其实,虽然 ChatGPT 经常因为「犯蠢」而被嘲,但自它诞生一个多月来,很多码农的工作习惯,确实被它改变了。
在 12 月初,ChatGPT 亮相后,码农们发现可以用它生成代码,立马沸腾了。
ChatGPT 不仅可以回答任何领域的问题,而且生成的答案,有很大的概率非常精确和详细。
比如,当你问到「How to iterate over an keys and values array in Javascript」时,它生成了很完美的答案。
锦上添花的是,ChatGPT 还能通过一个支持性的例子和解释,告诉你这个 JavaScript 中常见问题的最佳解决方案:
甚至,还可以用它给代码纠错。
不过随后,码农们马上发现,ChatGPT 生成的代码,其实有不少问题。
ChatGPT 会「犯蠢」,背后原因其实很简单 ——AI 的输出,是概率性的。ChatGPT 没有任何标记了对错的内部记录,它其实是一个统计模型,这个模型中,是在不同上下文中的语言组合。
而上下文的基础,就是 GPT-3 训练所用的整体数据集,来自 ChatGPT 的 RLHF 训练的额外上下文,prompt 和之前的对话,以及很快就会有的反馈。
ChatGPT 的答案,本质上就是从构成 GPT-3 的互联网数据语料库中收集的概率结果。在 10 秒内,ChatGPT 做出了结果的最佳猜测,这个猜测很可能是正确的。
当然,也有错误的概率。
这就是为什么,网友用 ChatGPT 生成的代码在 Stack Overflow 上疯狂灌水、错误答案满天飞时,后者连夜发布了官方封杀令。
虽然 ChatGPT 写代码的能力被很多人诟病,但其实,用还是可以用的。
其实,ChatGPT 最合适的定位,应该是编码辅助工具。在 ChatGPT 的发布方 OpenAI 看来,ChatGPT 的重要用途之一,正是帮助程序员检查代码。
对于开发者而言,它就是日益丰富的工具板中的一个工具。而且,就像任何自学模型一样,ChatGPT 也会随着时间的推移,不断学习,不断自我纠正和改进。
很多时候,与其在 Stack OverFlow 上为相对简单的问题(如何在 Flutter 中触发 HookConsumerWidget 的重建)等待几天,不如直接向 ChatGPT 提问。
因为在 ChatGPT 上,开发者们有很大概率,得到一个可以用于解决问题的起点 ——
参考资料:
-
https://www.businessinsider.com/nyc-schools-ban-chatgpt-cheating-concern-grows-2023-1
-
https://www.theregister.com/2023/01/06/ai_conference_nyc_ban/?td=rt-3a
-
https://www.reddit.com/r/ChatGPT/comments/104rp2j/my_company_blocked_chatgpt/
本文来自微信公众号:新智元 (ID:AI_era)