数以百万计的用户已经测试了 ChatGPT的潜力和局限性,其可以编写电子邮件、诗歌或代码,甚至生成整篇研究论文。该聊天机器人最近通过了沃顿商学院的 MBA 考试,引发了进一步的肯定和恐慌。 

几家学术期刊出版商已禁止作者使用 ChatGPT,教授们正在更改考试和作业规则以响应该工具。但 ChatGPT 是否会成为改变我们教育的转折点? 

虽然 ChatGPT 已经能够输出令人印象深刻的对话文本,但这并不意味着它对我们所做的一切都有用。以下是数位商学院教授在教学过程中发现 ChatGPT对研究、教学和学习的主要影响。 

“有用的陪练工具”,战略学教授Phanish Puranam

我个人认为 ChatGPT是一个有用的文字编辑器和翻译器(包括编程语言),但我不相信它是一个搜索引擎或知识来源——它产生的答案我无法轻易验证,除非得到其他证明,否则我会怀疑它。但是,当我可以快速验证副本是否合理或代码是否有效时,它很有用。它也是写作时有用的陪练工具——即使是它所犯的“错误”对我也有帮助,它可以快速地在一个主题上产生很多变化。通过与它的互动,我已经澄清了我对授权和奥卡姆剃刀等不同主题的想法。  

当涉及到带有开放式组件的作业时,我已经开始要求学生提交对他们选择的主题的 ChatGPT 响应,并附上一个附录,告诉我他们是如何使用它的。无论他们是否使用它,我都不能从事警务工作,这是他们需要学习如何使用的工具(如果我教年轻的学生——例如高中生,我的观点会有所不同)。我告诉他们,他们应该少担心 ChatGPT 会让他们变得多余,而应该多担心被能够有效使用此类技术的人裁员。   

“只擅长有限的查询”,经济学教授Pushan Dutt

当我让 ChatGPT 参加微观经济学考试时,结果并不令人满意。它只有一个关于最近欧佩克+正确行动的简单得可笑的问题。到今天为止,它还不能可靠地加或取导数,没有基本的理解,只能自动完成句子。这意味着我可以愉快地进行开卷考试,目前为止我的工作是安全的。 

ChatGPT 类似于 John Searle 的中文屋论证。Searle想象自己在一个房间里,按照计算机程序对从门缝里塞进去的汉字做出反应。Searle不懂中文,但他按照操作符号和数字的程序,将适当的回复作为中文字符串发回。门外的人误以为Searle是说中文的。这通过了图灵测试。但是操纵符号串的句法规则并没有真正理解意义。这就是 ChatGPT 的本质。  

ChatGPT 似乎有三个目标:乐于助人、诚实和不冒犯他人。然而,在它试图提供帮助(并且无害)的过程中,它偶尔会编造一些东西。当它试图提供帮助和诚实回应时,它可能会说些冒犯的话。OpenAI 的强化学习与人类反馈会捕捉并纠正这个问题吗?惩罚无用的答案可能会促使 AI 给出错误的答案;惩罚错误的答案可能会使它给出令人反感的答案;惩罚冒犯性的答案可能会使它给出无用的答案。OpenAI 需要应对这个不可能的三位一体。 

“Siri版的进一步改进”,战略助理教授 Siri Phebo Wibbens 

鉴于所有的炒作,我实际上对 ChatGPT 有点不知所措。乍一看,它的成就令人印象深刻,但仔细观察,它是对 Siri 等虚拟助手的相当渐进的改进。虽然它改进了人工智能擅长的事情,比如写符合语法的句子和翻译,但它在人工智能从来不擅长的事情上仍然很差,包括写更长的连贯文本和开发新想法。它的答案也是冗长和不确定的,而当它是确定答案(即明确的是或否)时,它通常是错误的。  

虽然我没有看到直接的研究用例,但最重要的影响可能是 AI 剽窃,例如在学生作业和审稿手稿中,因为 ChatGPT 可以写出看似合理的文本。不过,它通常经不起审查,一个主要问题是它不擅长寻找文本来源。  

“对同一个问题给出截然不同(并且可能不正确)的答案”,决策科学客座教授Anton S. Ovchinnikov

当我让 ChatGPT 参加不确定性、数据和判断考试(MBA 和全球高管 MBA 课程的核心课程)时,我发现它只能回答需要教科书式答案的简单问题。然而,当问题更难,需要更多的概念理解时,ChatGPT 提供了优雅的书面答案,但完全没有把握整体情况,因此得出了错误的结论。  

对于一个关于跑步比赛获胜概率的考试题,我向 ChatGPT 问了 3 次完全相同的问题,得到了三个截然不同的答案,不同的逻辑和不同的结论。三个答案都错了。有趣的是,ChatGPT 犯了一个逻辑比较错误——它假设,像其他运动一样,高分会打败低分,而在跑步比赛中,获胜者的时间更短。它还在计算中犯了一个代数错误,这对于计算机模型来说是令人震惊的。  

也许在未来的考试中,我们会给学生提供人工智能解决方案,让他们找出并纠正错误,而不是让他们从头开始解决问题。另一种选择是让学生识别 ChatGPT 何时提供了错误答案,并让他们改写提示和问题以获得更好的答案。 

“对我们所做工作的补充,而不是替代”,战略学助理教授Victoria Sevcenko

对于简单的编程任务,ChatGPT 可以加快编写和调试 Python 代码的初始阶段。我经常从简单的提示开始并从那里构建任务,或者粘贴我需要帮助调试的代码。输出仍然需要编辑,但它是阅读文档和查看 Stack Overflow 上的建议的有用补充。  

我还在课堂上使用 ChatGPT 来帮助学生解释和编辑代码。然而,由于输出有时可能是错误的,它不能替代我们在课堂上所做的,而是一个有用的工具,可以让学生直接检查输出的准确性。我也期待着基于 GPT-3 构建的新应用程序可以帮助我们加快系统的文献综述并找到其他相关论文。 

“有助于生成替代观点”,决策科学与技术管理教授 Theodoros Evgeniou

ChatGPT 可用于压缩输出流程,例如提供文章、电子邮件和书籍的摘要,但前提是用户应用批判性思维来清除错误信息。它还可以帮助产生“另类观点”,以了解不同人群如何看待产品描述、政治声明、使命声明或新闻等事物。例如,你可以要求 ChatGPT 对一段文本进行雄心勃勃的、恭维的、愤世嫉俗的或特定于文化的摘要,以此作为发现新思维方式、提出新问题和改进原始文本的一种方式。 

这对我们的教育系统有影响。未来的学生可能会被要求为 AI 写 10 个问题,并根据要求的不同版本和观点评估其答案,而不是回答问题。从这个意义上说,人工智能可能确实像印刷机一样对教育有价值。“超级创造力” ——我们几年前概述的一个概念 ——即将到来。用学者、企业家和 Google X 创始人塞巴斯蒂安·特伦 ( Sebastian Thrun )的话来说 :“我们甚至还没有开始了解人工智能将变得多么富有创造力。如果你把世界上所有的知识和创造力都放在一个瓶子里,你会惊讶于它会产生什么。” 

通过使用 ChatGPT 生成关于一个主题的多个文本,人们还可以将该文本量与人类编写的文本区分开来,以确定可能的差异和潜在的研究差距。这种与人工智能合作创造更好的内容、想法和创新的能力将变得越来越重要。展望未来,我们还需要开发创新和强大的流程,让人类与机器一起工作并监督人工智能,以确保它生成或做的事情是安全和值得信赖的。 

“范围有限,产出单一”,市场营销学教授Philip M. Parker

有人担心,更先进的 ChatGPT 版本会让学术界破产。问题是这个工具最终是否能够编写比我们现在拥有的质量更高或性质更多样化的学术研究。基于 GPT 的系统范围有限,输出单一,但像 IBM Watson 一样,制造新闻并吸引人们,这只是一个角度。 

在未来,我相信会有算法期刊,人们会审查算法并接受它产生或不产生的任何东西。这些算法将是品牌——就像深蓝、IBM Watson 和 ChatGPT——而“作者”将是编写程序的人。随着新数据的进入,文章将自动生成和修改。如果更进一步,支持直接编写代码,这意味着我们甚至不再需要工程师了。我们要么参与自己生成这些算法的游戏,要么使用它们。 

发表评论