几周前,麻省理工学院媒体实验室发布了一项关于人工智能如何影响大脑的研究。这项研究在社交媒体上引发了铺天盖地的帖子和评论,因为它得出了一个引人深思的结论:依赖 ChatGPT 进行写作任务的学生在脑电图扫描中,表现出较低的大脑参与度。这暗示着将思考任务交给人工智能,实际上会降低我们的神经活动。对于任何使用过人工智能的人来说,不难看出人工智能系统如何成为助长思维懒惰的学习拐杖。

但我认为,简单地得出“人工智能损害学习”的结论并不能说明全部问题。在这篇文章中,我想从四个角度探讨人工智能对教育的潜在影响,从而进一步探讨这一话题。我将探讨人工智能独特的适应性如何重塑僵化的教育体系,它如何既打击虚假信息又助长虚假信息,人工智能如何根据其使用方式既有利又有害,以及为什么人工智能的效用——最终可能决定人工智能是服务于学习者还是阻碍其发展。

如果人工智能对学校最具变革性的方面不是它的智能,而是它的适应性呢?

大多数科技都需要我们去适应。我们必须学习它们的工作原理,并调整我们的行为。工业机器、企业软件,甚至一个基本的恒温器——它们都附带着我们需要学习和遵循的指令和模式。

教育以不同的方式凸显了这种动态。当学生不是以标准化的原始输入来到学校时,教育的“工厂模式”如何运作?在许多方面,学校期望学生符合系统的要求——准时到场,上课前削铅笔,老师讲话时安静地坐着,想发言就举手。这些社会规范是我们对学生的期望,以便标准化教育能够发挥作用。但是,任何尝试过管理一群六岁孩子的人都知道,一个班级的学生充满了复杂的人性,他们永远不会完全符合系统的期望。因此,教师充当了可塑的中间层。他们调整标准化系统,使其适用于真正的学生。如果没有这种人类的适应性,系统就会崩溃。

制造业也是如此。埃德加·沙因指出,工程师的目标是设计能够自行运行的系统。但操作员知道,系统永远不会完美运行。他们的工作——通常也是他们的职业认同感——在于拥有专业知识,能够在不可避免地出现意外时进行调整和适应。面对僵化的系统,人类的适应能力能够确保一切正常运转。

那么,这与人工智能有何关联?人工智能打破了人类历史上设计和处理的大多数机器和系统的模式。它不仅仅是遵循算法,并期望我们学会如何使用它。它 会适应我们,就像教师或工厂操作员如何适应现实情况,以弥补标准化系统的僵化一样。

你不需要编程背景,也不需要手册。你只需跟它说话(我直接点击语音转文字按钮,跟它说话,就像在跟人解释一样)。凌乱自然的人类语言——古老的人际交流界面,我们的大脑从婴儿时期就能学习——已经成为大型语言模型的界面。换句话说,如今的人工智能模型之所以令人惊叹,是因为它们能够使用 我们的界面,而不是要求我们学习它们的界面。

对我来说,早期关于“快速工程”的炒作从来都毫无意义。它假设人工智能的成功,需要成为一个懂得如何用人工智能语言沟通的“人工智能私语者”。但根据我的经验,与人工智能合作得好,与其说是学习与人工智能对话的特殊方式,不如说是成为一个清晰的沟通者,就像一位优秀的老师或优秀的经理一样。

现在想象一下:如果人工智能成为各种系统之间新的可塑性中间层,会怎样?它不仅仅是一个工具,而是一个自适应的桥梁,能够让其他僵化的标准化系统良好地协同工作。如果人工智能能够让互操作性几乎无摩擦——适应每个系统和环境,而不是强迫人们去适应它——那将带来变革。不难看出,这种转变可能会远远超出技术层面,波及到我们组织机构、提供服务和设计学习体验的方式。

请考虑两个具体的例子,看看这将如何改变学校。首先,我们目前的系统严重依赖书面文字作为评估学生学习的媒介。需要明确的是,写作是学生需要培养的一项重要技能,可以帮助他们在学校之外的世界中找到方向。然而,与此同时,学校过度依赖写作作为展示学习成果的媒介,这给有学习障碍、神经多样性学习者或英语学习者带来了障碍——他们可能对知识有很深的理解,但却难以通过英语写作表达出来。人工智能可以充当这个自适应层,让学生能够通过语音、视觉呈现,甚至是母语来展示他们的知识并获得反馈,同时仍然确保对他们的实际理解进行严格的评估。

其次,显而易见的是,学生们的学习进度并非一致——然而,我们却强制要求学习按照统一的时间表进行,因为当教师独自负责讲授内容并向学生提供反馈时,个性化的学习进度很快就会变得完全无法控制。因此,每个人都会在每个内容单元上花费相同的周数,然后一起进入下一个课程或年级,无论个人准备情况如何。在这里,人工智能可以再次充当自适应层,跟踪学生的个人学习进度,然后根据学生的个人需求提供定制的反馈、讲解和练习机会。

第三,学校的成功不仅仅关乎学业,还在于懂得如何驾驭这个体系本身。学生需要知道如何向老师寻求帮助,如何追踪试镜和面试的公告,如何填写选课文件,以及如何争取进入自己心仪的课程。这些驾驭技能对于大学申请和经济援助来说尤为重要。然而,这其中存在着巨大的不公平,因为这些知识很大程度上来自于社会资本——拥有已经了解体系运作方式的父母或同龄人。人工智能可以充当自适应教练,引导学生走出官僚主义的迷宫,而不是指望他们自己摸索或依靠家庭关系来解读体系,从而帮助创造公平的竞争环境。

人工智能可以帮助解决错误信息问题吗?

与我交谈过的大多数人都对这个副标题中的想法持怀疑态度——这是可以理解的。

我们都见过这样的新闻标题:深度造假、虚假事实、炮制点击诱饵的机器人。许多人认为,人工智能只会加剧虚假信息,而不是解决它。另一些人担心,过度依赖人工智能可能会降低人们的批判性思维,使其变得更加被动,思维方式被外包,而不是得到提升。

但如果这不是故事的全部呢?

这给了我希望:人工智能发现虚假信息和大规模揭露真相的能力,可能是其最强大且被低估的能力之一。

首先,思考一下虚假信息为何如此具有破坏性。这不仅仅是因为人们相信了错误的事实,而是因为人们对真实和现实构建了截然不同的思维模式。分歧导致他们失去了任何共同的推理基础。一旦发生这种情况,对话就会破裂。事实不再重要,因为事实无法共享。

传统上,打击虚假信息需要人类的判断和艰苦的研究,这既耗时又规模有限。但人工智能改变了这一切。

与任何个人不同,大型语言模型 (LLM) 可以从庞大的事实、概念和语境知识库中汲取知识。LLM 从训练数据中获取的知识远比任何人一生所能学到的知识都要多。当与网络浏览器或引文数据库等工具结合使用时,它们可以调查论断、核实来源并解释差异。

想象一下,阅读一篇社交媒体帖子时,AI 会提供侧边栏摘要,标记出误导性统计数据,提供缺失的背景信息,并链接到可靠来源。无需几个月后,也不会被淹没在评论中,而是在内容出现时立即显示。实现这一目标的技术早已存在。

当然,AI 作为事实核查员并非完美无缺。大型语言模型在生成文本时,并非基于精确的事实查询,而是根据训练结果对正确答案进行概率性猜测,而这些猜测有时是错误的。(就像人类专家一样,AI 也会利用自身的专业知识来生成答案,有时也会出错。)AI 也存在自身的盲点和偏见,这些偏见源于其从训练数据中继承的偏见。 

但从很多方面来看,人工智能的幻觉和偏见,比互联网上数百万人类大脑产生的虚假陈述和偏见更容易被发现和处理 。人工智能的决策规则可以被核查,其输出可以被测试,其产生幻觉的倾向也可以被抑制。这使得它成为一个提升信任的有希望的基础,至少与我们目前所处的混乱、分散的错误信息相比是如此。

这并不意味着人工智能会消除错误信息。但它可以显著提高准确信息的可访问性,并减少验证真相所需的摩擦。当然,大多数平台还没有内置人工智能事实核查功能,即使有,这种方法也会引起严重的担忧。我们信任这些公司优先考虑的信息来源吗?他们系统遵循的规则?指导他们工具设计的激励措施?但除了信任问题之外,还有一个更深层次的担忧:当人工智能被动地标记错误或提供更正时,它有可能将用户变成“答案”的被动接受者,而不是主动寻求真相的人。学习需要努力。这不仅仅意味着拥有正确的信息——还意味着提出好的问题、批判性思考和审慎判断。这就是为什么我认为教年轻人如何使用人工智能最重要的事情之一,是把它当作一种工具,用来审问他们遇到的信息和想法——无论是在线的还是来自人工智能本身的。就像我们教学生校对他们的写作或仔细检查他们的数学一样,我们应该帮助他们养成使用人工智能来激发他们自己的探究思维习惯——质疑主张,探索观点,深入挖掘真相。 

然而,这只是故事的一个侧面。尽管人工智能在事实核查方面可能非常强大,但它不可避免地会被用来制作深度伪造视频,并散布具有说服力的谎言。

人工智能并非只有好坏之分,而是兼而有之。教育的未来取决于我们如何运用它。

围绕人工智能的许多评论都立场强硬:它要么是推动人类进步的强大力量,要么是对人类的可怕威胁。这些大胆的观点,构成了引人注目的标题和令人信服的论点。但现实是,世界一片混乱。大多数变革性创新——包括人工智能——都是利弊兼具的。

历史上充满了科技在深刻推动社会进步的同时,也带来了新的风险和挑战的例子。工业革命使大规模生产商品成为可能,极大地改善了数十亿人的生活质量。但它也加剧了污染和环境恶化。互联网连接了社区,开放了知识获取渠道,加速了科学进步,但也助长了虚假信息、成瘾和分裂。核能可以为城市提供动力,也可以摧毁城市。

人工智能也不例外。它会做出令人惊叹的事情,也会做出可怕的事情。问题不在于人工智能对人类是好是坏,而在于其用户和开发者的选择将如何决定其发展方向。 

由于我从事教育工作,我一直特别关注人工智能对学习的影响。人工智能可以让学习更引人入胜、更个性化、更容易上手。它可以用多种方式解释概念,根据你的水平进行调整,提供反馈,生成练习题,或总结要点。这就像拥有一位随时可用的助教,可以加速你的学习。

但它也可能使学习过程短路。既然人工智能能直接给出答案,为什么还要费力解决难题呢?既然可以让人工智能帮你写论文,为什么还要费力思考一个想法呢?即使学生真的有学习的意愿,人工智能也能制造出学习的假象, 而学生的理解却很肤浅。

这种双刃剑的动态不仅限于学习领域,在职场中也同样明显。人工智能已经让个人更容易地承担以前需要整个团队共同努力的创业项目。初创公司不再需要聘请设计师来设计标识,营销人员来打造品牌资产,或编辑来撰写新闻稿。在不久的将来,你甚至可能不需要懂得编程就能开发软件产品。人工智能可以帮助个人以更少的障碍,将想法付诸行动。对于那些对创业感到不知所措的人,人工智能可以一步步指导他们。我们或许正处于人工智能开启的创业热潮前沿。

然而,与此同时,人工智能正在取代许多人们过去赖以开启职业生涯的入门级知识型工作。诸如起草备忘录、进行基础研究或管理电子表格等曾经由初级员工完成的任务,如今越来越多地可以由人工智能处理。这种转变使得应届毕业生更难进入职场并在工作中提升技能。

缓解这些挑战的一种方法是构建旨在支持学习而非规避学习的人工智能工具。例如,可汗学院的 Khanmigo 帮助学生批判性地思考他们正在学习的内容,而不仅仅是给他们答案。它鼓励创意,提供反馈,并促进更深入的理解——就像一位体贴的教练,而不是捷径。但人工智能带来的更深层次的问题是,我们的教育体系常常将学习视为一种达到目的的手段——一系列在获得文凭的道路上需要跨越的障碍。为了真正让学生为一个由人工智能塑造的世界做好准备,我们需要重新思考这种方法。首先,我们不应该只教授人工智能已经擅长的技能。其次,我们应该让学习更多地关注追求学生真正关心的目标——那些需要好奇心、批判性思维和毅力的目标。我们不应该训练学生遵循既定的道路,而应该帮助他们学习如何规划自己的道路。在一个职业道路变得越来越难以预测的世界里,这一点尤为重要,而机遇往往需要我们与企业家联系在一起的那种主动性和适应性。

简而言之,人工智能只是一把最新的科技双刃剑。它既可以支持学习,也可以阻碍学习。它可以促进创业,也可以取代入门级工作。关键不在于断言人工智能是好是坏,而是要认识到它兼具好坏,然后有意识地塑造它的发展轨迹。 

这一轨迹并非仅由技术能力决定。谁来为人工智能付费,以及付费的目的是什么,将决定它最终是发展成为支持人类学习、专业知识和联系,还是利用我们的注意力、抢走我们的工作、取代我们的人际关系。

究竟是什么决定了人工智能是有益还是有害?

当人们谈论人工智能的机遇和风险时,话题往往集中在该技术的能力上——它可能做什么,它可能取代什么,以及未来将带来哪些突破。但仅仅关注该技术的作用——无论其好坏——并不能说明全部。技术背后的商业模式会影响其发展方向。

例如,当广告商成为付费客户时(就像许多社交媒体平台一样),产品往往会不断演变,以最大限度地提高用户参与度和平台停留时间。这便是我们最终走向“末日滚动”的原因——无休止的内容推送经过优化,以吸引我们的注意力,以便公司可以向我们展示更多广告,而这往往是以牺牲我们的身心健康为代价的。

这种激励机制在人工智能领域尤其危险。如果将超级智能的说服工具与垄断用户注意力的动机结合起来,其结果将极具操纵性。这也引发了我的同事朱莉娅·弗里兰·费舍尔(Julia Freeland Fisher)一直提出的一个担忧:如果人工智能系统开始取代人际交往,会发生什么?如果人工智能成为你寻求友谊或情感支持的首选,它可能会挤占你生活中的真正人际关系。

人工智能最终是否会破坏人际关系,很大程度上取决于它的盈利模式。一个旨在吸引你的注意力并让你不断回头的人工智能,可能会试图成为你最好的朋友。但一个旨在帮助你解决现实世界问题的人工智能,其行为方式则有所不同。这种人工智能可能会说:“嘿,我们聊了一会儿——为什么不尝试一下我们讨论过的内容呢?”或者“听起来是时候休息一下,和你关心的人联系一下了。”

一些大型人工智能公司做出的决定似乎令人鼓舞。OpenAI 首席执行官 Sam Altman 表示 ,采用广告将是最后的手段。“我不是说 OpenAI 永远不会考虑广告,但我总体上不喜欢广告,而且我认为广告加人工智能对我来说有点特别令人不安。” 相反,大多数像 OpenAI 和 Anthropic 这样的人工智能开发商都转向了用户订阅,这种激励机制不会轻易让人上瘾。OpenAI 也在探索以人工智能为中心的硬件商业模式——这似乎也是另一个对用户福祉更有希望的实验。

到目前为止,我们一直在讨论随着企业为个人消费者开发技术,人工智能将走向何方,但还有另一个角度值得思考:人工智能如何被应用于职场。

人们最大的担忧之一是,人工智能将被用来取代人类,这不一定是因为它能更好地完成工作,而是因为它更便宜。而这一决定通常取决于激励机制。目前,企业为每位员工支付高额的工资税和福利,但投资软件和机器时可以获得税收减免。因此,从纯粹的财务角度来看,用技术取代人力似乎是明智之举。在《 曾经和未来的工作者》一书中,奥伦·卡斯探讨了这个问题,并建议改变这种模式——增加对资本的征税,减少对劳动力的征税——这样企业就不会为了省钱而被迫裁员。这种改变不会阻止企业使用人工智能,但它会鼓励企业以补充而非取代人类员工的方式部署人工智能。

目前,尽管人工智能公司缺乏可持续的商业模式,但它们却受到投资者资金的支撑。投资者愿意为目前收入微薄甚至没有收入的公司提供资金,因为他们看到了未来巨额利润的潜力。但这种投资者模式也给公司带来了快速增长和尽可能多获取用户的压力,因为规模往往是风险投资支持科技公司成功的关键指标。这种快速增长的动力可能会促使公司优先考虑用户获取,而不是深思熟虑的产品开发,这可能会以牺牲安全、道德或长期后果为代价。 

鉴于这些现实,家长和教育工作者可以做什么?首先,他们可以成为精明的消费者。市面上有很多人工智能工具,他们的选择至关重要。与其简单地选择最有趣或最实用的工具,不如支持那些商业模式和设计选择能够体现对用户福祉和社会影响的关注的公司。

其次,他们可以发声。记者、教育工作者和家长都有平台——无论是正式的还是非正式的——来提出问题、分享担忧,并表达他们对人工智能公司的期望。公众对话有助于塑造媒体叙事,进而影响市场力量和政策决策。

第三,他们可以倡导智能、平衡的监管。正如我上文所述,人工智能的监管不应呈现为非好即坏的局面。合理的护栏可以确保人工智能的开发和使用服务于公众利益。正如公司价值网络中的客户和投资者影响其优先事项一样,政策制定者作为价值网络的参与者,也可以在市场激励不足的情况下,通过制定促进普遍福利的智能政策,发挥建设性作用。

总而言之,一家公司的价值网络——它的投资者是谁,谁为其产品付费,以及他们使用这些产品的目的是什么——决定了公司优化的目标。在人工智能领域,这种选择不仅可能影响技术的发展方向,还可能影响它如何影响我们的生活、人际关系和社会。

其他阅读

AI 或将取代你的工作,但它也将创造这 22 种新职业

对话图灵奖得主Joseph Sifakis:人工智能可以进化得更聪明,但无法完全超越人类

世界顶尖数学家在测试中震惊地发现,人工智能模型已经接近数学天才了

对话耶鲁大学教授:优绩主义为什么成为精密运转的系统性陷阱 | Edu指南专访

牛津大学教授:AI 时代,我们对教育的长期投资可能会失效 | Edu指南专访

新东方2025财年第三季度业绩:总营收11.8亿美元,新教育业务同比增长35%

AI 巨头紧密布局,Google、OpenAI、Anthropic 教育应用加速进入院校课堂

2025 年 Q1 教育科技:AI 推动,5 家公司获投额分别超 1000 万美元

终身学习时代来了:现在变得更聪明,是一项全职工作

对话社会学家:现代文化正在发生颠倒,人们把工作视为家,把家视为工作 | Edu指南专访

头部教育公司最新季度业绩:新东方稳步推进,好未来、高途增长强劲

和高校教授聊聊:人工智能如何变革我们的工作与教育 | Edu指南专访

8 款出色的 AI 数学工具

人工智能无法取代的 8 类工作

人工智能真的会鼓励学生作弊吗?

为什么人工智能机器人不太可能取代人类教师 ?

人工智能对计算机科学教育的影响

观点:人工智能为什么不会“解决”教育问题?

“人工智能无法取代教学,但可以让教学变得更好 ”

人工智能在高校教育中的应用

30 款让教师工作更轻松的 AI 工具

生成式 AI 在教育中的应用与挑战

AI 在教育中的优势与风险

人工智能在教育中的 8 项示例

人工智能在教育中的 43 种用途

10 款教育 AI 工具用例

和心理学教授聊聊:积极思维是一种可以练习的技能 | Edu指南专访

和斯坦福商学院“人际互动之父”聊聊:孤独社会,如何与他人建立深度关系 | Edu指南专访

和高管教练聊聊:新的一年,如何制定目标?|  Edu指南专访

和《优秀的绵羊》作家聊聊:当下精英大学的问题与信心的重建  | Edu指南专访

和《睡眠革命》作者聊聊:睡眠教练如何帮助顶尖运动员达到最佳表现 | 专访

图片
图片

本文来自微信公众号“Edu指南”,作者:托马斯·阿内特

发表评论