从教室、客厅到会议室、工厂,人工智能正被广泛用于快速高效地自动化任务,从而释放宝贵的时间和资源。它作为个人助理的普及性,使得近年来人工智能行业估值,达到了令人瞠目结舌的程度。

2020年,伯克希尔·哈撒韦公司旗下的Businesswire估计,全球人工智能市场规模约为469亿美元。五年后,财富商业洞察公司的一项研究估计,全球人工智能市场价值超过2940亿美元——价值增长了惊人的527%。

根据纳斯达克总结的Dell’Oro集团的一份报告,预计到2028年,全球十大科技公司在数据中心上的支出将超过1万亿美元。与此同时,高盛预测,到2030年,全球数据中心的电力需求将增长160%,届时数据中心在全球总电力消耗中的份额将从目前的1-2%,增长到本十年末的3-4%。

然而,值得注意的是,围绕人工智能的种种炒作,遵循着一种熟悉的模式,可以用邓宁-克鲁格效应来最好地描述:当某件事物感觉新颖而令人兴奋时,我们往往会高估我们对它的理解,以及它在一夜之间改变世界的潜力。

首先,有必要了解人工智能是什么——以及它不是什么。

人工智能究竟是什么?

虽然“人工智能”是近十年来科技领域的流行语,但这个术语经常被随意使用,而没有真正理解人工智能究竟是什么。

简而言之,人工智能指的是机器利用算法和数据,完成看似人类智能的任务,但它们的思维方式与人类截然不同。在谈论人工智能时,“智能”一词的争议性更多在于其便利性以及营销目的——正如一些专家指出的那样,而非真正反映人类思维。

在 2024 年出版的一本书中,华盛顿大学语言学教授 Emily M. Bender 博士和分布式人工智能研究所 (DAIR) 研究主任、谷歌伦理人工智能团队前高级研究科学家 Alex Hanna 博士写道:“人工智能是一个营销术语,并不是指一套连贯的技术。”

因此,我们应该问:这项技术(仍处于相对初级阶段),真的足以成为全球大规模工人失业的理由吗?

在他们的著作《人工智能骗局:如何对抗大型科技公司的影响并创造我们想要的未来》中,两位作者指出,虽然 19 世纪英国的卢德分子抗议威胁他们工作和社区的机器,但他们并非反对技术本身。

“一些卢德分子,特别是织工,热衷于评估其作品质量的技术,例如,能够计算每英寸的线数,以便在市场上获得更高的价格,”本德博士和汉娜博士写道。

“卢德分子反对的是控制和胁迫技术,他们担心的是工作岗位的丧失、健康和社区的破坏。”

在2025年,我们可以清晰地看到,在那些用自动化机器取代人类工人的行业中,大规模采用人工智能所面临的阻力,与当时的情况有诸多相似之处。幸运的是,这种趋势或许只是暂时的。麻省理工学院最近的一项研究发现,尽管企业投资高达400亿美元,但高达95%的生成式人工智能试点项目,未能取得可衡量的回报。

三思而后行

自2022年起,瑞典金融科技公司Klarna裁减了约700名客服人员,转而使用人工智能工具。但该公司在2025年承认,此举导致服务质量下降,客户满意度降低。今年5月,Klarna开始积极重新招聘人工客服,以恢复其客服模式。

在科技产业链的上游,IBM也曾因自动化多项人力资源职能,在2023年通过其“AskHR”平台裁减约8000个职位,现在它改变了策略。这家科技巨头发现,虽然自动化可以处理日常任务,但无法取代人类在处理复杂问题时的洞察力。此后,该公司增加了需要人类判断的岗位招聘。

2025年7月,澳大利亚最大的银行联邦银行(CBA)宣布,在推出人工智能语音机器人后,将裁减45个客服岗位,并声称此举每周可减少约2000通电话。几周后,由于人工智能语音机器人在关键任务上的表现不佳,该银行又重新聘用了这些员工。

多家公司目前正在悄悄地取消因人工智能而裁员的计划,或者重新招聘相关岗位,这主要是因为人工智能工具未能达到预期效果。组织设计和劳动力规划平台Orgvue的一份报告发现,超过半数(55%)的公司“后悔因人工智能而进行的裁员”。

关于“人工智能泡沫”的传言

尽管许多人仍在大力宣传人工智能,及其所谓即将到来的继任者通用人工智能(AGI),但近几个月来,投资者对人工智能的热情明显降温。包括英国前副首相尼克·克莱格在内的知名人士警告称,人工智能行业“令人难以置信的疯狂估值”极有可能导致崩盘。

BBC 最近的一篇文章也表明,一些投资界的重量级人物,正试图从人工智能泡沫可能很快破裂的预期中获利。

据英国广播公司 (BBC) 近日报道,“在 2015 年的电影《大空头》中由演员克里斯蒂安·贝尔饰演的对冲基金投资者迈克尔·伯里(该片讲述了交易员通过预测 2008 年美国房地产泡沫破裂而赚取数百万美元的故事)已将注意力转向人工智能。 ”

“伯里先生的公司透露,它已购买了价值 11 亿美元的金融产品,即期权,如果人工智能相关公司英伟达和 Palatir 的股价下跌,这些期权将支付收益。”

简而言之,越来越多的分析师警告称,人工智能公司的股票开始下跌或停滞不前,因为围绕它们的炒作,似乎大于现实世界的结果。

接下来该何去何从?

对于那些在校园内整合了人工智能工具——但没有看到预期投资回报率的学校领导来说,他们仍然抱有谨慎的乐观态度。

在澳大利亚教育界,对人工智能的态度明显务实,联邦政府引入了保障措施,以确保人工智能得到深思熟虑、安全,且注重在课堂上取得有意义成果的采纳和使用。

根据《2025 年澳大利亚学校数字格局报告》,78% 的受访澳大利亚学校表示正在积极使用人工智能工具,20% 的学校计划在明年引入或增加人工智能的使用。

人工智能的采用和使用趋势也可以更广泛地看到,牛津大学出版社的一项全球调查发现,63% 的教师认为数字资源(包括人工智能技术)对学生的教育成果,产生了“显著的”或“一定的”积极影响。

牛津大学出版社生成式人工智能和机器学习产品专家亚历山德拉·托梅斯库在为《教育家》杂志撰写的一篇评论文章中写道:“在最近的一次会议上与教师们交流后,很明显他们对这项技术感到非常兴奋——主要是为了帮助他们进行课程规划和教学构思。然而,许多教师认为这项技术还不够可靠,不能仅供学生使用,并且他们也想知道这项技术的使用,将如何影响师生关系。”

然而,托梅斯库指出,教师们正在尝试使用生成式人工智能工具,发现这些工具虽然有用,但存在局限性。

“例如,我们与一所大学的副校长交谈,他说:‘如果以 1 到 10 分来衡量,我会给 ChatGPT 打 6 分:人工智能为我们提供了一个良好的开端,但我们需要依靠自己才能获得满分。’”

学生们现在还不应该独自使用人工智能。

领先的图数据库和分析公司 Neo4j 首席科学家 Jim Webber 博士表示,生成式人工智能技术在课堂上的风险显而易见,尤其是在 K12 中学阶段,因为学生们需要具备相当程度的独立学习能力。

韦伯博士告诉《教育家》杂志:“与能够帮助学生发现信息的搜索工具不同,LLM(大模型)的兴起,使得学生似乎可以毫不费力地完成作业。LLM提供的答案如此完美(至少表面上如此),以至于学生根本没有机会去解读和理解。”

韦伯博士警告说,这不仅有扭曲评分制度的风险,而且学生还会错过培养自己批判性思维能力所需的技能。

“虽然有人可能会说,学生可以通过复制粘贴现有的网络文章来完成这项工作,但大模型将这项工作提升到了一个新的水平。”

韦伯博士表示,驯服生成式人工智能的一种方法,是用精心挑选的高质量结构化数据训练语言学习模型,从而获得更好的性能和更像人类的反应,使它们在翻译、写作和编码等任务中更加准确和有用。

“这包括让大模型评估学生的作品,看看他们是否认为这是大模型写的——或者更实际地说,教育工作者可以发现学生写作风格的一夜之间发生了变化,”他说。

“但是,当你要求 ChatGPT 以特定风格写作时,比如‘用 12 年级学生的风格写一篇关于澳大利亚在一战中作用的文章’,这就会成为一场持续的战斗。”

韦伯博士还表示,图技术(一种将数据存储为实体及其连接的现代方法)可以使 LLM 更少偏见、更准确、更“好用”。

“当LLM模型使用经过精心挑选的高质量结构化数据进行训练时,可以降低出错的风险。”

发表评论