香港118现场直播站

搜索
你想要找的

当前位置: 首页 / 新闻栏目 / 媒体关注 / 正文

人工智能可能带来“人工愚蠢”,它会让我们“变傻”吗

2025年02月14日

  是否,站在人类终结时代的地平线上,唯有人工智能?

  当AI巅峰时,人类智慧将聚焦价值本源与伦理锚点,以非结构化认知、元伦理构建及人机共生拓展思维边疆,在技术理性中重塑人文灵性,守护不可编码的意识特质与存在意义。

  ——被问到AI时代人类的定位后,DeepSeek如此回答

  

思考需要他者、需要碰撞


  上观新闻:在人工智能急速发展的背景下,是什么最终驱动您写下《再见智人:技术—政治与后人类境况》(以下简称《再见智人》)这本书,并且以“再见智人”为题?

  吴冠军(香港118现场直播站教授、政治与国际关系学院院长、奇点研究院院长):“智人”这个词,本来就是我们从物种意义上的“自称”。10年前,尤瓦尔·赫拉利写的《人类简史:从动物到上帝》有效地将这个词带入跨学科的研究视域。

  今天,因为人工智能的出现,我们可以对“智人”做很多反思性的思考。“智人(Homo Sapiens)”这个名字,实际上是人类自己给自己起的。假设未来有一个人类文明之后的文明,他们会怎样称呼我们?这是一个新的视角。

  在人工智能不断发展之际,尤其是从2022年11月(OpenAI宣布正式推出ChatGPT)开始,我们震惊地发现生成式人工智能在很多领域不比我们差,甚至还超过我们。图灵奖得主约书亚·本吉奥甚至认为以ChatGPT为代表的大模型已经通过了图灵测试。有这样的人工智能站在旁边,以“智”自我命名的人类,到了需要证明自己的时候。

  我认为这是一个非常好的时刻,促使我们重新思考智人的“智”在哪里。以前在现代性框架内,不存在这样一个参照物或参照系。我把研究大模型的新著题名为《再见智人》,众所周知“再见”在汉语中是个双关语。它可以是跟“智人”道别,也可以是再次见到“智人”——在新的地平线上,人类需要重新界定自己的“智”。我们需要用一种十分严肃的方式来问这个问题:我们的“智”体现在哪里?重新自我认知,当下正是紧要关头。

  上观新闻:就在几个月前,多位参与推动人工智能发展的顶级科学家共同发表了一封公开信,呼吁建立更好的“安保措施”,担忧人工智能滥用给整个人类带来严重后果。

  吴冠军:面对人工智能开始在智能方面追上人类甚至有所超越,有的人很兴奋,因为觉得这个时代充满可能性;也有很多人倍感焦灼,甚至认为应该限制其发展。人类的智能面对人工智能是如此捉襟见肘,这实在太让人痛苦了。

  然而即便我们同意后一种主张,当下的主权国家与全球资本主义的既有格局,使得人工智能的发展像军备竞赛那样无法减速。

  去年初,《自然》杂志上有一篇神经科学研究论文,题目叫作《It takes two to think(要二才能思)》。换句话说,从来没有“一个人的”思考,思考结构性地需要“二”——两个智能体。我是《再见智人》的作者,然而我在写作前和写作过程中却是在同大量当代乃至过去时代的思考者进行“对话”,这本书绝不是一个人思考的产物。

  思考结构性地需要他者、需要碰撞。今天,我们有了人工智能,这是一个非常棒的时刻,因为与我们对话、共思的同行者又增加了。我现在就经常和ChatGPT一起思考。

  

人工智能是个“黑箱”


  上观新闻:此前,另一封公开信似乎掀起了更大争论。2023年3月,包括马斯克等在内的千名科技人士发表公开信:呼吁暂停训练比GPT-4更强大的AI系统,时间至少是6个月。这种又期待又害怕的矛盾,似乎是各个阶段人们面对迅速生长的人工智能的一种典型情绪。

  吴冠军:当年这封公开信是由麻省理工学院的物理学家、计算机科学家泰格马克起草的。现在我们在近两年后回头看,这封信的呼吁是失败的,就连在上面签名的马斯克本人都根本没有停止开发人工智能。

  关于这封信,我与泰格马克有过一次讨论。泰格马克呼吁“keeping AI under control(将人工智能置于可控范围内)”。理由源自他提出一种计算机研究的路径——“mechanisticinterpretability(机械式的可阐释性)”。因为目前的大模型即便对于开发者而言亦是一个“黑箱”,换言之,我们只知道输入了什么,以及最后的输出,一个特别棒的文本或视频,但研究者对中间的“生成”过程并不全然掌握。

  这就带来了一个巨大的风险,因为过程是不透明的,人类就无法参与对生成结果的控制,所以泰格马克由此提出“必须控制”的倡议。

  当时我跟他的争论点是:“control(控制)”预设了“power(不管是能源意义上的开关机键,还是政治意义上的权力)”,控制意味着必须握有控制的权力。那么,谁握有这个权力?或者说,当泰格马克说“Let us not to lose control”时,谁是这个“us(我们)”?泰格马克回答“Of course,this ‘us’ is humanity(当然这个控制者是人类)”。那么问题就是,从人类文明史来看,还没有以“整体人类”为主体来做过一件事。

  要求严格控制人工智能的科学家们纠结的点在于“人工智能是个黑箱”。然而我们有没有想过,人类本身的智能载体,是一个包含800亿个神经元的神经网络,就今天的脑科学而言,每个人对他人而言都是一个黑箱。我们同样只能看到一个人的输入与输出,这个黑箱中有着怎样的过程,对我们同样是不透明的。

  对于人类智能的“黑箱”,我们发明了信任——我把信任称作为智人的一个根基性的智慧,因为它成为社会化生活的基础。用一个极端的例子,在恐怖袭击中,“独狼”式恐怖袭击比团队作案的袭击更难防范,美国不少枪击案的作案者,可能之前就是邻居或同学,毫无征兆。尽管这难以防范,但并没有让人们从此不敢再进入公共场所或校园。

  上观新闻:您的意思是既然我们选择把信任给了彼此,为什么不能把它给同样是黑箱的人工智能?

  吴冠军:不妨把人类的智能和人工智能放在一起看。当我们批评今天的人工智能有幻觉、妄想、会说错时,想一想我们人记错、说错的可能更多。如果我是一个哲学领域的外行,想知道德里达的“解构”理论,是问一个德里达研究专家还是ChatGPT?后者的答案可能更靠谱,因为即使是最牛的德里达专家,也没有一个人能把德里达所有著作全部背下来并随时精准重复。

  德国社会学家尼古拉斯·卢曼说,任何信任都是信息透支。什么叫透支?你想尽办法从各种途径搜集的关于对方的信息,都不足以让你赋予其完全的信任。

  刘慈欣在他的科幻小说《三体》中,使用了“猜疑链”这个词。猜疑一旦取代信任,那么这个链条会无限延续。那么,怎么打破“猜疑链”?除了通过互动沟通降低猜疑程度之外,还需要一次“跳跃”,即一个付出信任的决断。这种信任是一种政治智慧,令人类社会出现合作的可能。人类凭借信任跨越猜疑完成了那么多了不起的事,当人工智能出现后,我们有必要重新研究信任问题。

  

人工智能会让我们“变傻”吗


  上观新闻:您书里有一个观点非常有冲击性,即人工智能可能带来“人工愚蠢”。一些高校目前已经有了新情况——学生利用AI进行学习、研究、写论文已经非常普遍,而这种“高效辅助”似乎正在影响教育的达成。在您看来,除了教育领域以外,“人工愚蠢”还可能波及哪个领域?

  吴冠军:随着人工智能变得越来越智能,我们可能变蠢。人类学观察告诉我们,赤道附近的文明发展速度比温带慢,恰恰是因为那里条件太好了,随便吃个果子糖分就很高,不会饿肚子,更不会挨冻。智能技术会让我们(至少我们中不少人)不必亲身参与智能性的实践,长期效应就是变得愚蠢。比如,有了计算器后很多人的心算能力就“废”掉了。随着智能技术的指数级迭代,人们会越来越多地放弃参与智能活动,你以前是有这个能力的,但是你自己荒废了。长此以往,人类在生物演化上也会退化的。

  今天,很多人爱刷短视频。当跟抽象文字打交道时,其实大脑是稍微有点不舒服的,因为我们人类的视觉神经一开始不是处理抽象文字的。森林里,我们的祖先看到一只猛兽,马上逃跑。我们用视觉神经去处理抽象的东西时间不长,就几千年的时间,所以阅读是不舒服的。

  但就是因为这些不舒服,使得我们有了更多的抽象思考能力、分析能力。但是用刷短视频代替阅读,恰恰会使得我们的这个能力闲置,长此以往陷入“退化”。若我们在生物意义上一代一代“变傻”,低智到一定时候,我们就真的没法参与真正认真的思考了。很多时候刷短视频我们“哈哈哈”笑,甚至连笑话都不是一整段的了,故事逻辑都不要了,反正只要某个点,“哈哈哈”就笑起来了。

  这样的状态,是值得深思的。

  物不同而理同,说到生成式人工智能大模型,比如ChatGPT也一样。学校里很多开放性课堂作业需要花时间去规划、去调研、去争论、去归纳,现在靠大模型来一番输入输出,成品稍加修改提交老师,教育和练习的基本目标达到了吗?答案显然是否定的,是它帮你做了阅读、调研、解读、思考……

  当用这种方式与人工智能“合作”的时候,是在允许它代替完成本该我们承担的智能性的、大脑皮层参与的任务。哺乳动物中,只有人类的大脑皮层才有那么多皱褶,一层一层长出来不容易,不用了或许很快就会平下去。

  那么是不是说,我们就应该为此而禁掉ChatGPT、中断发展人工智能?不,我们真正应该改变的是与后者的合作方式。

  人工智能可以是给教育带来负面影响的“代笔枪手”,同样可以是带来可靠分析与启发的优秀科研伴侣。前者让学生丧失了学习的主体性,后者让学者更愿意做科研,因为它节省了以前大量的重复低效非创造性劳动的时间,令做科研这件事的爽点越来越高。

  所以我的观点是,人工智能把我们“变傻”的原因在于我们允许它代替自己的智能实践,是自己放弃对该实践的主导和参与,而非技术本身。它使我们变得更“傻”的唯一可能性,是我们自己允许它让我们变“傻”,在这个意义上,才会出现“人工愚蠢”。

  当下,技术智能正在指数级增长,而应与之匹配的政治智慧却鲜有发展,甚至倒退。

  上观新闻:然而不可否认的是,追求舒适和高效是人类的本能,我们该如何抵抗这种技术浪潮可能带来的“去智化”?这似乎是无解的,因为无论从效率、从慕强的角度来看,发展趋势都很难阻挡,就类似我们无法减少短视频对长阅读、长视频的巨大冲击。

  吴冠军:首先应有所意识。要抵抗“去智化”,就需要重新定位我们人类之智的落点。我在香港118现场直播站政治与国际关系学院工作,试问,我们能不能让ChatGPT来为我们解决俄乌冲突或中东问题?它会回复你一大堆已有做法的总结归纳,但问题恰恰是已有做法并不能解决困境。人工智能无法替代智人政治智慧的持续性创造。

  所以,即便人工智能在下围棋乃至气象学与结构分子生物学研究上超过人类,但它并没有全部覆盖人类之智。所以我们需要面对人工智能重组我们自己的智,在这些人工智能无能为力的地方投入更大的精力。

  20世纪50年代诺伯特·维纳出过一本书——《人有人的用处:控制论与社会》,从偶然性的宇宙观念和历史上的控制论谈起,围绕着语言、学习、有机体、法律、通信、社会政策和知识分子的作用等各个方面讨论了控制论的应用,展示了从控制论的观念来观察社会所产生的情景。这本书的大背景是工业革命引发了关于机器能否代替人的讨论。在今天这个智能时代,面对各种各样的大模型,我们很有必要重新定义“人的用处”。

  人类学家汤因比晚年写的一本书里,有一句话说得很好,“我们今天陷入人类自己制造的僵局里面”。这个僵局不是天灾,是我们人类自己把自己卡“死”了,走不出来——譬如今天的国际格局,譬如“人类世”的生态变异。如何摆脱这个人类自我施加的困境?未来需要更多思想者参与、投身进去。

  我的这本书的副标题是“技术—政治与后人类境况”,想表达的是,技术取代不了政治,政治的智慧、政治的思考,这是我们今天智人的一个特别大的用武之地。这不仅是一种选择,更是一种需求。

  在社会层面上,我们要认可有大量的人原来的工作、原来的研究、原来的岗位被取代了。当人类面临这样的社会新问题时,尤为需要政治智慧。

  上观新闻:是否可以这样理解,即从伦理上来说,这是个体的选择和命运;从政治意义上来说,甚至是国家层面、社会层面的对策,要有提前的思考?

  吴冠军:技术和政治,构成了智人发展文明的两个基石。当下,技术智能正在指数级增长,而应与之匹配的政治智慧却鲜有发展,甚至倒退。

  上观新闻:我注意到您书里面有一句话,似乎就讲到社会层面的事,“人类正面临其文明史上第一次全面出现‘不被需要’的困境”。

  吴冠军:我们需要面对“‘不被需要’的政治学”,不是政治学“不被需要”,而是处理智人个体大范围“不被需要”的政治学。我们如何来应对这样的困境?赫拉利所说的“无用之人”将何去何从?

  为解决这一问题,美国曾有人提出“UBI”,即universal basic income(普遍的基本收入),社会上所有人每月啥也不用干就能获得1000美元收入,但社会马上就面对钱从哪里来的问题。即使如此,UBI依然是政治智慧层面上的一次创新。在人工智能指数级迭代的奇点时代,我们需要这样的政治智慧的探索。

  人工智能迅猛发展的时代,也必须是政治哲学的大时代。今天政治学上用的核心理念、概念,都还是几百年前的政治哲人们创新出来的。面对人工智能能动者的挑战,人类能动者并不应直接放弃控制或继续幻想能够拥有控制。能否以富有智慧的方式来面对这个挑战,这也许就是后人类境况下人类的首要任务。

  

重新寻找自己的生态位


  上观新闻:还有一个问题现在争论得很激烈,因为各方利益,所以没有一个标准答案。现在训练人工智能的模型很多,训练模型需要用人类世界创造出来的东西,特别是媒体、艺术各方面精神文明的创造作为养料。人类创作者认为你把我的创作拿去喂养人工智能长大,用来代替我们,我的版权必须得到特别保护和补偿。这是一种伦理上的冲突。对此您怎么看?

  吴冠军:我们每个人理解问题都是出于我们所在时空环境的坐标。往前推几百年,“版权”这个概念都是没有的;再过个几十年、几百年,这些词可能也不存在了。视野的尺度可以放得更大更远些。我甚至会说,如果你的作品没有被人工智能纳入训练,或许就意味着你未能在文明史中留下自己的痕迹。

  上观新闻:可是这事关生存,是饭碗问题。

  吴冠军:是的,所以这不只是个伦理学的问题,而是政治学的问题。单就“版权”而言,这个世界一直在变化,你怎么去理解变化?人们觉得没有变化或不该变化,往往因为生命太短暂,丈量的尺度太小。

  上观新闻:我看到伦敦的创作者们就此提出激烈的反对。对此,训练人工智能模型的技术总监回应的是:“我很担心如果不让我们用英国的这个素材,我们只能用别人的素材,训练出来的东西是不适用于英国的。”

  吴冠军:所以应该抓紧时间重新寻找自己的生态位。人工智能在很多地方确实可能做得比我们好,同时也把我们从中解放出来,让我们有可能从事更能展现智人之智的活动。人工智能发展的同时,它的挤压迫使人类第二次生长,重新定义智慧。

《再见智人:技术—政治与后人类境况》

吴冠军 著 北京大学出版社


阅读原文


记者彭德倩

来源上观新闻

编辑丨王越月

编审丨郭文君


更多阅读:

解放日报丨重新定义"人的用处"