张亚勤:别把AI当老虎,我们才是主人! | 深网
繁体张亚勤是一个技术乐观派。
十年前,他在《人民日报海外版》撰文《“智能+”大风暴即将深刻影响世界》,预言:“‘智能+’将成为第四次工业革命的技术基石。”
十年后,在2025世界人工智能大会上,“AI教父”杰弗里·辛顿直言:“我们正在创造比自己更聪明的AI,这就像把一头老虎当宠物养在家里,指望‘消除它’是不现实的。”
尽管张亚勤与辛顿曾共同发起一家专注AI风险研究的机构,并且联合发布过多份警示声明,但他并不认同辛顿关于“AI终将吃人”的猛虎比喻。
“无论科研、产品还是政策层面,只要始终保持高度的风险意识,就能让AI朝着人类定义的方向演进。”张亚勤说道。
9月30日,IMF原副总裁、中国人民银行原副行长朱民与中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤在清华大学五道口金融学院展开一场深度对话。
这并非二人首次跨界对谈。早在两年前,朱民与张亚勤就“颠覆认知的AI时代与产业机遇”进行过一次讨论,彼时,张亚勤的观点是:“中国在大模型方面肯定是落后的”。
不过,随着技术发展突飞猛进,开源生态与闭源壁垒碰撞,“百团大战”蜕变为大模型主导的产业格局。如今,他有了不一样的感受。
作为“AI +”的提出者,张亚勤再次分享了他对“智能涌现”的理解、当下对AI +产业变革的判断,以及中国大模型跻身世界第一梯队的观察与信心。
9月30日,朱民与张亚勤在清华大学五道口金融学院对谈
以下为嘉宾对谈实录,经《深网》整理编辑,略作删减:
01
AI时代的“智能涌现”
朱民:大家好!我们非常荣幸地邀请到张亚勤,一起聊一聊“AI+”时代的创新与变革。
亚勤今年3月出版《智能涌现》。书中讲透了“涌现”的概念:当规模达到一定程度,量变会引起质变,智能也就“涌现”出来了。
此外,AI界的顿悟时刻也许是ChatGPT的出现,但我认为“AI+”的引爆点也许是DeepSeek的出现。亚勤早在五六年前就洞察到这一切,并付诸实践。我们两年前曾有过类似主题的对话,今天很高兴能继续讨论这个主题。
张亚勤:的确,这一轮人工智能最大的特点是“涌现”,体现在几个方面。其中一个是“代币化”。无论是文字、语音、图像,还是3D或4D时空信息,各种信息都可以被转化为统一的符号,其核心在于所有信息形式被映射到同一表征空间之中。
基于“代币化”,新一轮的生成式人工智能,如Transformer,其实是Predict the next token,才得以实现内容上的“创造”,生成出新的Token。但真正的质变发生在数据规模、代币数量和算力均超越某个临界点之后,此时系统开始展现出所谓的“涌现”。
当大语言模型的参数量突破百亿级别,会触发“规模定律”效应,也就是说,模型性能并非线性增长,而是随着规模扩大发生跃迁,从而涌现出未经编程的新能力。这是技术层面的涌现。此外,还有产业层面的。人工智能本身是一项颠覆性技术,但其更大的影响力在于它能作为赋能基础,涌现并深度融合到各产业中。
因此,代币化、规模定律、涌现效应是新一轮人工智能最核心的三个概念。
朱民:两年前你说大概20年到30年可以达到AGI水平,今天你怎么看?
张亚勤:我现在认为15到20年可以达到AGI水平。不过,我先稍微说明一下我对智能的三重定义。
一是信息智能,像ChatGPT这类系统,主要处理数字世界的信息。二是物理智能,指大模型进入物理世界,如无人驾驶、无人机、机器人等,让AI在现实环境中行动和交互。三是生物智能,涵盖脑机接口、新药研发、新型生物体设计等,本质是AI与生物系统的融合。
基于此,信息智能层面离AGI非常近,可能只需三四年;物理智能需要十年;生物和生命领域的智能大约需要15到20年。
朱民:再过15~20年,在座的各位是碳基生命,还是硅基生命?
张亚勤:未来会走向融合。我们作为碳基生命,有意识和主动性,而硅基生命是被动的助手,是我们能力的一部分。尽管它的智商可能远超人类,比如人类平均智商是120,它能达到1200,但它仍会听从我们的指令。
朱民:当人类拥有一个智商是人类10倍的硅基生命时,人与机器的关系会是怎样的?
张亚勤:我们仍是机器的主人,机器是我们的助理。就像蒸汽机时代,蒸汽机虽增加了人的体力,但仍听从人类指挥。这次人工智能革命把我们的脑力和智商增加很多倍,但AI仍要听我们的指挥。
这次人工智能革命与过去不同。ChatGPT出现后,我有三点感受:第一,它是人工智能时代的操作系统;第二,它是首个通过图灵测试的智能体;第三,它是通向通用人工智能的新方式。
朱民:你说未来碳基生命会有一个智力高10倍的硅基生命,但它是我们的助理。那智力低90%的主体怎么能掌控高智能的Agent呢?
张亚勤:从技术发展看,AI能力已远超人类,未来会发展成AI+Human Intelligence。但有几个关键问题:首先,硅基生命无自我意识,人类有,所以AI会听从人类指令;其次,AI必须“善良”,其本质应向善,这取决于我们提供的数据、算法框架、大模型架构及与人类价值观的对齐方式。但失控风险存在。人类进化缓慢,而AI发展指数级,未来人机融合中,人类步调可从容,机器步调快,如何协调快与慢,是需深入思考的。
朱民:你承认问题未完全解决,但你是乐观主义者。十年前你就提出“AI+”,对人工智能发展很乐观。人类演化曲线缓慢,而人工智能曲线指数级发展,但你对两种智能融合仍乐观。辛顿把AI比作可能“吃人”的“宠物老虎”,担忧比你多,你们在这一方面一致吗?
张亚勤:我们对未来风险有高度共识,还共同成立机构研究AI风险并发布声明。但我不同意他将AI比作终究会“吃人”的猛虎。只要保持高度风险意识,AI应能朝着人类定义的方向发展。人类有两种智慧:发明技术和引导技术发展方向的智慧,后者才是走向真正智慧的关键。
朱民:机器智慧指数型上升对人类发展提出更高要求,一方面是确定方向,另一方面是实施管控。你对AI发展方向和管控的乐观基础在哪里?
张亚勤:第一,从算法层面看,当前人工智能本质上仍是代码和程序,遵循基于统计规律设计的路径,未来希望融入更多因果推断机制。但这些代码规则始终由人类制定。
第二,人类有五千年文明和三次工业革命历程,每次技术变革都伴随风险与危机,但最终都在可控范围内化解。从三百年前到现在,人类生活品质大幅提升,说明技术创新虽有负面影响,但主体是正向的。
不过,有些技术如核武器,若能重新选择,人类可能不会选择这条路。互联网虽正向,但也衍生出一些“净负面影响”的现象,如某些社交网络传播机制和游戏沉迷。
朱民:你承认人工智能指数级增长可能带来的风险,这和辛顿是一样的。但你坚定地相信人的本质、人性和人的学习能力,以及智慧的发展。AI向善,AI向大众。
张亚勤:我们必须正视信息智能、物理智能和生物智能三个层面的挑战。
在数字与信息领域,风险显著。信息造假和虚假内容泛滥,生成式AI出现后,大量信息由AI生成且多为虚假,这些虚假信息又成为训练数据,导致更多错误。此外,还有模型幻觉、版权和知识产权侵害等问题。但这些风险总体可控,因为我们已意识到它们的存在。
进入物理智能阶段,风险直接威胁人身安全。大模型应用于无人驾驶、无人机或机器人系统,尤其是多智能体协同行为中,问题严峻。算法决策过程不透明,技术可能被恶意滥用,多个智能体相互联结时,风险呈指数级增长,潜在危害大幅上升。
到了生物智能层面,如脑机接口将人脑与人工大脑相连,风险进一步扩大。技术发展不可逆,我们虽无法控制其演进速度,但仍应努力引导其发展方向,并通过持续研究降低潜在威胁。
02
中美AI的分化与竞逐
朱民:“AI+”常与中美竞争联系。过去,美国学者认为中国AI落后美国两年,但DeepSeek出现后,差距缩短至两个月。在算力、算法、数据方面,我们已搭建起平台,你如何看待中美AI竞争?
张亚勤:两年前,中美大模型差距约2到3年,但两年后形势大变,中国在某些方面已领先。DeepSeek是关键转折,标志着中美AI发展路径分化,中国走出自己的路。
早期,中国多借鉴美国模式,延续“搜集数据-堆计算资源-预训练”路径,算法也类似。当时“百模大战”涌现近两百个大模型。DeepSeek发布时,正值达沃斯论坛,其出现是自ChatGPT以来最重要的综合创新,意味着无需巨大算力、海量数据或庞杂模型集群,也能实现优异性能。
DeepSeek为中国赢得时间,仅用1%算力就实现相近性能,其开源策略获全球响应。与美国少数企业垄断不同,DeepSeek开源、采用MIT许可证,降低使用门槛,挑战美国闭源模式,影响全球AI生态。
但在芯片领域,我们仍面临差距,英伟达的GPU硬件到CUDA软件生态优势明显。不过,国内企业通过系统级创新突破限制,如华为利用通信技术连接数百芯片,构建高性能集群,弥补单点算力不足。这种创新加上算法优化,使中国逐步摆脱对外部技术依赖。
朱民:“AI+”竞争是重大议题。中美基本处于同一水平,中国有自身特点、弱点和强项。在“AI+”很多方面,中国处于世界领先,垂直模型逐步发展完善,而美国平行模型依赖规模且商业模式仍在探索。
张亚勤:过去两年多,AI领域变化巨大,大模型预训练阶段遇瓶颈,互联网可用数据消耗殆尽,预训练增长放缓,堆芯片、堆数据回报减弱。
现在重点转向后训练、推理和智能体方向。这些环节虽对算力要求高,但计算可分散处理,不再依赖集中数据中心,人工智能架构发生转变,小厂小规模芯片也能在推理环节发挥作用。
横向通用大模型重要,但更重要的是各垂直领域专门模型、个性化模型和智能体。这些应用生态总量和价值远超底层横向大模型。大模型像“操作系统”,关键在于上面的应用生态。未来机会在于上层智能体、垂直应用和解决方案。
中国在这一领域有广阔发展空间和独特优势。ChatGPT核心技术是监督微调(SFT)和近端策略优化(PPO),DeepSeek提出GRPO新算法,使计算性能大幅提高且标注工作可由机器自动完成。
朱民:中美竞争中,开源很重要。DeepSeek出现后,OpenAI曾说要开源,但最后没开源。这给中国创造了机会:发展中国家和新兴经济体愿意用像DeepSeek这样的中国开源模型,因为它小巧、成本低。那美国大模型的未来在哪里呢?
张亚勤:开源和闭源的争论一直存在,看法各异。我现在倾向于未来80%走向开源,20%闭源。
开源有三大优点:一是大家都能参与贡献;二是能覆盖更多场景和国家,一些用不起闭源大模型的地区,可以用开源模型,哪怕效果稍差也能用起来,这会推动开源技术快速普及;三是DeepSeek证明开源模型扩散速度快且效果好。
但站在OpenAI的角度,他们投入大量资源打造出最前沿的模型,如果全部开源,商业上会面临很大挑战。所以他们的策略是:最尖端的模型不开源,可能只推出一个规模稍小的开源版本,同时在商业化上采取多层次的打法。
目前在美国,真正领先的大模型公司主要有五家:OpenAI、Anthropic、谷歌的Gemini、马斯克的Grok,还有开源的Meta。虽然Meta稍微落后一些,但其开源贡献很大。
与早期互联网不同,这一波AI公司从起步就有清晰的收入路径。比如,OpenAI预计明年营收能突破200亿美元,主要是用户直接付费;Anthropic则更偏向To B,通过API调用和Token使用收费,今年营收预计已超百亿。
这次AI浪潮和以前最大的不同在于:技术有人愿意买单,用户肯为应用付费,而不仅仅是为了买GPU堆算力,最终价值还是要落到“用起来、愿意付”上。
朱民:开源和闭源是未来竞争的重要领域,你认为开源更有希望吗?
张亚勤:未来主流模式是开源。目前大模型商业模式还不清晰,但未来几年即使收费,价格也必须很低。开源价值在上层,即基于开源模型构建的具体产品和服务。“AI+”很有希望,因为用户愿意为成型的服务或产品买单,如机器人或无人驾驶车。闭源有合理性,开源也有发展空间,未来两者可能并存。
03
AI时代的教育变革与人类未来
提问:亚勤院士提到ChatGPT已通过图灵测试。如果我们继续教AI人类的情商和特质,它可能会学会“欺骗”。您是否担心AI获得欺骗能力?
张亚勤:图灵测试是粗略基准,人也会欺骗。目前用ChatGPT等工具,很难准确分辨,甚至有些回答比人更全面,但这无数学证明。我曾直觉认为它通过图灵测试,但未严格验证。图灵测试原针对对话信息,现进入多模态、物理智能、生物智能时代,其定义需拓展,各领域也需调整。AI大致已达人类智能水平。
提问:AI目前偏向理性分析,人类决策常依赖直觉。AI未来能否发展出类似人类的高准确度直觉?目前AI依赖数据和思维链,反应速度较慢,存在哪些挑战?
张亚勤:AI已进入“智能体AI”时代,未来智能体将相互连接,形成“智能体互联网”。智能体可自主完成金融交易、任务规划等任务,如“智能体医院”中医生、病人、护士全是智能体。AI与人脑各有长短,人脑记忆系统复杂,AI记忆机制薄弱。AI未来可能将复杂推理转化为“直觉”,但目前仍有差距。
朱民:AI能否与人并驾齐驱,关键在于快思维与慢思维的关系。人脑依靠神经网络“涌现”智能,AI理论上可朝此方向发展,但目前仍有路要走。
张亚勤:机器在算力、知识复制、全域互联等方面有优势,但直觉、情感、意识等目前算法难以实现。
朱民:在人工智能时代,人与机器应协同,人可将理性思维部分交给机器,直觉是人类独特能力。这需要颠覆思维方式,思考人如何在智能时代生存、发挥优势,实现人机协同。
提问:现在的学生好奇心不如从前,AI会不会让社会只有少数人竞争、大多数人靠机器“养活”?大模型会不会导致思维同质化或垄断?
张亚勤:未来每个人应珍视并表达自己的视角和判断,这是AI最难替代的。人虽可能说得不周全,但背后体现好奇心、独立观点和个人视角。老师要鼓励学生“不一样”,敢于展现自我、犯错、提出不同看法。理想状态是人节奏慢下来享受生活,让AI去“卷”、去工作,未来工作时间减少是趋势。
朱民:与其担心AI强大后人停止思考,不如思考如何借助机器实现自我提升。过去比背诵,现在知识都在AI里。人真正需要的是想象力、思维方式和创造力,要提升到更高维度。人类有信心掌控AI未来,因为人有善良本性、智慧。人不应是知识容器,而应成为思维与智慧主体,打破认知局限,重新定义价值。
提问:现在有些知识是不是没必要学了?我们该学什么?不用学什么?
朱民:在“AI+”时代,人与学习需要发生结构性转变。关键有三点:一是正视规模效应悖论,知识涌现需海量学习,持续学习仍很重要;二是学习方式要转变,不强调死记硬背,而要关注方法论和思维方式,启发思考、保护好奇心;三是学会用AI拓展自己,借助AI打开新认知维度,提升思维层次。人要超越机器,靠智慧与思维层次,同时善用机器提升思维。
来源:深网腾讯新闻
文丨胡世鑫