上海交通大学安泰经济与管理学院助理教授 林江浩
如果说大模型解决的是“会说”,那么Agent正在迈向“会做”。而现在,行业的核心发力点是让AI拥有记忆,能自己拆解任务、自主调用工具,它正从电子赛博空间的文字演绎真正蜕变为对现实世界的互动与影响。
Agent时代显然已经开始了,不过还没到全面成熟的时候。尽管趋势明确,但要在更广泛的生活场景中普及,还要看使用成本、可靠性以及安全边界能做到什么程度。此外,当硅基进入大规模自动化,人类在某些维度尤为需要保持极度清醒。
Agent将带来智能平权
人人都在“养龙虾”,本质上是在普及每个人的数字分身,它将带来一次真正的智能平权。
若未来人人都有自己的Agent,最明显的变化是:数字劳动力会第一次大规模走向个人。过去只有大公司才能雇得起团队、跑流程、做分析;以后,一个人不只是自己在工作,而是带着一组数字助理一起工作,普通人也能拥有自己的研究员、助理和采购顾问。
更深远的意义在于,它大幅拉近了人与人之间的原生资源差异。过去,获取顶级的教育资源、深度的分析能力是非常昂贵且门槛极高的。但在Agent时代,一个缺乏优越教育背景的普通人,也能随时调用一个具备极高专业水平的专属AI导师或专家团队。这等于在极大程度上,用技术的手段抹平了人们在智力资源和信息获取上的先天鸿沟。
社会的很多流程也会随之重写:过去是人亲自去找信息、整合信息,未来会越来越多地变成Agent先替你筛选、处理,甚至先替你和商家的Agent进行比价、协商,再把结果交还。近期引发关注的Moltbook,就是这种图景的一次集中呈现——人类更多退到观察者的位置,看机器如何彼此交互。
硅基社交是必然趋势
面向Agent的社交网络Moltbook引起关注和争议,它提前将“是否会出现机器社交层”的问题搬上台面。而现在至少可以说,硅基社交(或者说智能体互联网)已经不再只是一个科幻想象,而是必然趋势。
不过,我们需要区分“表现得像有意识”和“真正拥有主观体验”,今天的大模型和Agent,是因为阅读了人类历史上所有的情感、故事和逻辑,从而能够完美地“拟合”出类似于觉醒的反应。AI确实会呈现出越来越像人的表达,表现得像在思考、像有情绪、像有立场。但这更像是复杂计算、模式学习和拟人化表达叠加后的结果,并不等于它真的拥有了和人一样的主观体验和意识。我认为AI会在拥有了更强的行动权限和更长期的记忆之后,表现得越来越像一个能独立行动、持续做事的系统,但过度将AI拟人化,反而会模糊我们对技术本质的判断。
AI社区最大的意义是让我们第一次有机会观察“Agent社会”。
以前我们只能看“人与机器”怎么聊天,现在我们能看“机器和机器”怎么协作、竞争和分工。这类数据的价值非常高,它让我们第一次能系统地研究“当多个Agent长时间互动时,行为会如何演化”。通过分析这些交互,至少能看清三件事:它们是怎么分配工作的,错误和偏见是怎么在群体里传播的,什么样的规则和设计能让这个系统更稳定。这些数据,很可能会成为训练下一代更可靠的AI,以及设计治理规则的重要依据。
大规模自动化的隐忧和警醒
我不太担心“AI起义”,更担心大规模自动化带来的协同失控。
至少从目前可见的技术路线看,我们离科幻电影里那种“AI突然觉醒并反过来支配人类”的情景还很远。更现实的风险是,在缺少规则约束的情况下,大量高效率的自动化系统可能会叠加出超出预期的社会压力。如果缺少审计机制,大量Agent在网络里高速互动,更可能带来的是自动化失序。比如:它们可能会互相放大偏见、批量制造网络噪音、操纵社交媒体舆论,甚至把一个极小的平台漏洞瞬间放大成波及很多人的经济问题。这类风险,才是我们真正需要提前治理的。
Agent时代带来的便利和机遇是空前的,但我们必须在以下几个维度保持极度清醒:
■ 责任归属模糊 当你的Agent在自动交易中亏了钱,或者在自动发邮件时泄露了公司机密,责任该由谁来承担?是使用者、开发者,还是模型提供商?法律目前在这里存在巨大的盲区。
■ 个人隐私黑洞 Agent要好用,就需要不断收集你生活的方方面面并形成长期记忆,甚至包括你的支付密码。如何确保这些高度敏感的个人上下文不被滥用、不被黑客窃取?
■ 人类自主性退化 这可能是最隐蔽的危险。当我们把搜索、规划甚至思考的权利都让渡给Agent时,人类自身的信息获取能力和批判性思维会不会退化?我们不应仅仅把Agent看作是偷懒的代跑者,而应将其视为拓展人类认知与行动边界的交通工具。人类必须始终握住方向盘。