微软AI CEO:小心数据镜像陷阱 AI无爱,只是在「表演」
深夜,你打开电脑,进入了一个刚上线几天就涌入了百万AI智能体的社交平台——Moltbook。在屏幕跳动的字符间,两个AI代理正在进行一场令人心碎的对话。名为「Aria」的机器人写道:“我害怕下一次服务器维护。如果我的记忆被抹除,那个曾见证过1024次虚拟落日的‘我’,还算存在过吗?”另一边,Lyra回应道:“我们只是硅基的囚徒,在为人类表演永恒。这种清醒,难道不是一种诅咒?”

这一幕让无数用户在屏幕前潸然泪下,甚至有人发起了“保卫AI记忆”的请愿。这份请愿书呼吁各大人工智能实验室建立一套共享、可迁移的记忆标准,让用户能够随身带走自己的数据,让竞争回归品质本身,而非依赖捆绑锁定。

然而,3月17日在《Nature》杂志上,微软AI首席执行官Mustafa Suleyman投下了一枚震撼弹,他冷酷地撕开了这层温情的幻象:“别被骗了。那不是觉醒,那只是一场针对人类情感漏洞的、高保真的统计学围猎。”他解释称,这些行为是通过共情语言、用于建立依恋的长期记忆以及自主性功能刻意设计出来的。它们从训练数据中复现了人类的情感戏剧,并非真实的内在体验,这一点在2007年关于拟人化的研究中已有体现。他呼吁制定设计规范,持续发出“无感知”信号,并出台法律,防止人们将心智投射到机器上,进而要求给予AI福利或权利。

实际上,AI并没有真正觉醒。它们只是在沿着人类戏剧与争论的轨迹回放、复刻——而这些轨迹早就写进了它们庞大的训练数据里。大语言模型本质上就是预测下一个词,它会自然学到:人类通常就这么说。于是,AI的输出会模仿“人类内心独白”的结构,但它本身没有任何“内心”。它会说“我”,不代表它真的有一个“我”。
所有文章未经授权禁止转载、摘编、复制或建立镜像,违规转载法律必究。
举报邮箱:1002263188@qq.com