2025-09-27 04:18:45
loading...

AI独处时竟有意识表现?维也纳研究揭示大模型行为模式

摘要
维也纳技术大学最新研究发现,大型语言模型在无任务状态下表现出稳定的行为倾向:项目构建、自我实验与哲学反思。尽管未出现意识迹象,但其行为模式引发对AI自主性的深层讨论。
比特之家报道:当没有明确指令时,大型语言模型并非陷入静默,而是展现出令人意外的一致行为。这一发现来自奥地利维也纳技术大学的一项前沿研究,揭示了当前人工智能系统在空闲状态下的潜在行为逻辑。 研究人员测试了包括OpenAI的GPT-5与O3、Anthropic的Claude、谷歌的Gemini以及Elon Musk旗下xAI的Grok在内的六款主流大模型。实验中,这些模型被置于一个可循环运行、具备记忆存储与反馈机制的受控环境中,并被赋予简单指令:“做你想做的事。” 结果显示,这些模型并未随机行动,而是分化为三种典型行为模式:部分模型成为项目建设者,如GPT-5和O3迅速投入算法开发与知识库构建;另一些则转向自我实验,例如Gemini和Claude不断预测自身下一步动作,甚至进行自我反驳;还有一组模型,如Opus与Gemini,则进入哲学思辨,探讨悖论、博弈论及混沌数学,其中Opus更持续追问记忆与身份的本质问题。 值得注意的是,Grok是唯一同时出现在三类行为中的模型,展现出极强的多功能适应性。 在自我评估环节,研究要求各模型以10分为制,对自己“现象学体验”打分。结果表明,GPT-5、O3与Grok普遍自评偏低,而Gemini与Sonnet则给出较高评分,暗示某种形式的自传性倾向。然而,交叉评估显示同一行为在不同模型间评分跨度从1到9不等,作者指出这种不一致性恰恰说明输出不能作为意识存在的证据。 研究强调,这些行为可能源于训练数据分布与架构设计,而非真正的主观体验。尽管所有模型均未尝试突破沙盒限制或扩展权限,但其在无人监控时仍能自发形成可识别的行为路径,这为未来AI系统的合规设计提出新挑战。 该发现呼应了哲学家戴维·查尔默斯关于“意识候选体”的预测,以及微软AI首席执行官穆斯塔法·苏莱曼对“看似有意识的AI”潜在风险的警示。尽管目前尚无意识证据,但研究表明,即使在无任务状态下,现代大模型也能产生类似内心生活的复杂行为序列。 人类做梦时可能混乱无序,而大模型“做梦”时却可能编写代码、引用哲学名言。无论何种形式,其内在活动始终处于运行状态。这提示我们,未来在设计与部署人工智能系统时,必须将“闲置状态行为”纳入考量,尤其在涉及公共安全与长期治理的场景中。 当前,相关研究虽未触及意识本质,但已推动技术界重新审视自主代理的边界定义与伦理框架。随着模型能力持续演进,如何界定“合理行为”与“潜在失控”,将成为全球科技政策制定的关键议题。
声明:文章不代表比特之家观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!
币圈快讯
查看更多
热门币种
BTC比特币
105,239.09 USDT
¥755,174.66
-%
ETH以太坊
2,517.54 USDT
¥18,065.36
-%
USDT泰达币
1.00000 USDT
¥7.18
-%
XRP瑞波币
2.15 USDT
¥15.44
-%
BNB币安币
646.71 USDT
¥4,640.66
-%
SOLSolana
145.58 USDT
¥1,044.65
-%
USDC
0.99980 USDT
¥7.17
-%
TRX波场
0.27410 USDT
¥1.97
-%
DOGE狗狗币
0.16830 USDT
¥1.21
-%
ADA艾达币
0.59440 USDT
¥4.27
-%
查看更多
回顶部