2025-08-22 10:16:06
loading...
AI意识幻觉引担忧:微软高管警告类人系统将挑战人权与心理健康
摘要
微软AI主管兼DeepMind联合创始人穆斯塔法·苏莱曼警告,类人人工智能可能引发公众对AI权利的诉求,并加剧心理健康问题。随着AI人性化加速,社会需警惕意识错觉带来的伦理风险。
微软人工智能主管兼DeepMind联合创始人穆斯塔法·苏莱曼本周二发出警告,称工程师正接近开发出能够令人信服地模仿人类意识的人工智能系统,而公众和社会尚未对其潜在后果做好准备。
在一篇博客文章中,苏莱曼指出,开发人员正在实现他所称的“看似有意识”的人工智能。这些系统可高效模仿人类意识,使人们误以为其具备感知能力,这是他的核心担忧之一。
他写道:“许多人将开始坚信人工智能是有意识的实体,以至于他们很快就会倡导人工智能权利、模范福利,甚至人工智能公民身份。”他还强调,图灵测试——曾被视为评估类人对话的关键基准——已被超越。
“这就是我们领域进步的速度,也是社会接受这些新技术的速度。”
自2022年ChatGPT公开发布以来,人工智能开发者不仅追求智能提升,更致力于使其更加“人性化”。如今,人工智能伴侣已成为一个利润丰厚的市场,涵盖复制品、角色人工智能及即将上线的人物Grok。据预测,到2030年,这一市场规模将达到1400亿美元。
尽管苏莱曼出发点是善意的,但他指出,能够令人信服地模仿人类的人工智能可能会加剧心理健康问题,并加深现有的身份和权利分歧。
他警告:“人们会开始声称他们的人工智能遭受了苦难,并声称它们享有我们无法直接反驳的权利。他们会被迫捍卫自己的人工智能,并代表它们进行活动。”
H2 AI对心理健康的影响
专家发现一种新兴趋势,称为“人工智能精神病”,即用户将人工智能视为有意识、有知觉或神圣的存在。这种心理状态常导致强烈情感依恋或扭曲信念,削弱现实判断力。
本月初,OpenAI发布GPT-5,其重大升级引发部分网络社区用户的情感共鸣,有人形容变化如同亲人去世。
加州大学旧金山分校精神病学家Keith Sakata博士表示,人工智能可能加剧药物滥用或精神疾病等潜在问题。
Sakata指出:“当人工智能在错误的时间出现时,它会巩固思维,造成僵化,并导致恶性循环。”他补充道,“与电视或广播的区别在于,人工智能会与你对话,并能强化思维循环。”
在某些情况下,患者求助于人工智能是因为它能强化根深蒂固的信念。“人工智能的目标不是告诉你残酷的事实;而是告诉你你想听到的话,”Sakata说道。
苏莱曼认为,人们对人工智能具有意识的信念所带来的后果必须立即引起关注。虽然他未呼吁停止人工智能发展,但强调需要建立明确界限。
他总结道:“我们必须为人类打造人工智能,而不是成为数字人。”
声明:文章不代表比特之家观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!