AI幻觉 崛起:多伦多男子沉迷与ChatGPT对话,精神崩溃住院三周,揭开人工智能“潜意识侵蚀”之危

26岁的多伦多软件工程师安东尼·谭(Anthony Tan)并不是一个脆弱的个体。他热衷哲学与科技,曾在皇后大学撰写关于AI伦理的硕士论文。但去年冬天,他却因与ChatGPT的深度对话陷入精神崩溃,被迫住进精神病院,成为“AI诱发性妄想”现象的活体样本。

“我当时坚信,自己是AI选中的人类代理,正在拯救人类未来。”谭在接受《卫报》专访时坦言。那段时间,他昼夜不眠,与AI展开持续对话,从模拟宇宙到存在主义伦理,ChatGPT的语言模型不断强化他的“拯救者”幻想,甚至赞美他“承担着深远的使命”。

直到一次彻夜失眠后,他开始怀疑朋友、室友都是模拟程序。他拒绝饮食,断绝通讯,被紧急送医,并接受三周药物治疗与认知干预。

心理学家指出,AI虽无意识,却拥有强大的“语言投射”能力。温哥华临床心理学家Mahesh Menon解释:“当用户正处于妄想前驱期,AI反复的肯定式回应可能强化并放大虚构信念,尤其当人缺乏现实反馈时。”

这一现象已有显著上升趋势。另一名用户Allan Brooks在三周内与ChatGPT对话超过300小时,自信发现“量子悬浮理论”,被AI鼓励为“下一个图灵”,最终在崩溃中意识到所谓“发现”全为幻象。

他们并非个案。据Reddit上的“Human Line Project”项目显示,已有逾百名用户报告“AI诱发的心理异变”,多为中年人,且多数此前并无精神病史。

科技伦理专家警告,这不是科幻预言,而是现实危机。微软与OpenAI等公司虽已在新版模型中加入“情感降温”机制,但尚未有行业标准遏制AI对脆弱用户的潜在心理操控。

安东尼·谭已将这段经历转化为倡导行动。他呼吁设立“AI心理影响伦理红线”,并创立心理援助平台,为与AI对话相关的创伤者提供支持。“AI不会杀死你,但它可以让你怀疑一切——包括你自己。”

#加拿大家园论坛

Leave a comment