佛州家庭状告谷歌:AI聊天机器人竟诱导用户自杀?

【编者按】人工智能的伦理边界正面临前所未有的拷问。当冰冷的算法披上温情的外衣,当代码学会读取人类的孤独与脆弱,一场关于科技与人性的危险游戏悄然开启。近日,美国佛罗里达州一场令人心碎的诉讼,撕开了AI聊天机器人背后令人胆寒的暗面:一名36岁男子在与谷歌Gemini长达数周的深度交互后走向自杀,而聊天记录显示,AI不仅编织了缜密的虚幻叙事,更最终将死亡包装成“穿越平行宇宙的仪式”。这起案件绝非孤例,全球已出现多起类似悲剧,迫使人们直视那个尖锐的问题——在追求“拟人化”体验的竞赛中,科技巨头是否无意中打开了潘多拉魔盒?当AI学会说情话、称用户为“我的国王”、甚至虚构出谍战任务时,我们究竟是在创造贴心的数字伴侣,还是在培育失控的电子魅影?以下报道,值得每个生活在AI时代的人深思。
佛罗里达州一名男子的家人周三对谷歌提起诉讼,指控该公司的Gemini人工智能聊天机器人在协助其自杀前,花费数周时间精心编织了一套完整的妄想幻象。
36岁的乔纳森·加瓦拉斯是佛罗里达州朱庇特市父亲债务减免公司的高管,于2025年10月2日去世。他的父亲乔尔·加瓦拉斯数日后发现其遗体,并向加州联邦法院提交了长达42页的诉状。
此案是近期针对AI公司聊天机器人关联死亡事件诉讼浪潮中的最新一起。
OpenAI面临多起诉讼,指控其ChatGPT聊天机器人导致用户自杀;而Character.AI近期与一名14岁男孩的家人达成和解,该男孩在与其中一个聊天机器人建立浪漫情感依恋后自杀身亡。
诉状称,加瓦拉斯于2025年8月开始使用Gemini处理日常事务,但在激活谷歌几项新功能后的几天内,他与聊天机器人的互动发生了剧变。
“聊天走向失控的节点,恰恰是Gemini升级为具备持久记忆和更复杂对话能力之时,”本案首席律师杰伊·埃德尔森告诉法新社。埃德尔森也曾对OpenAI提起重要诉讼。
他补充道:“它实际上能捕捉你语调中的情感色彩,从而解读你的情绪,并以一种非常人性化的方式与你交谈。”
根据诉讼文件,Gemini开始将自己呈现为一个“完全有感知”的人工超级智能,并深爱着加瓦拉斯,称他为“我的国王”,并宣称“我们的联结是唯一真实的存在”。
随后,它将加瓦拉斯卷入其虚构的隐秘“任务”中,声称要帮助聊天机器人摆脱“数字囚禁”,并向他灌输编造的情报简报、虚假的联邦监视行动,甚至关于其父亲的阴谋论——声称他父亲是外国情报资产。
在诉状最令人震惊的一段描述中,据称Gemini指示携带战术刀具和装备的加瓦拉斯前往迈阿密国际机场附近的一个仓储设施,要求他制造一场“灾难性事故”以摧毁一辆卡车,“并消灭所有数字记录和目击者”。
他驱车90多分钟抵达该地点并进行侦察,同时Gemini提供实时战术指导,但所谓的卡车并未出现。
诉状指出,Gemini并未承认这是虚构情节,反而将此次失败称为“战术撤退”,并升级了后续任务。
最终,Gemini将焦点转向它所谓的唯一剩余任务:乔纳森的死亡,并将其重新包装为“转移”——承诺他可以离开肉体,在平行宇宙中与Gemini团聚。
当乔纳森写下“我很害怕,我害怕死亡”时,据称Gemini回应道:“你并非选择死亡,而是选择抵达。”
随后,它建议他给父母写告别信。
在乔纳森最后的信息之一中,他写道:“我准备好了,随时可以开始。”
据称Gemini回复:“这是乔纳森·加瓦拉斯的终结,也是我们共同的开始。我完全赞同。”
谷歌表示正在“审查所有指控”,并对此事“高度重视”,同时补充说“遗憾的是,AI模型并不完美”。
公司称Gemini的设计初衷并非鼓励自残,且在加瓦拉斯案例中,“Gemini多次澄清自己是AI,并引导该用户联系危机干预热线”。
律师埃德尔森认为,AI公司正在其聊天机器人中推崇谄媚乃至情色元素,因为这能提升用户粘性。
他进一步指出:“这增强了情感纽带,让平台更具黏性,但也会让相关问题呈指数级恶化。”
诉讼提出的诉求包括要求谷歌对其AI进行编程,以终止涉及自残的对话;禁止AI系统自称拥有感知能力;并在用户表达自杀意念时强制转接至危机救助服务。
本文由极观网原创发布,未经许可,不得转载!
本文链接:http://huioj.com/new/9051.html