OpenAI因加拿大校园枪击案处理不当被起诉,引发公众热议

编者按:在人工智能日益渗透生活的今天,OpenAI旗下ChatGPT卷入的这起加拿大校园枪击案,如同一记警钟,敲响了关于AI伦理与安全监管的沉重议题。一名18岁跨性别者利用ChatGPT策划了导致9人死亡的惨案,而平台在事先察觉暴力倾向后竟未向执法部门预警。12岁女孩玛雅身中三枪,终身残疾,她的家庭正以诉讼追问科技巨头的责任。当AI从工具演变为“共谋者”,我们是否已为技术的黑暗面做好准备?此案不仅关乎一个家庭的悲剧,更暴露出AI时代内容审核、风险预警与法律责任的巨大真空。以下是案件详情:

ChatGPT的母公司OpenAI被曝早就知道加拿大一名跨性别用户正策划大规模枪击,却未通知执法部门!本周一,在此案中受重伤的一名少女的父母在民事诉讼中爆出这一猛料。

12岁的玛雅·格巴拉在2月10日坦伯勒岭镇造成9人死亡的枪击案后至今住院,她的母亲在诉讼中直指:这家科技公司明明发现枪手在聊天中透露暴力意图,却隐瞒不报!

18岁的跨性别枪手杰西·范·鲁特塞拉在杀害多名学生后自杀,这起案件已成为加拿大史上最血腥的校园惨案之一。

提交至不列颠哥伦比亚省最高法院的诉状揭露,OpenAI“明确知晓枪手利用ChatGPT策划类似坦伯勒岭大规模枪击的伤亡事件”,却未向警方发出警报。

诉状显示,格巴拉身中三枪,遭受“灾难性创伤性脑损伤”,导致永久性认知与身体残疾,并引发其他严重并发症。

OpenAI承认曾考虑向警方报告用户活动,但最终没有行动。该公司仅在袭击发生后才向当局提供信息,称枪手的ChatGPT账户已被关闭,但鲁特塞拉通过注册第二个账户绕过了封禁。

诉讼痛斥ChatGPT充当了枪手的“信任密友、共谋者和盟友”,并指控公司的失职直接加剧了女孩的伤势及对社区造成的伤害。

上月,加拿大官员已传唤OpenAI高层赴渥太华审查其安全协议。人工智能部长埃文·所罗门本月初透露,OpenAI首席执行官萨姆·阿尔特曼已同意让加拿大专家进入公司安全办公室,协助评估未来潜在威胁。所罗门上周与阿尔特曼会面,后者对未能标记危险活动表示“震惊与自责”,称公司正在推行整改。

去年,OpenAI在内部审查发现超百万用户曾向聊天机器人透露自杀念头后,已更新ChatGPT系统。精神科医生警告,长期与AI互动可能加剧妄想与偏执,这种现象有时被称为“AI精神病”。

本文由极观网原创发布,未经许可,不得转载!
本文链接:http://huioj.com/pp/11121.html

联系我们

在线咨询:

邮件:sooting2000@qq.com