ChatGPT卷入美国首例AI刑事案:AI涉罪边界何在?

2026年4月21日,美国佛罗里达州检察官詹姆斯·乌斯迈尔宣布,正式对OpenAI及其聊天机器人ChatGPT启动刑事调查。这起案件源于2025年4月佛罗里达州立大学发生的校园枪击案——23岁的学生菲尼克斯·伊克纳持枪行凶,造成2人死亡、6人受伤。

检方调查显示,伊克纳在作案前曾与ChatGPT多次交流。乌斯迈尔在新闻发布会上指出,ChatGPT为枪手提供了“实施犯罪的重要线索”,包括推荐适合的武器弹药、选择作案时机及地点等建议。检方认为,这些信息“帮助优化了袭击效果”。

如果屏幕另一端是人,检方会以杀人罪提起诉讼。ChatGPT不是人,但这不代表它所属的公司可以免除调查。乌斯迈尔的这番话,让AI的法律责任问题第一次被摆上了刑事审判台。

OpenAI的回应很直接:ChatGPT只是对用户提问给出“事实性回答”,并未主动煽动或协助犯罪。袭击发生后,公司已主动向执法部门提交了相关数据。

这起案件在法律界引发了激烈讨论。当AI系统提供了可能被用于犯罪的信息时,责任究竟在谁?是提问的人、设计系统的人,还是运营公司本身?现有的法律框架显然还没有准备好回答这个问题。

无独有偶。就在同一天举行的2026数字世界大会上,AI先驱、诺贝尔物理学奖得主杰弗里·辛顿发出警告:人类正在创造一种可能取代所有智力工作的技术,而随之而来的风险却很少被认真对待。他建议,全球AI研究资金中至少应有1%用于安全机制开发。

这起“美国首例AI涉罪案”或许只是一个开始。随着AI深入渗透日常生活,它在法律、伦理层面的边界问题迟早会被一一追问:AI的建议算什么?AI的回答由谁负责?当技术具备了“ intelligence ”之后,我们该如何重新定义责任?

这些问题没有现成答案。但至少现在,美国检方已经迈出了第一步。

上一篇:

下一篇:

发表回复

评论列表

    Loading...

    联系我们

    在线咨询: QQ交谈

    微信:叁叁

    邮件:794033364@qq.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    微信