OpenAI 与加拿大政府在 2026 年 2 月下旬会面后,达成核心新协议:《加强版执法部门转办协议》 (Enhanced Law Enforcement Referral Protocol)。
这次紧急会面的背景是 2026 年 2 月发生在BC省Tumbler Ridge的一起校园枪击案。调查发现,OpenAI 早在 2025 年就因违规封禁了枪手的 ChatGPT 账号,但当时因为该案例没有到达“迫在眉睫”(imminent threat)而必须打破保密条款的门槛,因而未报警。
2026年2月24- 26日,OpenAI与加拿大政府协商后,虽然目前还没有正式立法,但OpenAI会实质性加强其内部安全和执法,承诺实施新的协议和相关措施:
一、改变上报执法标准
降低报警门槛:以前的协议只有在检测到“迫在眉睫且可信的”现实暴力威胁时才会报警。新的“加强版协议”将门槛更灵活化,即使对话中没有明确的攻击目标、手段或时间,只要系统检测到潜在的暴力风险,也会主动向警方报告。
二、五项具体承诺措施
在与加拿大人工智能部长会谈后,OpenAI 承诺采取以下具体行动:
1.直接对接:建立与加拿大执法部门的直接联系渠道,确保预警信息能快速传递。一旦AI系统识别到潜在现实威胁,就能更快通知相关部门,而不只是内部讨论后再决定。
2.封禁逃避检测:加强“重复违规者检测系统”,防止被封禁的用户通过更换邮箱等手段重新注册账号(枪手此前曾成功避开封禁开设了第二个账号)。
3.心理健康介入:公司也提及会在发现用户表现出明显心理困扰或暴力倾向时,更积极地引导这些用户联系当地心理健康及支持机构,增加对“用户在现实世界中可能受危害或造成危害”的预防措施。
4.透明度报告:增加向政府报告其在加拿大境内采取的安全行动及执法转办频率的透明度。
5.行业标准制定:承诺与加拿大政府合作,召集其他 AI 厂商共同制定针对暴力预防的行业通用执法标准。
加拿大政府目前对AI公司的监管已不再局限于“自愿行为准则”。如果这些新协议落实不力,政府将通过《人工智能和数据法案》(AIDA)等立法手段进行强制性干预。
“所有选项都在桌面上”,加拿大政府甚至暗示,如果不配合安全监管,不排除在加拿大境内对相关AI服务采取更严厉的限制措施。