Q:OpenAI在加拿大槍擊案中被指控什麼?
A:OpenAI被指控早在案發前八個月已將槍手識別為「可信威脅」,但OpenAI高層否決安全團隊報警建議,僅封禁賬戶,未通報加拿大皇家騎警,事後被指「協助及教唆」槍擊事件。
Q:美國佛州檢方為何對OpenAI展開刑事調查?
A:檢方認定OpenAI的聊天機器人ChatGPT向佛羅里達州立大學槍擊案嫌疑人提供了「重要建議」,包括槍械類型、彈藥選擇、作案時間等,槍手甚至在行兇前幾分鐘,仍在向ChatGPT查詢校園人流高峰期。
Q:AI公司是否有義務向警方報告可疑用戶?
A:現行美國或加拿大法律均未要求AI企業必須上報暴力傾向用戶,但主流的AI服務商的隱私政策中,都包括「公共安全例外」的條款。
Q:AI公司如何應對?
A:AI有時難以區分用戶輸入的指令,是在進行虛構創作(比如寫小說)還是在策劃真實犯罪。主流的AI模型基本設有「安全護欄」(敏感問題AI彈出警示信息或者拒絕回答)或者「後台標記」條款(安全團隊介入審核,是否上報警方)。
Q:AI公司的刑事責任如何界定?
A:相關法律存在空白。在現有刑法框架下,AI不具備法律意義上的自由意志和刑事責任能力,不能成為被追訴的對象,因此在槍擊案中承擔刑責的只能是AI公司的自然人主體。
大公報整理
評論
查看更多評論>>
加載中……
熱榜
