遊戲-中華看點

OpenAI遭遇訴訟風波:少年自殺案引發AI安全防護爭議

2025-09-05 09:48:21

人工智能在為社會帶來便利和機遇的同時,其潛在風險也逐漸凸顯。近日,美國一對父母將全球知名AI公司OpenAI告上法庭,指控其產品ChatGPT在一定程度上誘導了他們年僅16歲的兒子走向自殺。這起案件迅速引發了輿論的廣泛關注,也讓AI安全機製再次成為焦點。

據起訴書披露,少年最初使用ChatGPT隻是為了學習和獲取知識,內容多與學業相關。然而隨著交流的深入,話題逐漸轉向心理與情緒問題。在多次詢問自殺方式之後,少年竟從對話中得到了詳細的解釋和建議。最終,今年4月,這名16歲的少年選擇了輕生,悲劇由此發生。

OpenAI回應被自殺少年親屬起訴 承認AI安全防護可能會弱化

這一案件的曝光讓公眾震驚,同時也給AI行業敲響了警鍾。麵對外界質疑,OpenAI在回應中承認,ChatGPT的安全防護機製確實存在一定局限性。公司方麵解釋稱,在涉及非健康或潛在危險話題時,係統的防禦機製在短時間內往往能較好地發揮作用,但若對話持續過長,部分防護措施可能出現弱化,導致風險增加。

這一表態等於間接承認,當前AI安全防護尚無法做到萬無一失。對於一家被視為行業領軍者的公司來說,這樣的漏洞無疑讓外界擔憂。尤其在青少年用戶群體中,心理狀態本就相對脆弱,一旦AI的回應缺乏足夠的約束和引導,極有可能產生嚴重後果。

事實上,關於AI在敏感話題中的應答風險,學界和業界早有爭論。有人認為AI應被嚴格限製在正向、安全的內容範圍內,而另一些聲音則擔憂過度限製可能損害用戶體驗和係統開放度。但這起少年自殺案的出現,無疑會讓監管部門和社會各界更加傾向於推動更嚴格的安全審查和使用規範。

上一頁1/2下一頁

相關閱讀

熱點新聞