Connect with us

國際

ChatGPT出招阻青少年談自殺 據用戶行為推測年齡 不回應調情指令

發佈於

【明報專訊】人工智能(AI)應用的道德議題日益受關注之際,OpenAI行政總裁奧爾特曼(Sam Altman)周二(16日)宣布,旗下AI聊天機械人ChatGPT正打造一套能夠預測使用者年齡、據此為青少年提供額外保護的系統。他指出,針對青少年,ChatGPT不會回應使用者提出的調情指令,也不會討論輕生的相關內容。如果發現未成年者有自殺傾向,系統會嘗試聯絡父母或相關單位。

美國近期發生不止一宗青少年輕生後被發現生前曾受AI聊天機械人影響的個案,死者家長先後入稟控告AI公司,當中包括OpenAI。

AI對話趨私密 須更高級保護

奧爾特曼周二透過OpenAI網站發表署名文章,提到社會各界關注的三大議題,包括私隱權、自由與青少年。他在文章開頭提到,OpenAI正在開發更先進的資安功能,保障使用者的隱私。他說,隨着人們與AI對話的內容愈來愈私密,這項科技有人們最敏感的個人資料,就像與醫生討論病歷、向律師說明法律問題一樣,這些資訊必須受到更高等級的保護。

接着他談到使用者的自由度。他強調,在資訊安全的大原則下,希望讓使用者依照自己的方式自由使用,確保使用者有最大程度的自由在不會傷害他人、侵犯別人的情况下,「把成年人當作成年人看待」。他舉例,一般而言,ChatGPT在預設狀態下,不會作太多調情式的曖昧對話,但如果成年使用者提出要求,就應該得到使用者想要的回應。另一個例子是,系統不會提供輕生的具體作法,但如果成年使用者要寫一篇關於自殺情節的小說,ChatGPT應該給予協助。

OpenAI:對青少年安全先於私隱

至於保護青少年上,奧爾特曼指出:「對於青少年,我們把安全擺在私隱和自由之前。這是一項新興且強大的科技,我們認為未成年人需要額外的保護。」他透露,公司正打造一套年齡預測系統,能根據使用者的行為推測年齡;若有疑慮,會傾向「寧枉毋縱」,把使用者設定為未滿18歲。他說,在某些情况下或特定國家,ChatGPT還會要求使用者提供身分證明。

(中央社)