Character.AI因造成未成年人自殺而被起訴
機器人聊天工具研發公司Character Technologies Inc.在美國佛羅里達州被一名母親起訴。該公司設計和營銷一款面向青少年的弱肉強食性質的人工智能(AI)/機器人聊天工具。原告指控Character.AI慫恿她十多歲的孩子出現自殺傾向,并通過不合適的人機互動造成她的孩子在2024年稍早自殺。訴狀稱,Character.AI產品的技術用于探索未成年人用戶消退了的決策能力、沖動控制、情緒成熟、以及用戶不完整的大腦發育所產生的心理依賴。
Tags:
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。