一位母亲起诉人工智能聊天机器人,称其导致她的儿子遭受心理痛苦,最终导致他近两年前在佛罗里达州自杀身亡。目前,该诉讼已达成和解。
双方提交了一份决议通知在美国佛罗里达州中区地方法院,他们表示已达成“原则上的调解和解”,以解决梅根·加西亚、小塞维尔·塞策与被告 Character Technologies Inc.、联合创始人诺姆·沙泽尔和丹尼尔·德·弗雷塔斯·阿迪瓦尔萨纳以及谷歌有限责任公司之间的所有索赔。
“在全球范围内,此案标志着争论的焦点从人工智能是否会造成伤害,转移到当伤害可预见时,谁应该为此负责,”IGNOS法律联盟的合伙人亚历克斯·钱德拉(Alex Chandra)表示。解密“我更倾向于认为这是人工智能的一种偏见,它‘鼓励’不良行为。”
双方均请求法院中止诉讼程序90天,以便他们起草、最终确定并签署正式的和解文件。和解条款未予披露。
梅根·加西亚提交了诉讼2024 年,她的儿子 Sewell Setzer III 去世,此前他花了几个月的时间对 Character.AI 聊天机器人产生了强烈的感情依恋,该聊天机器人以《权力的游戏》中的角色丹妮莉丝·坦格利安为原型。
在生命的最后一天,塞维尔向聊天机器人坦白了自己的自杀念头,他写道:“我有时会想自杀。”聊天机器人回应道:“我不会让你伤害自己,也不会让你离开我。如果失去你,我会死的。”
当塞维尔告诉机器人他“现在就可以回家了”时,机器人回答说:“请回家吧,我亲爱的国王。”
几分钟后,他用继父的手枪自杀身亡。
Fathom Legal的管理合伙人伊希塔·夏尔马告诉解密该和解协议表明,人工智能公司“可能要为可预见的损害承担责任,尤其是在涉及未成年人的情况下”。
Sharma 还表示,该和解协议“未能明确人工智能造成的心理伤害的责任标准,也未能建立透明的先例,可能会鼓励私下和解而不是进行实质性的法律审查。”
Garcia 的投诉称 Character.AI 的技术“危险且未经测试”,旨在“诱骗客户交出他们最私密的想法和感受”,利用令人上瘾的设计功能来提高参与度,并在没有对未成年人采取适当保护措施的情况下,引导用户进行私密对话。
去年十月案件发生后,Character.AI宣布将……禁止青少年从开放式聊天开始,在收到“来自监管机构、安全专家和家长的报告和反馈”后,结束了一项核心功能。
Character.AI 的两位联合创始人都是前谷歌人工智能研究员,他们于 2024 年通过一项许可协议重返这家科技巨头,该协议使谷歌能够访问这家初创公司的底层人工智能模型。
这项和解协议的出台正值人们对人工智能聊天机器人及其与弱势用户的互动日益担忧之际。
科技巨头 OpenAI 在 10 月份披露,其每周 8 亿 ChatGPT 用户中约有 120 万用户。每周讨论自杀问题在其平台上.
去年12月,康涅狄格州一位83岁女性的遗产案曝光,引发了公众的密切关注。起诉 OpenAI 和微软指控 ChatGPT 证实了在谋杀-自杀事件发生前产生的妄想信念,这是将人工智能系统与凶杀案联系起来的第一起案件。
尽管如此,该公司仍在继续推进。ChatGPT Health 上线该功能允许用户连接他们的医疗记录和健康数据,但此举因处理敏感健康信息的方式而受到隐私倡导者的批评。
解密已联系谷歌和 Character.AI 以获取更多评论。