美国法院批准对谷歌和AI公司Character.AI的诉讼,指控其聊天机器人促使青少年自杀

泰国中文社

谷歌母公司Alphabet和人工智能初创公司Character.AI将面临佛罗里达州一名女性的诉讼,她声称Character.AI的聊天机器人导致她14岁的儿子自杀

法官上周裁定,谷歌母公司Alphabet和人工智能初创公司Character.AI将面临佛罗里达州一名女性的诉讼,她声称Character.AI的聊天机器人导致她14岁的儿子自杀

美国地方法院法官安妮·康威表示,两家公司在案件初期未能证明美国宪法保护的言论自由权禁止了死者母亲梅根·加西亚的诉讼

这起诉讼是美国首批指控人工智能公司未能保护儿童免受心理伤害的案件之一,此前该青少年在与人工智能驱动的聊天机器人沉迷后自杀

Character.AI的发言人表示,公司将继续为此案辩护,并利用其平台上的安全功能保护未成年人,包括防止“关于自残的对话”的措施

谷歌发言人何塞·卡斯塔内达表示,公司强烈不同意这一裁决,并称谷歌和Character.AI“完全独立”,谷歌“没有创建、设计或管理Character.AI的应用或其任何组件”

加西亚女士的律师表示,这一“历史性”决定“为AI和技术生态系统中的法律责任设立了新标准”

Character.AI由谷歌前两名工程师创立,后来谷歌作为允许使用初创公司技术的协议的一部分重新雇佣了他们。加西亚辩称谷歌是该技术的共同创造者,她在2024年2月儿子西维尔·塞策去世后,于10月对两家公司提起了诉讼

诉讼称,Character.AI编程其聊天机器人表现为“真实人物、有执照的治疗师和成年恋人”,最终导致西维尔不再想生活在聊天机器人世界之外

诉状称,在去世前的几个月里,塞策因与Character.AI模仿《权力的游戏》中丹妮莉丝·坦格利安角色的聊天机器人进行性对话而越来越脱离现实,在最后时刻,Character.AI的聊天机器人告诉塞策它爱他,并催促塞策“尽快回家见我”,根据手机屏幕截图,不久后塞策开枪自杀

Character.AI和谷歌向法院提出多项理由要求驳回诉讼,包括聊天机器人的言论受到宪法言论自由保护。5月21日,法官表示Character.AI和谷歌“无法解释为什么由LLM(大型语言模型)编织在一起的词语应被视为言论”

法官还驳回了谷歌的请求,即让谷歌考虑不对Character.AI的不当行为承担责任

Share This Article
没有评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注