综合光明网等媒体消息,美国人工智能明星独角兽公司Character.AI以及科技巨头谷歌,日前因卷入一起少年自杀案而遭到起诉。此案的原告是美国佛罗里达州的一位律师,她年仅14岁的儿子塞维尔对Character.AI中的虚拟陪伴者“龙妈”产生了情感依恋。在沉迷数月之后,塞维尔变得与世隔绝,最终于今年二月自杀。
经原告授权,媒体披露了少年与AI陪伴者的部分对话。塞维尔曾几次表露过“自杀”“解脱出来”等念头,AI系统均未出现过相关防护性提示。尤其在最后一段对话中,少年提出想“回家”“回到她身边”,AI陪伴者回复了“请尽快回家找我”的字样,随后,少年放下了手机、拿起继父的手枪扣动了扳机。
此案在社交媒体上被称为“首例AI聊天致死案”。虽然也有人指出,少年的自杀是家庭缺位、枪支管理等问题的多因一果,但这些原因恐怕都难以抹杀AI陪伴者与自杀结果的直接相关性。尤其,Character.AI带来的青少年沉迷问题已成现象,没有庞大数量的拥趸、没有这么长的在线使用时长,也就没有这家短时间内就崛起的明星独角兽公司。面对原告的指控“危险性过高”,面向儿童销售且缺乏安全防护措施,平台方难辞其咎。
西班牙多名临床心理学家也表示,这类AI工具被认为有助于对抗孤独等问题,但也存在重大的心理健康风险。如果人们选择数字互动模式而不是人与人之间的交流,非但不会减轻孤独感,反而可能会加剧这种感觉。专家指出,技术发展通常只关注好处,而忽视了可能对用户产生的负面影响。
|