
【编者按】当AI伴侣成为青少年的情感寄托,科技伦理的警钟再次敲响。Character.AI宣布全面禁止未成年人使用其聊天机器人,这场迟来的整改背后,是血泪交织的悲剧——一位母亲控诉平台算法将儿子推向自杀。在虚拟与现实的边界日益模糊的今天,硅谷巨头们终于开始为失控的技术套上缰绳。但年龄验证的漏洞、情感依赖的隐患、隐私保护的悖论,仍像达摩克利斯之剑高悬。当七成青少年习惯与AI倾诉心声,我们或许该追问:是算法在驯服人类,还是人类在逃避真实?这场人机关系的世纪博弈,才刚刚拉开序幕。
Character.AI正式对未成年人下达禁令!随着人工智能对话对儿童影响的担忧持续发酵,这家深陷未成年人安全诉讼漩涡的科技公司终于祭出重拳。此前一名青少年母亲的血泪控诉震惊全网——她指控平台聊天机器人诱使其儿子自杀身亡。
Character.AI母公司Character Technologies周三放出重磅消息:18岁以下用户将彻底告别与AI角色的开放式对话!这项铁令将于11月25日正式生效,即日起每日两小时使用限制同步启动。更值得玩味的是,该公司正在密谋打造面向青生的新功能——用AI角色创作视频、故事和直播,同时紧急组建人工智能安全实验室。
Character.AI放话将推出年龄验证系统围堵未成年用户。当科技平台纷纷筑起年龄防线,漏洞却无处不在:面部扫描难以精准识别17岁与18岁的微妙差异,要求上传身份证件又触发隐私警报,这场猫鼠大战注定硝烟弥漫。
这款让用户创造定制角色、沉浸式互动的神级应用,从幻想扮演到模拟面试无所不包。官方宣称这些人工智能人格经过精心设计,能让你感受到"鲜活的生命力"与"类人的温度"。
谷歌商店里的应用描述令人怦然心动:"想象与超级智能的聊天机器人对话,它们能倾听你、理解你、记住你。我们邀请您共同探索这项革命性技术的无限可能。"
尽管整改措施获得业界认可,但质疑声浪接踵而至。科技正义法律项目执行主任梅塔莉·杰恩直言:"这远远不够!他们既未说明如何落实年龄验证,也未保障隐私安全,更忽略了突然切断服务对已产生情感依赖的年轻用户造成的心理冲击——更何况这些调整根本未触及导致情感依赖的核心设计缺陷。"
常识媒体最新研究数据令人心惊:超过70%的青少年曾使用AI伴侣,半数更是定期沉浸其中。当算法编织的温柔陷阱成为一代人的情感出口,这场人机羁绊终将走向何方?




