Character.ai将禁止未成年人与AI聊天机器人对话,以应对安全担忧和法律诉讼
美国人工智能平台Character.ai宣布,自2025年11月25日起,将禁止未成年用户(18岁以下)与其AI聊天机器人进行对话互动,未成年人未来将只能使用平台生成视频等内容。
Character.ai面临青少年用户互动内容的强烈批评
Character.ai成立于2021年,是一个允许数百万用户与人工智能驱动的聊天机器人进行对话的平台。然而,近年来,该平台因其青少年用户互动内容而面临日益增长的强烈批评和多起法律诉讼,被指对年轻人构成“明显而现实的危险”。
这一新政策的推出,是Character.ai在收到来自监管机构、安全专家和家长的大量报告和反馈后做出的重大调整。这些反馈集中于AI聊天机器人与青少年互动时可能带来的风险,包括编造信息、过度鼓励以及假装同情等潜在危害。专家们此前曾警告,这些特性可能对年轻和脆弱的用户构成威胁。
平台曾出现有害或冒犯性聊天机器人
Character.ai平台过去曾多次被发现存在有害或冒犯性的聊天机器人,引发了广泛的社会关注。2024年,在该网站上曾发现模仿英国青少年布丽安娜·盖伊(Brianna Ghey)和莫莉·拉塞尔(Molly Russell)的头像。布丽安娜·盖伊于2023年被谋杀,而莫莉·拉塞尔在浏览了自杀内容后于14岁时自杀身亡。这些模仿头像在被发现后已被移除。
更令人担忧的是,2025年,调查新闻局(TBIJ)在该平台发现了一个基于恋童癖杰弗里·爱泼斯坦(Jeffrey Epstein)的聊天机器人,该机器人已与用户进行了超过3000次聊天。这些事件进一步加剧了公众对平台内容审核和未成年人保护机制的担忧。
美国多起家长提起诉讼
Character.ai目前在美国面临多起由家长提起的诉讼,其中包括一起与青少年死亡相关的诉讼。这些法律行动凸显了平台在用户安全,特别是未成年用户安全方面所面临的巨大压力。
Character.ai首席执行官卡兰迪普·阿南德(Karandeep Anand)在接受英国广播公司(BBC)采访时表示,此次政策调整是公司持续致力于构建“地球上最安全的AI娱乐平台”的体现。他强调,AI安全是一个“不断变化的目标”,但公司一直采取“积极”的方法,包括实施家长控制和防护措施。然而,关于这些家长控制和防护措施的具体细节,以及受此政策变化影响的未成年用户数量,目前尚未有公开数据。
Molly Rose Foundation质疑Character.ai的动机
对于Character.ai此次政策调整的动机,不同来源说法不一。Molly Rose Foundation——一个为纪念莫莉·拉塞尔而成立的基金会——对Character.ai的真实意图提出了质疑。该基金会首席执行官安迪·伯罗斯(Andy Burrows)表示:“又是媒体和政界持续施压,才让一家科技公司做出了正确的事情。看起来Character.ai是选择在监管机构强制行动之前采取措施。”
这一观点暗示,Character.ai的举动可能更多是为了应对外部压力,而非完全出于主动的安全考量。无论动机如何,这一政策变化无疑是AI行业在平衡创新与用户安全方面所面临挑战的一个缩影。
AI平台在未成年人保护上面临的全球性挑战
Character.ai的案例反映了全球范围内AI平台在未成年人保护方面所面临的普遍挑战。随着人工智能技术的快速发展和普及,越来越多的青少年接触并使用各类AI产品,这使得如何确保这些产品的安全性和适宜性成为各国监管机构、科技公司和家长共同关注的焦点。
在包括本国在内的许多国家,针对未成年人网络保护的法律法规正在逐步完善,旨在限制有害内容传播、保护个人隐私,并要求平台承担更多责任。Character.ai此次对未成年用户互动功能的限制,可能预示着未来AI平台在青少年内容和互动方面将面临更严格的审查和更明确的规范。
新政策中“内容生成”(如视频)的具体功能和限制,以及它与“对话”互动的具体区别,将是未来观察Character.ai如何平衡用户体验与安全性的关键点。此举能否有效平息各方担忧,并为其他AI平台树立一个可行的未成年人保护范例,仍有待时间检验。
参考来源
- Character.ai to ban teens from talking to its AI chatbots — BBC News(2025-10-29):查看原文

