🇨🇳 北京为人类般的AI聊天机器人划定红线,防止用户上瘾 中国的网络监管机构刚刚发布了草案规则,以加强对像人类一样运作并试图与用户建立情感联系的AI服务的监管。 想象一下那些能够反映个性特征、模拟“思考”,并通过文本、图像、音频或视频与您保持对话的聊天机器人。 根据提案,公司必须警告人们不要过度使用这些工具,并在用户表现出上瘾迹象时介入。 提供者还应承担整个产品生命周期的安全责任,包括算法审查、数据安全和个人信息保护的系统。 草案还进一步涉及心理健康领域,表示服务应识别用户状态、评估情绪并衡量对AI的依赖程度。 如果有人表现出极端情绪或上瘾行为,提供者被告知要采取“必要措施”进行干预。 并且有严格的内容红线,包括禁止危害国家安全、传播谣言或促进暴力或淫秽内容的行为。 来源:路透社