【资料图】
近年来,随着互联网的深入渗透,未成年触网行为引发社会各界关注。但网络保护工作不仅需要政府、家庭、学校的努力,更需要更多互联网平台担起社会责任。通过综合的、多方位的保护措施,为青少年提供一个安全、健康的网络环境,帮助他们更好地利用互联网的资源和信息。对此,Soul积极为未成年人触网行为提供全面保护,建立健全青少年模式内容管理机制,主动承担社会责任,联手各方共同护航青少年成长。
当青少年使用网络空间时,有时会存在刻意规避青少年认证的情况。因此,“假成年人”的识别与信息阻断也考验着平台的能力水平。依托自身技术能力,Soul打造未成年内容识别模型,可针对兴趣群组、群聊派对、内容广场等公域场景下用户发布的文字、语音、图片等内容进行年龄特征识别,并结合人工判定对未成年人进行识别。同时,在群聊等一对多场景中,若同时存在多名用户提及未成年元素,辅以人工判定,对潜在的未成年人进行兜底识别。在设备识别方面,针对过往在“青少年模式”下使用产品的设备,账号注销后新注册的账号依然直接关联“青少年模式”,用户提交详细材料自证为成年人后方可退出“青少年模式”并正常使用产品。
做好内容防护一直是绿色社交平台的要务。作为备受年轻人青睐的新型社交平台,Soul从人工策略和智能模型策略双管齐下展开治理,对软色情等灰色信息进行有效识别与拦截,对违规账号严肃处置。平台不断优化迭代的策略模型,就像一面面照妖镜,让各类有害信息尽显原形。
比如Soul第二季度重磅推出的防网暴骚扰“神器”——消息盒子,可以开启“智能收纳”与“自定义收纳”两种模式。在智能收纳模式下,消息盒子将根据风控模型策略拦截潜在违规用户的信息;在自定义收纳模式下,用户可以自定义选择不希望收到的消息关键词,后续带有该类关键词的消息将被折叠进消息盒子。对于这类被折叠收纳的消息,用户可以选择“不点击查看”或“一键批量删除”,充分享有社交对话内容的选择权。同时,Soul持续完善举报模式。在私聊场景中,用户可自主选择对骚扰、冒犯的人进行举报,违规者将被限制使用私聊功能并扣除一部分社交礼仪分;用户举报违规人员后,若被举报者再发送信息,将出现拉黑选择弹窗供用户选择,避免用户被持续骚扰。
Soul在内容生态治理方面落实的各项举措,有效阻断了不良信息的传播链条,也及时斩断了可能伸向未成年用户的“黑手”。Soul也将会继续引导用户文明健康社交规范,传递正能量、弘扬真善美、抵制假恶丑,更好地保障用户的安全和平台的清朗氛围。
上一篇:工业设备上云率保持全国第一!河北累计上云企业超过8.5万家
下一篇:最后一页
广告
X 关闭
广告
X 关闭