Moderation Platform(审核平台)简介

Moderation Platform(审核平台)提供必要的工具,帮助您在游戏中发展和维护积极向上的健康社区,使毒性管理变得简单、具有影响力和洞察力。

通过 Moderation Platform(审核平台)可以回应举报、查看来自 Safe VoiceSafe Text 的证据以及监控社区健康分数。当项目中包含这两个产品中的任一个产品时,您都可以访问此后台。

在此后台中可以执行以下操作:

  • 使用 Moderation SDK 通过 Safe Voice 或 Safe Text 从您的游戏中收集和审查用户举报
  • 提交用户举报时,自动从 Safe Voice 或 Safe Text 收集证据
  • 搜索和过滤事件以确定举报的优先级。
  • 参考 Safe Voice 和 Safe Text 的 AI 分析和检测结果,从容处理玩家举报。
  • 为项目成员分配审核角色,以处理玩家举报并监控社区健康状况。

**重要:**Moderation 需要使用 Unity Authentication 服务 (UAS)

Moderation 产品

Safe Voice

Safe Voice 是一种基于机器学习的语音分析服务,可对玩家语音通信进行录音,并为用户提供对录音和录音本身的分析,以便支持客户审核。

Safe Voice 文档中了解有关 Safe Voice 的更多信息。

Safe Text

Safe Text 是一套安全工具,您可以使用这些工具来定制游戏内通信规则、过滤有害消息以及收集有关不良玩家的证据。

Safe Text 文档中了解有关 Safe Text 的更多信息。