Moderation Platform 소개

Moderation Platform은 게임 내에서 건전한 커뮤니티로 성장하고 이를 유지하는 데 필요한 툴을을 제공하여 사용자가 유해성 관리에 쉽게 액세스하고, 효과를 누리며, 인사이트를 얻도록 지원합니다.

Moderation Platform은 리포트에 대해 조치를 취하고 Safe VoiceSafe Text에서 수집한 증거를 검토하고, 커뮤니티 상태 점수를 모니터링하는 방법입니다. 프로젝트에 이러한 제품 중 하나가 포함되어 있으면 이 대시보드에 액세스할 수 있습니다.

대시보드에서 할 수 있는 작업은 다음과 같습니다.

  • Moderation SDK를 사용하여 Safe Voice나 Safe Text를 통해 게임에서 사용자 리포트를 수집하고 검토합니다.
  • 증거는 사용자 리포트가 제출되면 자동으로 Safe Voice나 Safe Text에서 수집됩니다.
  • 인시던트를 검색하고 필터링하여 리포트 우선순위를 지정합니다.
  • Safe Voice와 Safe Text에서 제공하는 AI 분석과 감지 결과를 참조하여 확실하게 플레이어 리포트에 대해 조치를 취합니다.
  • 중재 역할을 프로젝트 구성원에게 할당하여 플레이어 리포트에 대해 조치를 취하고 커뮤니티 상태를 모니터링합니다.

중요: Moderation을 사용하려면 UAS(Unity Authentication 서비스)를 사용해야 합니다.

Moderation 제품

Safe Text

Safe Text는 게임 내 커뮤니케이션 규칙을 맞춤화하고, 유해한 메시지를 제외하고, 유해한 플레이어에 관한 증거를 수집하는 데 사용할 수 있는 안전 툴 제품군입니다.

Safe Text에 관한 자세한 내용은 Safe Text 기술 자료를 참고하십시오.