안전 중재자
Learn how to use the Moderation Platform as a Safety Moderator.
읽는 시간 1분최근 업데이트: 21일 전
안전 중재자는 프로젝트 내에서 사용자에게 할당되는 역할이며, 이 역할에는 Moderation Platform에 액세스할 수 있는 권한이 부여됩니다. Moderation Platform은 Safe Voice나 Safe Text를 통해 사용자 커뮤니케이션에 대한 추가 컨텍스트를 제공하여 중재 팀이 온라인 경험을 개선하도록 지원합니다. 사용자가 인시던트나 신고를 트리거하면 Safe Voice는 이벤트와 근접한 음성 채팅을 기록하고 이를 분석합니다. Safe Text는 부적절한 메시지로 식별된 텍스트 메시지를 강조 표시합니다. 분석 작업에서 생성된 신고서를 통해 중재 팀은 이를 의사결정에 활용하고, 우선순위를 지정하여 인시던트에서 정책이 위반되었는지 여부를 신속하게 식별할 수 있습니다. Safe Voice나 Safe Text에 연결되고 세션이 처리되면 중재자는 Moderation Platform을 활용해 세션 결과를 분석합니다. 안전 중재자는 다음 작업을 수행할 수 있습니다.
- 플레이어 리포트를 보고 관리합니다.
- 세션을 검색하고 정렬합니다.
- 세션 오디오를 듣습니다.
- 세션을 아카이브합니다.
- 세션 정확도에 관한 피드백을 제공합니다.
- 리포트에 대한 조치를 취합니다.
- 커뮤니티 상태 대시보드를 확인합니다.