Por outro lado, o conteúdo exploratório representa apenas 6,7% dos relatórios, mas leva à segunda maior quantidade de proibições. Parte do motivo é que é muito mais provável que o Discord tome uma ação depois de receber um desses relatórios, mas a empresa diz que também está adotando uma abordagem muito mais proativa para removê-lo. O Discord verifica todas as imagens e vídeos enviados para o seu serviço e usa o PhotoDNA para combiná-lo com o material conhecido sobre abuso sexual infantil. Na maioria dos casos, essa abordagem significa que os servidores ofensivos podem ser removidos antes que alguém os relate, diz Discord.

O spam era uma área em que havia um número consistentemente alto de relatórios e proibições. Foi o terceiro tipo de relatório mais comum, teve a maior taxa de ações dentre todos os relatórios e resultou na maior quantidade de proibições. O Discord diz que é muito mais provável que você tome medidas nos relatórios de spam, porque eles geralmente afetam uma grande quantidade de usuários e é fácil de verificar.

Embora 5,2 milhões pareçam muitas proibições, é apenas uma fração do que o Facebook revelou ter removido em seu último relatório de transparência no ano passado. A empresa disse que removeu 54 milhões de peças de conteúdo violento ou gráfico, mais de 10 milhões de postagens contendo discurso de ódio, 5,7 milhões de postagens que violaram suas políticas de bullying ou assédio e 18,5 milhões de peças de conteúdo explorador. Por outro lado, com mais de 2 bilhões de usuários em comparação com o mero quarto de milhão do Discord em maio do ano passado, a disparidade não é uma grande surpresa.

A Discord divulgou seu primeiro relatório de transparência em agosto passado, que abrangeu o primeiro trimestre do ano passado. No futuro, o Discord diz que espera divulgar relatórios semestralmente, com seu próximo relatório chegando em agosto.