Help:New filters for edit review/Quality and Intent Filters/pt-br

Os novos filtros para a revisão de edições introduzem dois novos grupos de filtros – qualidade da contribuição e intenção do usuário – que funcionam de maneira diferente dos outros filtros de revisão de edições. Nesses grupos, os filtros oferecem previsões sobre possíveis edições problemáticas e se o editor agiu em boa-fé ou não, respectivamente. Saiba um pouco sobre essas ferramentas e você poderá usá-las mais efetivamente.

Estes filtros estão disponíveis somente em certas wikis.

Baseado em aprendizado de máquina
As previsões que possibilitam os filtros de qualidade e de intenção são calculadas pelo ORES, um programa de aprendizado de máquina treinado num vasto conjunto de edições anteriormente classificadas por editores humanos. O aprendizado de máquina é uma tecnologia poderosa, que permite que máquinas repliquem alguns aspectos limitados a julgamento humano.

Os filtros de qualidade e de intenção estão disponíveis apenas nas wikis onde os “modelos” de “danos” e “boa-fé” são compatíveis. O modelo de “danos” do ORES direciona-se às previsões de qualidade, enquanto seu modelo de “boa-fé” direciona-se às de intenção.

Para ativar o ORES, é necessário que voluntários classifiquem edições na wiki. Esta página explica o processo e como você pode ativá-lo na sua wiki.

Escolhendo a ferramenta certa
Vendo os filtros de qualidade e de intenção, você pode notar algo diferente sobre eles. Diferente dos filtros de outros grupos, as várias opções não focam em diferentes propriedades de edição. Ao invés, muitas delas focam na mesma propriedade, mas oferecem diferentes níveis de precisão.

Por que alguém escolheria usar uma ferramenta que é menos precisa? Porque tal precisão pode ter um custo.

Aumentar a probabilidade de previsão (maior “precisão”)
[[File:RC-quality-filters-diagram.png|alt=This conceptual diagram illustrates how the Quality filters relate to one another.|thumb|400x400px|Este diagrama conceitual ilustra como os filtros de qualidade relacionam uns com os outros em várias wikis (a performance varia).

Como pode-se ver, o filtro  captura resultados compostos quase em sua totalidade de edições problemáticas (alta precisão), mas captura apenas uma pequena porção de todas as edições problemáticas (baixa revocação). Perceba como tudo em ' (e ') também está incluído no amplo , que fornece alta revocação mas pouca precisão (por retornar uma alta porcentagem de edições não problemáticas).

Você pode se surpreender pelo fato do ' ultrapassar o '. Ambos os filtros cobrem a zona indeterminada entre edições problemáticas e não problemáticas para capturar mais alvos (revocação mais ampla).

Por questões de espaço, o diagrama não reflete escala com precisão. ]] Os filtros mais precisos no menu retornam uma porcentagem maior de previsões corretas vs. incorretas e, consequentemente, menos falsos positivos. (Na linguagem de reconhecimento de padrões, esses filtros possuem maior “precisão”.) Eles alcançam tal precisão por serem mais restritos. Ao pesquisar, eles definem uma barra de probabilidade mais alta. O lado ruim disso é que pode-se retornar uma porcentagem menor de seus alvos.


 * Exemplo: O filtro  é o mais preciso dos filtros de qualidade. A performance varia de wiki para wiki, mas na Wikipédia inglesa, suas precisões estão certas 90% do tempo. Em troca, o filtro encontra apenas cerca de 10% de todas as edições problemáticas em dado conjunto – por passar por problemas mais difíceis de serem detectados. Os problemas encontrados por esse filtro geralmente incluirão vandalismo.

Encontrar mais do seu alvo (maior “revocação”)
Se a sua prioridade for encontrar tudo ou a maior parte do seu alvo, você precisará de um filtro mais amplo e menos preciso. Estes encontrarão mais do que você está procurando, definindo a barra de probabilidade mais para baixo. Em troca, serão retornados mais falsos positivos. (Na linguagem técnica, esses filtros possuem maior “revocação”, definida como a porcentagem do que sua consulta encontra com êxito.)


 * Exemplo: O filtro  é o filtro de qualidade mais amplo. Sua performance varia de wiki para wiki, mas na Wikipédia inglesa ele captura cerca de 82% das edições problemáticas. No lado negativo, este filtro está certo apenas cerca de 15% das vezes.


 * Se 15% não parecer muito útil, considere que edições problemáticas ocorrem numa taxa menor que 5 em 100 – 5%. 15% é três vezes maior que o aleatório. E, claro, patrulhadores não tiram amostras aleatórias; eles possuem habilidades em usar várias ferramentas e pistas para aumentar suas taxas de acerto. Combinado com essas técnicas,  fornece uma vantagem significativa.

(Como mencionado acima, o ORES funciona de forma diferente em wikis diferentes, o que significa que alguns estão menos sujeitos às compensações que acabamos de discutir do que outras. Na Wikipedia polonesa, por exemplo, o filtro ' captura 91% das edições do problema, em comparação com 34% com o filtro correspondente na Wikipédia em inglês. Por causa disso, a Wikipédia polonesa não precisa - ou tem - um filtro maior que ').

Obter o melhor dos dois mundos (com destaques)


O sistema de filtros foi designado para contornar os lados negativos descritos acima. É possível realizar isso filtrando e destacando as informações que mais importarem.

Para usar essa estratégia, vale entender que os filtros mais precisos, como o $VeryLikelyHaveProblems, retornam resultados que são um subconjunto dos filtros menos precisos, como o $MayHaveProblems. Em outras palavras, todos os resultados “Muito provavelmente” também estão incluídos no conjunto $MayHaveProblems1. (O diagrama acima ilustra esse conceito.) In other words, all “Very likely” results are also included in the broader . (The diagram above illustrates this concept.)


 * Exemplo: encontrar quase todas as prejudiciais, enfatizando as mais/menos prováveis:
 * Com as configurações padrão,
 * Marque o filtro $MayHaveProblems.
 * No mesmo tempo, destaque – sem marcar – $LikelyHaveProblems de amarelo e $VeryLikelyHaveProblems de vermelho.


 * With the default settings loaded,
 * Check the broadest Quality filter, .
 * At the same time, highlight —without checking the filter boxes— ', in yellow, and ', in red.


 * Porque você está usando o filtro de qualidade mais amplo, seus resultados incluirão a maioria das edições problemáticas ("recall" elevado). Mas, ao pesquisar as bandas amarelas, vermelhas e laranja (ou seja, blended red + yellow), você poderá facilmente escolher as edições de problemas mais prováveis e abordá-las primeiro. (Encontre ajuda em usando destaques sem filtragem.)

Encontrar as boas (e recompensá-las)


A boa fé é fácil de encontrar, literalmente! Assim são com boas edições.

Os filtros ' e ' oferecem novas maneiras de encontrar e incentivar os usuários que estão trabalhando para melhorar as wikis. Por exemplo, você pode usar o filtro ' em combinação com o filtro ' para agradecer aos novos usuários por seu bom trabalho.


 * Exemplo: Agradecendo novos usuários de boa-fé
 * Limpe os filtros clicando na lata de lixo. Em seguida, selecione os filtros ' e '.
 * Marque o filtro de qualidade .
 * Marque os filtros de registro de usuário e de experiência ' e ' (isso tem o efeito oculto de limitar seus resultados aos usuários registrados).
 * Destaque o filtro , em verde.
 * Todas as edições em seus resultados serão boas edições dos Recém-chegados (usuários com menos de 10 edições e 4 dias de atividade) e Aprendizes (usuários com menos de 500 edições e 30 dias de atividade). O destaque verde permite distinguir facilmente entre os dois.

O bem está em toda parte!
Os “filtros do bem” mencionados acima são precisos e amplos, o que significa que eles não estão sujeitos às compensações descritas na seção anterior (eles combinam alta “precisão” com alta “revocação”). Esses filtros estão corretos cerca de 99% do tempo e encontram bem mais de 90% de seus objetivos. Como eles podem fazer isso?

A resposta feliz é que os “filtros do bem” funcionam tão bem porque o bem é mais comum do que o mau. Ou seja, boas edições e boa-fé são muito, muito mais abundantes que os opostos – e, portanto, mais fáceis de encontrar. Isso pode surpreender alguns patrulheiros, mas na Wikipédia inglesa, por exemplo, uma em cada 20 edições tem problema, e apenas cerca de metade dessas edições problemáticas são vandalismo intencional.

Lista de filtros
Nos wikis em que os Filtros de Qualidade e Intenção são implantados, alguns filtros podem estar faltando devido a uma melhor qualidade de previsões. O melhor ORES executa em um wiki, menos níveis de filtro são necessários.