Help:New filters for edit review/Quality and Intent Filters/pt-br

Os novos filtros para a revisão de edições introduzem dois novos grupos de filtros – qualidade da contribuição e intenção do usuário – que funcionam de maneira diferente dos outros filtros de revisão de edições. Nesses grupos, os filtros oferecem previsões sobre possíveis edições problemáticas e se o editor agiu em boa-fé ou não, respectivamente. Saiba um pouco sobre essas ferramentas e você poderá usá-las mais efetivamente.

Estes filtros estão disponíveis somente em certas wikis.

Baseado em aprendizado de máquina
As previsões que possibilitam os filtros de qualidade e de intenção são calculadas pelo ORES, um programa de aprendizado de máquina treinado num vasto conjunto de edições anteriormente classificadas por editores humanos. O aprendizado de máquina é uma tecnologia poderosa, que permite que máquinas repliquem alguns aspectos limitados a julgamento humano.

Os filtros de qualidade e de intenção estão disponíveis apenas nas wikis onde os “modelos” de “danos” e “boa-fé” são compatíveis. O modelo de “danos” do ORES direciona-se às previsões de qualidade, enquanto seu modelo de “boa-fé” direciona-se às de intenção.

Para ativar o ORES, é necessário que voluntários classifiquem edições na wiki. Esta página explica o processo e como você pode ativá-lo na sua wiki.

Escolhendo a ferramenta certa
Vendo os filtros de qualidade e de intenção, você pode notar algo diferente sobre eles. Diferente dos filtros de outros grupos, as várias opções não focam em diferentes propriedades de edição. Ao invés, muitas delas focam na mesma propriedade, mas oferecem diferentes níveis de precisão.

Por que alguém escolheria usar uma ferramenta que é menos precisa? Porque tal precisão pode ter um custo.

Aumentar a probabilidade de previsão (maior “precisão”)
[[File:RC-quality-filters-diagram.png|alt=This conceptual diagram illustrates how the Quality filters relate to one another.|thumb|400x400px|Este diagrama conceitual ilustra como os filtros de qualidade relacionam uns com os outros em várias wikis (a performance varia).

Como pode-se ver, o filtro  captura resultados compostos quase em sua totalidade de edições problemáticas (alta precisão), mas captura apenas uma pequena porção de todas as edições problemáticas (baixa revocação). Perceba como tudo em ' (e ') também está incluído no amplo , que fornece alta revocação mas pouca precisão (por retornar uma alta porcentagem de edições não problemáticas).

Você pode se surpreender pelo fato do ' ultrapassar o '. Ambos os filtros cobrem a zona indeterminada entre edições problemáticas e não problemáticas para capturar mais alvos (revocação mais ampla).

Por questões de espaço, o diagrama não reflete escala com precisão. ]] Os filtros mais precisos no menu retornam uma porcentagem maior de previsões corretas vs. incorretas e, consequentemente, menos falsos positivos. (Na linguagem de reconhecimento de padrões, esses filtros possuem maior “precisão”.) Eles alcançam tal precisão por serem mais restritos. Ao pesquisar, eles definem uma barra de probabilidade mais alta. O lado ruim disso é que pode-se retornar uma porcentagem menor de seus alvos.


 * Exemplo: O filtro  é o mais preciso dos filtros de qualidade. A performance varia de wiki para wiki, mas na Wikipédia inglesa, suas precisões estão certas 90% do tempo. Em troca, o filtro encontra apenas cerca de 10% de todas as edições problemáticas em dado conjunto – por passar por problemas mais difíceis de serem detectados. Os problemas encontrados por esse filtro geralmente incluirão vandalismo.

Encontrar mais do seu alvo (maior “revocação”)
Se a sua prioridade for encontrar tudo ou a maior parte do seu alvo, você precisará de um filtro mais amplo e menos preciso. Estes encontrarão mais do que você está procurando, definindo a barra de probabilidade mais para baixo. Em troca, serão retornados mais falsos positivos. (Na linguagem técnica, esses filtros possuem maior “revocação”, definida como a porcentagem do que sua consulta encontra com êxito.)


 * Exemplo: O filtro  é o filtro de qualidade mais amplo. Sua performance varia de wiki para wiki, mas na Wikipédia inglesa ele captura cerca de 82% das edições problemáticas. No lado negativo, este filtro está certo apenas cerca de 15% das vezes.


 * Se 15% não parecer muito útil, considere que edições problemáticas ocorrem numa taxa menor que 5 em 100 – 5%. 15% é três vezes maior que o aleatório. E, claro, patrulhadores não tiram amostras aleatórias; eles possuem habilidades em usar várias ferramentas e pistas para aumentar suas taxas de acerto. Combinado com essas técnicas,  fornece uma vantagem significativa.

(As noted above, ORES performs differently on different wikis, which means that some are less subject to the tradeoffs just discussed than others. On Polish Wikipedia, for example, the ' filter captures 91% of problem edits, compared to 34% with the corresponding filter on English Wikipedia. Because of this, Polish Wikipedia does not need—or have—a broader ' filter.)

Obter o melhor dos dois mundos (com destaques)


The filtering system is designed to let users get around the tradeoffs described above. You can do this by filtering broadly while Highlighting the information that matters most.

To use this strategy, it’s helpful to understand that the more accurate filters, like ', return results that are a subset of the less accurate filters, such as '. In other words, all “Very likely” results are also included in the broader  set—like the bullseye of a target contained within the outer rings. (The diagram above illustrates this concept.)


 * Example: Find almost all damage while emphasizing the worst/most likely:
 * With the default settings loaded,
 * Check the broadest Quality filter, .
 * At the same time, highlight —without checking the filter boxes— ', in yellow, and ', in red.
 * Because you are using the broadest Quality filter, your results will include most problem edits (high “recall”). But by scanning for the yellow, red and orange (i.e., blended red + yellow) bands, you will easily be able to pick out the most likely problem edits and address them first. (Find help on using highlights without filtering.)

Find the good (and reward it)


Good faith is easy to find, literally! So are good edits.

The ' filter and the ' (Quality) filter give you new ways to find and encourage users who are working to improve the wikis. For example, you might use the ' filter in combination with the ' filter to thank new users for their good work.


 * Example: Thank good-faith new users
 * Clear the filters by clicking the Trashcan. Then select the ' and ' filters.
 * Check the Quality filter .
 * Check the User Registration and Experience filters  and Learners (this has the hidden effect of limiting your results to registered users).
 * Highlight the  filter, in green.
 * All edits in your results will be good edits by Newcomers (users with fewer than 10 edits and 4 days of activity) and Learners (users with fewer than 500 edits and 30 days of activity). The green highlight lets you easily distinguish between the two.

Good is everywhere!
The “good” filters mentioned above are both accurate and broad, meaning they aren’t subject to the tradeoffs described in the previous section (they combine high “precision” with high “recall”). These filters are correct about 99% of the time and find well over 90% of their targets. How can they do that?

The happy answer is that the “good” filters perform so well because good is more common than bad. That is, good edits and good faith are much, much more plentiful than their opposites—and therefore easier to find. It may surprise some patrollers to hear this, but on English Wikipedia, for example, one out of every 20 edits has problems, and only about half those problematic edits are intentional vandalism.

Filters list
On wikis where Quality and Intent Filters are deployed, some filters may be missing due to a better quality of predictions. The better ORES performs on a wiki, the fewer filter levels are needed.