Help:New filters for edit review/Quality and Intent Filters/fr

Les nouveaux filtres pour la révision des modifications apportent deux groupes de filtres - la qualité des contributions et les intentions utilisateurs - qui travaillent différemment des autres filtres de révision des modifications. Les filtres de ces groupes offrent des prédictions à caractère de probabilité sur respectivement, le fait que les modifcations peuvent ou pas contenir des problèmes, et si les utilisateurs qui les font sont de bonne foi ou pas. Connaître un peu la manière dont ces outils uniques travaillent vous aidera à les utiliser plus efficacement.

Ces filtres ne sont disponibles que sur certains wikis.

Basé sur l’apprentissage-machine
Les prédictions qui rendent possibles les filtres de qualité et d'intentions sont calculés par ORES, qui est un programme-machine d'apprentissage formé sur un grand nombre de contributions précédemment réalisées par des éditeurs humains. L'apprentissage par une machine est une technologie puissante qui lui permet de reproduire certains aspects limités de nos modes de raisonnement humains.

Les filtres de qualité et d'intentions ne sont disponibles que sur les wikis qui prennent en charge les modèles ORES «  préjudiciable » (damaging) et «  bonne foi » (good faith). Le modèle ORES «  préjudiciable » booste les prédictions concernant la qualité, tandis que le modèle «  bonne foi » booste les intentions.

Si vous activez ORES, vous devez avoir des volontaires qui enregistrent des modifications sur les wikis concernés. Cette page en explique le processus et la manière de commencer sur votre wiki.

Choisir le bon outil
En regardant les filtres sur la qualité et les intentions, vous pouvez remarquer quelquechose de différent à leur sujet. A la différence des filtres des autres groupes, les différentes options ne ciblent pas différentes propriétés d'édition. a la place, beaucoup d'entre elles ciblent la même propriété, mais proposent différents niveaux de précision.

Pourquoi devrait-on choisir d'utiliser un outil moins adapté ? Parce qu'une telle acuité peut avoir un coût.

Augmenter la probabilité de prédiction (précision accrue)
[[File:RC-quality-filters-diagram.png|alt=This conceptual diagram illustrates how the Quality filters relate to one another.|thumb|400x400px|Ce diagramme conceptuel illustre comment les les fitres de qualité dépendent les une des autres sur plusieurs wikis (les performances varient).

Comme vous pouvez le voir le filtre  capture les résultats composés presque entièrement de problèmes d'édition (grande précision). Mais il ne capture qu'une petite partie de tous les problèmes d'édition (faible rappel). Remarquez comment chaque élément de ' (et ') est aussi inclus dans le  plus large, ce qui fournit un rappel fort mais une précision plus faible (parce qu'il retourne un grand pourcentage de modifications qui n'ont pas de problème).

Vous pouvez être surpris de voir que ' recouvre '. Les deux filtres recouvrent la zone intermédiaire entre les modifications sans problèmes et celles avec problèmes afin de détecter davantage de cibles (rappel élargi).

Pour des raisons de place, le diagramme n'est pas exactement à l'échelle. ]] Les filtres les plus appropriés du menu retournent un pourcentage plus élévé de versions correctes des prédictions incorrectes et en conséquence peu de faux positifs (dans le lingo de la reconnaissance de modèles, ces filtres ont une précision plus élevée). Ils atteignent cette précision en étant plus étroits, plus restrictifs. Lors de la recherche, ils imposent une probabilté plus haute. La contre partie de cela est que le nombre de cibles trouvées représente un pourcentage plus faible.


 * Exemple : Le filtre  est le plus adequat pour le filtrage de la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, ses prédictions sont bonnes à plus de 90% des cas. Le compromis est que ce filtre ne trouve qu'environ 10% des modifications à problèmes dans un ensemble donné, parce qu'il survole les problèmes plus difficiles à détecter. Les problèmes trouvés par ce filtre couvrent souvent le vandalisme évident.

Trouver davantage de cibles (rappel plus important)
Si votre priorité est de trouver absolument toutes ou la plupart de vos cibles, alors il vous faudra un filtre plus lâche, moins sélectif. Ceux-ci ramènent plus de résultats qu'ils n'en faut car ils abaissent la probabilité. Le compromis ici est qu'ils retournent davantage de faux positifs. En termes techniques, on dira que ces filtres ont un «  rappel » (recall) plus élevé; celui-ci est défini comme le pourcentage entre ce que le filtre a effectivement trouvé et ce que vous cherchez.


 * Exemple : le filtre  est le filtre le plus large sur la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, il détecte environ 82% de sproblèmes de modification. Le compromis est que ce filtre est vrai seulement à 15% du temps.


 * Si 15% ne semble pas très encourageant, remarquez que les modifications problématiques apparaissent actuellement avec un taux de moins de 5 pour 100 (soit 5%). Donc 15% c'est multiplier aléatoirement par trois. Et bien sûr, les patrouilleurs n'y vont pas de manière aléatoire; ils sont entraînés à utiliser des outils variés et indices pour augmenter leur taux de détection. Combiné à ces techniques,  fournit un avantage significatif.

(Comme indiqué ci-dessus, ORES fonctionne différemment selon les wikis, ce qui signifie que certains sont moins soumis aux compromis que nous venons de discuter. Sur la Wikipedia polonaise par exemple, le filtre ' capture 91% des modifications problèmatiques, contre 34% avec le filtre correspondant sur la Wikipedia anglaise. A cause de cela, la Wikipedia polonaise n'a pas besoin (ou n'a pas) de filtre ' plus large).

Le meilleur des deux mondes (avec surbrillance)


Le système de filtrage est conçu pour permettre aux utilisateurs de contourner les compromis décrits ci-dessus. Vous pouvez faire cela en filtrant largement tout en surlignant les informations les plus importantes.

To use this strategy, it’s helpful to understand that the more accurate filters, like ', return results that are a subset of the less accurate filters, such as '. In other words, all “Very likely” results are also included in the broader . (The diagram above illustrates this concept.)


 * Exemple : trouver presque toutes les dégradations tout en mettant en évidence les pires/celles qui y ressemblent :
 * en chargeant la configuration par défaut,
 * cochez le filtre de qualité le plus large, .
 * au même instant, surlignez en jaune (sans cocher les cases du filtre) ', et en rouge '.
 * Because you are using the broadest Quality filter, your results will include most problem edits (high “recall”). But by visually scanning for the yellow, red and orange (i.e., blended red + yellow) bands, you will easily be able to pick out the most likely problem edits and address them first. (Find help on using highlights without filtering.)

Trouver le juste (et le récompenser)


La bonne foi est facile à trouver ! Ainsi le sont les bonnes contributions.

The ' filter and the ' (Quality) filter give you new ways to find and encourage users who are working to improve the wikis. For example, you might use the ' filter in combination with the ' filter to thank new users for their good work.


 * Example: Thank good-faith new users
 * Clear the filters by clicking the Trashcan. Then select the ' and ' filters.
 * Check the Quality filter .
 * Check the User Registration and Experience filters ' and ' (this has the hidden effect of limiting your results to registered users).
 * Highlight the  filter, in green.
 * Toutes les modifications dans vos résultats seront les bonnes contributions des nouveaux arrivés (Newcomers - utilisateurs avec moins de 10 contributions et 4 jours d'activité) et celles des apprentis (Learners - utilisateurs de moins de 500 contributions et 30 jours d'activité). La surbrillance en vert vous permet facilement de distinguer les deux catégories.

Le juste est partout !
The “good” filters mentioned above are both accurate and broad, meaning they aren’t subject to the tradeoffs described in the previous section (they combine high “precision” with high “recall”). These filters are correct about 99% of the time and find well over 90% of their targets. How can they do that?

The happy answer is that the “good” filters perform so well because good is more common than bad. That is, good edits and good faith are much, much more plentiful than their opposites—and therefore easier to find. It may surprise some patrollers to hear this, but on English Wikipedia, for example, one out of every 20 edits has problems, and only about half those problematic edits are intentional vandalism.

Liste des filtres
Sur les wikis où sont déployés les filtres de qualité et d'intention, certains filtres peuvent manquer à cause (grâce à) d'une meilleure qualité de prédiction. Plus ORES est performant sur un wiki et moins le nombre de niveaux de filtres est nécessaire.