Help:New filters for edit review/Quality and Intent Filters/fr

Les nouveaux filtres pour la révision des modifications apportent deux groupes de filtres — la qualité des contributions et les intentions utilisateurs — qui travaillent différemment des autres filtres de révision des modifications. Les filtres de ces groupes offrent des prédictions à caractère de probabilité sur respectivement, le fait que les modifications peuvent ou pas contenir des problèmes, et si les utilisateurs qui les font sont de bonne foi ou pas. Connaître un peu la manière dont ces outils uniques travaillent vous aidera à les utiliser plus efficacement.

Ces filtres ne sont disponibles que sur certains wikis.

Basé sur l’apprentissage-machine
Les prédictions qui rendent possibles les filtres de qualité et d'intentions sont calculés par ORES, qui est un programme-machine d'apprentissage formé sur un grand nombre de contributions précédemment réalisées par des éditeurs humains. L'apprentissage par une machine est une technologie puissante qui lui permet de reproduire certains aspects limités de nos modes de raisonnement humains.

Les filtres de qualité et d'intentions ne sont disponibles que sur les wikis qui prennent en charge les modèles ORES «  préjudiciable » (damaging) et «  bonne foi » (good faith). Le modèle ORES «  préjudiciable » booste les prédictions concernant la qualité, tandis que le modèle «  bonne foi » booste les intentions.

Si vous activez ORES, vous devez avoir des volontaires qui enregistrent des modifications sur les wikis concernés. Cette page en explique le processus et la manière de commencer sur votre wiki.

Choisir le bon outil
En regardant les filtres sur la qualité et les intentions, vous pouvez remarquer quelque chose de différent à leur sujet. À la différence des filtres des autres groupes, les différentes options ne ciblent pas différentes propriétés d'édition. À la place, beaucoup d'entre elles ciblent la même propriété, mais proposent différents niveaux de précision.

Pourquoi devrait-on choisir d'utiliser un outil moins adapté ? Parce qu'une telle acuité peut avoir un coût.

Augmenter la probabilité de prédiction (précision accrue)
[[File:RC-quality-filters-diagram.png|alt=This conceptual diagram illustrates how the Quality filters relate to one another.|thumb|400x400px|Ce diagramme conceptuel illustre comment les les fitres de qualité dépendent les une des autres sur plusieurs wikis (les performances varient).

Comme vous pouvez le voir le filtre  capture les résultats composés presque entièrement de problèmes d'édition (grande précision). Mais il ne capture qu'une petite partie de tous les problèmes d'édition (faible rappel). Remarquez comment chaque élément de ' (et ') est aussi inclus dans le  plus large, ce qui fournit un rappel fort mais une précision plus faible (parce qu'il retourne un grand pourcentage de modifications qui n'ont pas de problème).

Vous pouvez être surpris de voir que ' recouvre '. Les deux filtres recouvrent la zone intermédiaire entre les modifications sans problèmes et celles avec problèmes afin de détecter davantage de cibles (rappel élargi).

Pour des raisons de place, le diagramme n'est pas exactement à l'échelle. ]] Les filtres les plus appropriés du menu retournent un pourcentage plus élévé de versions correctes des prédictions incorrectes et en conséquence peu de faux positifs (dans le lingo de la reconnaissance de modèles, ces filtres ont une précision plus élevée). Ils atteignent cette précision en étant plus étroits, plus restrictifs. Lors de la recherche, ils imposent une probabilté plus haute. La contre partie de cela est que le nombre de cibles trouvées représente un pourcentage plus faible.


 * Exemple : Le filtre  est le plus adequat pour le filtrage de la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, ses prédictions sont bonnes à plus de 90% des cas. Le compromis est que ce filtre ne trouve qu'environ 10% des modifications à problèmes dans un ensemble donné, parce qu'il survole les problèmes plus difficiles à détecter. Les problèmes trouvés par ce filtre couvrent souvent le vandalisme évident.

Trouver davantage de cibles (rappel plus important)
Si votre priorité est de trouver absolument toutes ou la plupart de vos cibles, alors il vous faudra un filtre plus lâche, moins sélectif. Ceux-ci ramènent plus de résultats qu'ils n'en faut car ils abaissent la probabilité. Le compromis ici est qu'ils retournent davantage de faux positifs. En termes techniques, on dira que ces filtres ont un «  rappel » (recall) plus élevé; celui-ci est défini comme le pourcentage entre ce que le filtre a effectivement trouvé et ce que vous cherchez.


 * Exemple : le filtre  est le filtre le plus large sur la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, il détecte environ 82% de sproblèmes de modification. Le compromis est que ce filtre est vrai seulement à 15% du temps.


 * Si 15% ne semble pas très encourageant, remarquez que les modifications problématiques apparaissent actuellement avec un taux de moins de 5 pour 100 (soit 5%). Donc 15% c'est multiplier aléatoirement par trois. Et bien sûr, les patrouilleurs n'y vont pas de manière aléatoire; ils sont entraînés à utiliser des outils variés et indices pour augmenter leur taux de détection. Combiné à ces techniques,  fournit un avantage significatif.

(Comme indiqué ci-dessus, ORES fonctionne différemment selon les wikis, ce qui signifie que certains sont moins soumis aux compromis que nous venons de discuter. Sur la Wikipedia polonaise par exemple, le filtre ' capture 91% des modifications problèmatiques, contre 34% avec le filtre correspondant sur la Wikipedia anglaise. A cause de cela, la Wikipedia polonaise n'a pas besoin (ou n'a pas) de filtre ' plus large).

Le meilleur des deux mondes (avec surbrillance)


Le système de filtrage est conçu pour permettre aux utilisateurs de contourner les compromis décrits ci-dessus. Vous pouvez faire cela en filtrant largement tout en surlignant les informations les plus importantes.

Pour utiliser cette stratégie, il est utile de comprendre que plus les filtres précis tels que $VeryLlikeHaveProblems, renvoient des résultats, ils constituent un "sous-ensemble" des filtres moins précis tels que $MayHaveProblems. En d'autres termes, tous les résultats « très probables » sont également inclus dans le $MayHaveProblems1 qui est plus général (le diagramme ci-dessus illustre ce concept). In other words, all “Very likely” results are also included in the broader . (The diagram above illustrates this concept.)


 * Exemple : trouver presque toutes les dégradations tout en mettant en évidence les pires/celles qui y ressemblent :
 * en chargeant la configuration par défaut,
 * cochez le filtre de qualité le plus large, .
 * au même instant, surlignez en jaune (sans cocher les cases du filtre) ', et en rouge '.
 * Parce que vous utilisez le fitre de qualité le plus large, vos résultats comprennent la plupart des problèmes d'édition (rappel fort). Mais en sélectionnant visuellement les bandes jaunes, rouges, oranges (c'est à dire le mélange des rouges et des jaunes), vous serez à même de repérer facilement les modifications problèmatiques les plus vraies et de les traiter en premier (voyez l'aide sur l'utilisation de la surbrillance sans le filtrage).

Trouver le bien (et le récompenser)


La bonne foi est facile à trouver, littéralement ! Ainsi le sont les bonnes contributions.

Le filtre ' et le filtre ' (sur la qualité) vous donnent de nouvelles façons de trouver et d'encourager les utilisateurs qui travaillent à l'amélioration des wikis. Par exemple, vous pouvez utiliser le filtre ' combiné avec le filtre ' pour remercier les nouveaux utilisateurs de leur bon travail.


 * Exemple : remercier les nouveaux utilisateurs de bonne foi
 * effacez les filtres en cliquant sur la poubelle. Puis choisissez les filtres ' et '.
 * cochez le filtre de qualité .
 * cochez les filtres concernant l'enregistrement des utilisateurs et l'expérience ' et ' (ceci a pour effet masqué, de limiter vos résultats aux utilisateurs enregistrés).
 * surlignez en vert le filtre .
 * Toutes les modifications dans vos résultats seront les bonnes contributions des nouveaux arrivés (Newcomers - utilisateurs avec moins de 10 contributions et 4 jours d'activité) et celles des apprentis (Learners - utilisateurs de moins de 500 contributions et 30 jours d'activité). La surbrillance en vert vous permet facilement de distinguer les deux catégories.

Le bien est partout !
Les bons filtres mentionnés ci-dessus sont à la fois précis et larges, ce qui signifie qu'ils ne sont pas sujets aux compromis décrits dans la section précédente (ils combinent la précision haute avec un grand nombre de rappels). Ces filtres sont bons à 99% du temps et detectent bien 90% de leurs cibles. Comment le font-ils ?

La réponse heureuse est que les bons filtres fonctionnent si bien car le bien est plus répandu que le mal. C'est à dire que, les bonnes contributions et la bonne foi sont beaucoup, beaucoup plus nombreuses que leur contraires — et c'est pourquoi on les repère plus facilement. Cela peut surprendre certains relecteurs d'entrendre ça, mais sur la Wikipedia anglophone par exemple, une modification sur 20 pose problème, et seulement la moitié environ de ceux-ci sont du vandalisme intentionnel.

Liste des filtres
Sur les wikis où sont déployés les filtres de qualité et d'intention, certains filtres peuvent manquer à cause (grâce à) d'une meilleure qualité de prédiction. Plus ORES est performant sur un wiki et moins le nombre de niveaux de filtres est nécessaire.