Edit Review Improvements/fr

L’amélioration de la révision des contributions est un projet de l’équipe Collaboration, qui cherche à limiter les effets négatifs que les processus de vérification des contributions peuvent avoir sur les nouveaux contributeurs des wikis. La plupart des outils de révision des contributions et de patrouille ont été conçus pour garantir la qualité du contenu et repousser les acteurs malveillants — deux missions d’importance vitale. Cependant, un corps de recherche soulève que ces processus, notamment lorsqu’ils sont automatisés ou semi-automatisés, ont malheureusement pour conséquence de décourager et repousser les éditeurs bienfaisants.

Afin de résoudre ce problème, l’équipe Collaboration recherche des moyens d’écarter les nouveaux utilisateurs bienfaisants du processus de révision des contributions actuel et, en définitive, de mettre en place un processus de révision accueillant qui aide les nouveaux venus à devenir productifs.

Problème

 * La recherche montre que pour les nouveaux éditeurs en particulier, « la révocation des modifications présage à la fois une diminution de l’activité et une réduction de la probabilité d’implication » des éditeurs.
 * Dans le même temps, l’utilisation croissante d’outils automatisés et semi-automatisés pour la vérification des contributions a déclenchée une montée du rejet de nouveaux venus de bonne foi. L’utilisation de ces outils « augmente significativement l’effet négatif de rejet face à l’implication souhaitable du nouveau venu ».
 * Nonobstant la déclaration ci-dessus, les outils de révision des contributions sont essentiels pour les combattants du vandalisme et d’autres personnes travaillant à maintenir l’intégrité et la qualité du wiki. Que pouvons-nous faire pour aider et intéresser les nouveaux utilisateurs tout en maintenant la productivité des combattants du vandalisme et d’autres patrouilleurs ?

Objectifs
Pour finir, ce projet vise à avoir un effet sur la récupération d’éditeurs, un objectif qui s’aligne bien avec les objectifs généraux du Plan 2016–2017 de la Fondation Wikimédia, développé en consultation rapprochée avec la communauté d’utilisateurs.
 * Assurer que les contributeurs nouveaux venus de bonne foi vivent l’expérience de la vérification de leurs modifications de manière plus constructive et moins décourageante.
 * En proposant des données plus riches dans les modifications récentes, permettre aux patrouilleurs et vérificateurs de tous types de travailler plus efficacement et de poursuivre leurs diverses activités (la lutte contre le vandalisme, le soutien aux nouveaux utilisateurs…) dans un sens plus pertinent et plus ciblé.

L’approche s’articule en particulier avec les objectifs que le Plan annuel pose pour l’équipe Produit, qui promet, entre autres, d’« investir pour le contenu dans de nouveaux types d’outils… de nettoyage de collaboration ».

Solutions
Pour commencer à régler les problème des nouveaux en difficulté mais de bonne foi, une bonne première étape sera de s’assurer que les réviseurs peuvent les trouver. Pour cela, nous proposons d’analyser les changements récents en utilisant les données de diverses sources, notamment celles du programme d’apprentissage automatique ORES (Objective Revision Evaluation Service). Le modèle de bonne fois de ORES, défini par le jugement humain, peut retrouver 95 % des modifications de bonne foi avec une précision de 98 %. ORES peut aussi prédire les modifications qui seront annulées et celles qui sont préjudiciables aux wikis.

Même si la recherche montre que les nouveaux contributeurs sont particulièrement sensibles au rejet de leurs apports, il existe également des éléments prouvant que la révision des contributions et même le rejet peuvent être très formateurs pour les nouveaux arrivants. Pour les réviseurs intéressés par l'accompagnement des nouveaux utilisateurs, un flux de modifications susceptibles d’être annulées mais qui ont été réalisées en toute bonne foi constituera, espérons-le, un ensemble de cas instructifs.

L’analyse des modifications décrite ci-dessus sera initialement mise à la disposition des utilisateurs de deux manières :


 * Sur la page Spécial:Modifications récentes, où une série de nouveaux filtres sera installée comme fonctionnalité bêta (lire une description des nouveaux filtres prévus pour la révision des contributions).
 * Dans ReviewStream, un nouveau double flux de révision lisible par les machines (Description du produit ReviewStream), destiné à être ingéré en aval par les outils de révision des modifications.

Activité en cours

 * Pour visualiser les possibles directions pour les produits, l’équipe Collaboration étudie des modèles de conception tout en continuant à rechercher les problèmes.
 * Pour mieux jauger la taille du problème et être capable de suivre la progression, nous travaillons à définir et mesurer la préservation des nouveaux contributeurs.


 * La Recherche de conception est en train d’organiser et conduire des entretiens avec les utilisateurs touchés par ce problème de diverses manières, pour mieux comprendre leurs motivations et avancements dans le travail. Les groupes qui seront interviewés à court terme comprennent : les patrouilleurs antivandalisme, les patrouilleurs de changements récents, les animateurs de salon de thé, les membres de comité d’accueil et les relecteurs de brouillons.
 * L’équipe Recherche et données travaille à améliorer les prédictions en affinant la précision des modèles de prédiction.


 * Une discussion sur le projet a eu lieu à Wikimania 2016 en juin.

Amélioration du filtrage dans la page Modifications récentes
Plus d’informations



Afin d’aider les relecteurs à trouver facilement les contributions qu’ils recherchent, nous prévoyons d’améliorer la manière dont le filtrage fonctionne sur la page Spécial:Modifications récentes. Le but est de rendre la liste de contributions facile à filtrer, permettre davantage de critères de filtre (notamment ceux pertinents pour les aider les nouveaux) et faciliter la combinaison de multiples filtres avec des fins variées.

Ce prototype interactif illustre le concept de filtre proposé. Pour un contexte étendu, vous pouvez regardez [les scénarios soutenus].

Avant d’en arriver à ce point, il faut réaliser plusieurs étapes à travers une fonctionnalité bêta. Plus de détails ci-dessous.

Étapes initiales
Tout d’abord, les espaces de nom et balises ne seront pas intégrés dans le système de filtrage. Les filtres liés à ORES seront pris en charge. Ces filtres incluent :
 * Révision : Filtres permettant aux relecteurs de se concentrer sur les contributions non encore relues ou celles déjà traitées par d’autres relecteurs.
 * Qualité de contribution : Filtres permettant d’identifier les contributions constructives ou nuisibles.
 * Intention de l’utilisateur : Filtres permettant d’identifier les contributions de bonne ou mauvaise foi.
 * Niveau d’expérience de l’utilisateur : Filtres permettant de cibler les modifications selon l’expertise de leur auteur.

Projets pour l’avenir
Creating the streams/pages of “teachable moments” described above has the potential to establish edit-review as a new space for instructing and supporting new editors. The mere existence of such a platform, however, won’t in itself ensure that this new practice will take root. To truly have an impact on newcomer retention, interventions may be required at multiple points in the editing and review cycles: before publication, to spot problems and enable authors to seek help; during review, to facilitate a constructive process; and even after review, to help new users overcome rejection and learn from from their experiences.

In addition to exploring ideas for intervening at various points, we’re pursuing answers to questions such as these:


 * How can we bring reviewers to this new activity?
 * What would make reviewers most effective in the job of supporting newcomers during edit review?
 * How can we make the process rewarding for reviewers, so that they stay involved?

The counter-vandalism community also has an important role to play in this arena. Richer data about edits and editors should make patrollers of all types not only more discriminating about which edits might be in good faith, but also more efficient at their job of combating harm. It will be important to work closely with vandalism fighters and others to understand how their processes and tools might best be adapted to realize these potential gains.

Principes
As we pursue this project, the following principles will guide our planning.


 * Smart but human. Use technology to support rather than replace human interaction. Artificial intelligence can provide analysis, but humans should make decisions.
 * Cross-community. Find solutions that will work across language groups and projects, rather than building wiki-specific tools.
 * Platform not feature. Seek solutions that are extensible and reusable by current and future community-created and WMF tools.
 * Mobile. Although edit-review is not currently popular on mobile, consider mobile users carefully in our plans.
 * Adoption. In addition to creating new technology, focus on finding ways to encourage reviewers to adopt and continue to use the new tools.
 * Integration. In seeking new solutions, build on and integrate with existing practices whenever possible.
 * Incremental approach. As we move into this new area, proceed incrementally to each milestone and then evaluate where to go next.
 * Participatory design. Collaborate with editors and tool developers already working in this space.

Documents connexes

 * Grants:IdeaLab/Fast and slow new article review
 * Research:Newcomer survival models