A/B testing/fr

Le A/B testing est un outil simple pour déterminer si une fonctionnalité est préférée des utilisateurs.

Les utilisateurs sont divisés en deux groupes: l'un voit la nouvelle fonctionnalité, l'autre a encore l'ancienne. Puis on regarde si les deux groupes se comportent différemment, c'est à dire si un groupe fait davantage de modifications que l'autre.



Comment configurer
L'Instrumentalisation d'un A/B test peut s'avérer difficile, donc n'hésitez pas à demander de l'aide.

Beaucoup de tests A/B sont faits avec des wikis publics sur les utilisateurs connectés uniquement. On peut restreindre les tests aux utilisateurs de certains wikis, ou aux utilisateurs ayant certains niveaux d'expérience (par exemple les débutants). Tests can be limited to users on certain wikis or with certain experience levels (e.g., only new Wikipedia editors). Si vous souhaitez exécuter un test A/B sur les utilisateurs anonymes (identifiés par leur adresse IP), nous vous recommandons de contacter d'abord la Wikimedia Performance Team.

La plupart du temps, les deux groupes sont construits à partir des ID de compte des utilisateurs. Ces nombres sont principalement choisis au hasard. These numbers are essentially random.



Anciennes utilisations
Ceci est une liste incomplète de cas passés d'utilisation, dans le développement de Mediawiki.


 * Wikipedia.org Portal A/B testing
 * Page Previews/2016 A/B Tests et Page Previews/2017-18 A/B Tests
 * UK A/B Testing
 * VisualEditor on mobile/Edit cards
 * Reading/Web/Projects/Mobile Page Issues/AB tests
 * Reading/Search Engine Optimization/sameAs test
 * (veuillez ajouter ici d'autres études dont vous auriez connaissance...)



Voir aussi

 * A/B testing
 * T213315 "Output 3.2: Controlled experiment (A/B test) capabilities" (du Plan annuel 2018-2019 de la Fondation Wikimedia pour une meilleure utilisation des données)