Growth/Personalized first day/Newcomer tasks/ar

تشرح هذه الصفحة عمل فريق النمو في مشروع "مهمات الوافد الجديد"، وهو يندرج ضمن المبادرة الأشمل "اليوم الأول المعدل". تحتوي الصفحة على أهداف وخطط وقرارات ونتائج. سيتم نشر معظم التحديثات التدريجية الجاري عليها العمل في الصفحة العامة لـتحديثات فريق النمو، مع نشر بعض التحديثات الكبرى أو المخصصة هنا.

بدأ التصميم والتخطيط لهذا المشروع في 24-07-2019

الوضع الحالي

 * 2019-07-24: الاجتماع الأول للقريق لمناقشة مهام الوافد الجديد
 * 2019-08-27: اجتماع الفريق لتعديد ومناقشة التصميمات.
 * 2019-09-09: إنشاء مهام فبريكتور للأعمال الهندسية
 * 2019-09-23: انتهى اختبار نسخة سطح المكتب
 * التالي: اجتماع الفريق لمناقشة السبل التقنية

ملخص
نعتقد أن للوافدين الجدد الحق في كل الفرص للنجاح عندما يصلون لأول مرة إلى الويكي. لكن، وبصفة متكررة، يحاول الوافدون الجدد القيام بأعمال تعدّ صعبة، أو لا يجدون مهمة يحبون القيام بها، أو لا يجدون أفكارا تبقيهم مهتمين ومعنيين بالمشروع بعد تعديلهم الأول. مما يفضي إلى هجر الكثير منهم وعدم عودتهم. هنالك محاولات ناجحة في الماضي في توكيل مهمات للمحرّرين، لذلك نعتقد أن الصفحة الرئيسية للوافد الجديد مكان واعد لتوصية المهام المثلى للوافدين الجدد.

سنحتاج إلى مراعاة بعض الأشياء:
 * العديد من الوافدين الجدد يحملون أمورا محددة في أذهانهم يريدون القيام بها، كاضافة صورة إلى مقالة محددة. لا نريد أن نعترض طريقهم في تحقيق مبتغاهم.
 * ينشئ الوافدون الجدد مهاراتهم مع مرور الوقت عند يرتقون من المهمات السهلة إلى الأصعب.
 * عندما ينجح الوافدون الجدد في وقت مبكر، يصبحون أكثر تحمسًا لمواصلة التحرير.

بأخذ عين الاعتبار هذه الأشياء، نريد توصيات للمهمات للوافدين الجدد التي ستظهر في المكان والوقت المناسبين، والتي ستعلمهم مهارات سيحتاجونها للنجاح، والتي تتماشى مع اهتماماتهم.

لدينا أداة قيّمة وهي الاستطلاع الترحيبي، لتساعد على تحديد المهمات للوافدين الجدد، والتي تم انشاؤها تحديدا لهذا الغرض: تخصيص تجربة الوافد الجديد. سنستخدم المعلومات الاختيارية المقدمة من قبل الوافدين الجدد التي تخص أهدافهم واهتماماتهم لنتمكن من توصية المهام التي تناسبهم.

من أكبر التحديات سيكون كيف نجمّع المهمات التي ستناسب الوافدين الجدد. هنالك العديد من المصادر الموجودة، كقوالب الصيانة التي تدعو إلى العمل على المقالات، كتوصيات أداة ترجمة المحتوى، أو كاقتراحات أدوات مثل البحت عن مصادر. السؤال الذي سيطرح هو أيّ من هذه الخيارات سيساعد الوافدين الجدد في تحقيق أهدافهم.

في البداية، سنركز على استخدام الصفحة الرئيسية للوافد الجديد كمكان لتوصية المهمات، لكن على المدى الطويل، يمكن أن نتخيّل إنشاء ميزات في تجربة التحرير للتوصية ولمساعدة الوافدين الجدد في إنهاء المهمات الموصاة إليهم.

علي المدى الطويل كذلك، سنفكر في طريقة ما لدمج توصية المهمات مع أجزاء أخرى من تجربة المستخدم الجديد، كـوحدة التأثير على الصفحة الرئيسية، أو على لوحة المساعدة.

Why this idea is prioritized
We know from research and experience that many newcomers fail early in their editing journey for one of these reasons:
 * They arrive with a very challenging edit in mind, such as writing a new article or adding an image. Those tasks are difficult enough that they likely fail and don't return.
 * They arrive without knowing what to edit, and can't find any edits to make.

We also know that on the newcomer homepage, the most frequently clicked-on module is the "user page" module -- the only thing on the page that encourages users to start editing. This makes us think that many users are looking for a clear way to get started with editing.

And from past Wikimedia endeavors, we've seen that task recommendations can be valuable. SuggestBot is a project that sends personalized recommendations to experienced users, and is a well-received service. The Content Translation tool also serves personalized recommendations based on past translations, and has been shown to increase the volume of editing.

For all these reasons, we think that recommending specific editing tasks for newcomers will give them a clear way to get started. For those newcomers that have an edit in mind that we want to do, we'll encourage them to try some easy edits first to build up their skills. For those newcomers who do not have a specific preference on what to edit, they'll hopefully find some good edits from this feature.

Glossary
''There are many terms that sound similar and can be confusing. This section defines each of them.''


 * "Task recommendations" or "Task suggestions"
 * Lists of articles that need editing work, suggested automatically to users.


 * "Personalized"
 * Software that adapts automatically to each user to fit their needs.


 * "Customized"
 * Software that the user adapts to fit their needs.


 * "Topic"
 * A content subject, such as "Art", "Music", or "Economics".


 * "Maintenance template"
 * Templates that are put on articles indicating that work needs to be done on them.

Recommending tasks
The core challenge to this project is: Where will the tasks come from and how will we give the right ones to the right newcomers?

The graphic below shows our priorities when recommending tasks to newcomers.

As shown in the graphic above, we would give newcomers tasks that...


 * ...arrive at the right time and place for a newcomer's journey.
 * ...teach relevant conceptual and technical skills.
 * ...gradually guide users to build up their editing abilities.
 * ...be personalized to their interests.
 * ...show them the value and impact of editing.
 * ...motivate them to participate continually.

For instance, we do not want to give newcomers tasks that are irrelevant to what they hope to accomplish. If a newcomer wants to write a new article, then asking them to add a title description will not teach them skills they need to be successful.

We're splitting this challenge into two parts: the sourcing the tasks and topic matching.

Sourcing the tasks
There are many different places we could find tasks for newcomers to do. Our team listed as many as we could think of and evaluated them for whether they seem to be achievable for the first version of the feature. Written below is our determination on the task type we'll be starting with, followed by a a table listing many of the task sources that we evaluated.

Maintenance templates
We're going to be starting by using maintenance templates and categories to identify articles that need work. All of our target wikis use some set of maintenance templates or categories on thousands of articles, tagging them as needing copyediting, references, images, links, or expanded sections. And previous task recommendations software, such as SuggestBot, have used them successfully. These are some examples of maintenance categories:


 * Articles needing links in Arabic Wikipedia
 * Articles needing copyediting in Korean Wikipedia
 * Articles needing references in Czech Wikipedia



In this Phabricator task, we investigated exactly which templates are present and in what quantities, to get a sense of whether there will be enough tasks for newcomers. There seem to be sufficient numbers for the initial version of this project. We are likely to incorporate other task sources from the table below in future versions.

It's also worth noting that it could be possible to supplement many of these maintenance templates with automation. For instance, it is possible to automatically identify articles that have no internal links, or articles that have no references. This is an area for future exploration.

Full evaluation of task types
Below is a table showing the many sources of tasks that we evaluated in coming to the decision to start by using maintenance templates.

Topic matching
Past research and development shows that users are more likely to do recommended tasks if the tasks match their topical interests. SuggestBot uses an editor's past editing history to find similar articles, and those intelligent results are shown in this paper to be executed on more often than random results. The Content Translation tool also recommends articles based on a user's previous translation history, and those recommendations have increased the translation volume.

Our challenge with newcomers is a "cold start problem", in that newcomers do not have any edit history to use when trying to find relevant articles for them to edit. We have several ideas for how to allow users to indicate topics of interest in a list, or to type topics of interest into a search. Those ideas are being investigated in this Phabricator task.

Comparative review
Our team's designer reviewed the way that other platforms (e.g. TripAdvisor, Foursquare, Amazon Mechanical Turk, Google Crowdsource, Reddit) offer task recommendations to newcomers. We also reviewed Wikimedia projects that incorporate task recommendations, such as the Wikipedia Android app and SuggestBot. We think there are best practices we can learn from other software, especially when we see the same patterns across many different types of software. Even as we incorporate ideas from other software, we will still make sure to preserve Wikipedia's unique values of openness, clarity, and transparency. The main takeaways are below, and the full set of takeaways is on this page:


 * Task types – bucket into 4 types: Rating content, Creating content, Moderating/Verifying content, Translating content
 * Incentives – Most products offered intangible incentives mainly bucketed into the form of: Awards and ranking (badges), Personal pride and gratification (stats), or Unlocking features (access rights)
 * Reward incentives – promote badges or attainments of specific milestones (e.g., a badge for adding 50 citations)
 * Personalization/Customization – Most have at least one facet of personalization/customization. Most common customization is user input on surveys upon account creation or before a task, most common system-based personalization type is geolocalization
 * Visual design & layout – incentivizing features (stats, leaderboards, etc) and onboarding is visually rich compared to pared back, simple forms to complete short edits.
 * Guidance – Almost all products reviewed had at least basic guidance prior to task completion, most commonly introductory ‘tours’. In-context help was also provided in the form of instructional copy, tooltips, step-by-step flows,  as well as offering feedback mechanisms (ask questions, submit feedback)

Initial version
Our evolving designs can always be found in these mockups (use arrow keys to navigate). Those mockups contain explorations of all the difference parts of the user journey, which we have broken down into several parts:


 * 1) Gathering information from the newcomer: learning what we need in order to recommend relevant tasks.
 * 2) Feature discovery: the way the newcomer first encounters task recommendations.
 * 3) Task recommendations: the interface for filtering and choosing tasks.
 * 4) Guidance during editing: once the newcomer is doing a task, the guidance that helps them understand what to do.
 * 5) User feedback: ways in which the newcomer can indicate that they are not satisfied with the recommended task.
 * 6) Next edit: how we continue the user's momentum after the save an edit.

For the initial version of the project, we've decided on a subset of the user flow to deploy. This first version is itself broken down into a few parts that will roll out to users in sequence.


 * Version 1.0: users can initiate the suggested edits module, choose task types from maintenance templates based on difficulty, and click to go to the articles needing help. This version will help us see how many users are interested in receiving suggested edits, but we are not confident many will actually follow the suggestions until Version 1.1.
 * Version 1.1: users can also filter articles by topic area, such as "Art", "History", or "Technology". We expect that this will cause many more users to select edits to do, but we don't expect many will actually complete their edits until Version 1.2.
 * Version 1.2: after users click through on suggested tasks, they receive guidance on completing the task through the help panel. With this in place, we think it will be possible for users to find tasks they are interested in, and have enough informaiton to complete them.

Below are some of the current draft design concepts as the team continues to refine our approach.

سطح المكتب
خلال أسبوع السادس من سبتمبر 2019، استخدمنا usertesting.com للقيام بـ 6 اختبارات على نسخة سطح المكتب لأنموذج مهمات الوافد الجديد بالاشتراك مع مستخدمي انترنت من خارج حركة ويكيميديا. في هاته الاختبارات، تم الطلب من المستجوَبين تجربة الأنموذج، التعليق على ما شاهدوه، والاجابة عن أسئلة تخص تجربتهم. يمكن الإطلاع على النتائج كاملة في هاته المهمة على فبريكاتور. أهداف هاته الاختبارات كانت:


 * 1) قيس قابلية استكشاف وحدة مهمات الوافد الجديد
 * 2) تحديد ما يجب تحسينه من أجل استعمال أسهل لوحدة المهمات:
 * 3) هل يفهم المستخدمون كيف يختارون وكيف يراجعون المقالات المقترحة؟
 * 4) هل يفهم المستخدمون كيف يضعون مرشحا حسب الاهتمامات وصعوبة المهمات؟
 * 5) هل يعلمون كيف يبدؤون المساهمة في مقالة مقترحة؟
 * 6) قياس ردود فعل المستخدم ازاء المقترحات والانتظارات حول التوجيهات خلال المهمة.


 * ملخص الموجودات


 * اعتقد جميع المستخدمين أنه من المنطقي ومن البديهي الحصول على اقتراحات بناءً على موضوعاتهم التي يهتمون بها.
 * على نفس النحو، مختلف مستويات الصعوبات تم قبولها بشكل ايجابي من قبل جميع المشاركين.
 * في مجملها، كانت قابلية الاستخدام لوحدة التعديلات المقترحة عالية للغاية. عرف الأشخاص كيفية النقر لعرض المزيد من المقالات، واستخدام المرشح لتغيير الموضوعات ومستويات المهام، وعرفوا النقر فوق البطاقة لفتح اقتراح للتحرير.
 * أربعة من ستة من المشاركين لم يدركوا في أول الأمر أن عليهم أن ينقروا على "انظر على التعديلات المقترحة" كطريقة لمساعدتهم ليتمكنوا من تحقيق هدفهم في كتابة مقالة جديدة. كان يبدو هذا نموذجا تفكيريا شائعا من خلاله ميّز المستخدمون "التعديل" كشكل مختلف عن "انشاء صفحة جديدة".
 * وحدة البدء هي جليا نقطة البداية الأولى لجميع المستخدمين. علاوة على ذلك، تم استدراج الكثير منهم إلى زر "انظر إلى التعديلات المقترحة" كوسيلة لمتابعة تقدم الأنشطة في وحدة البدء.
 * كان لدى المستخدمين فهم وتوقع واضحين بأنه ستُعرض عليهم مقالات مقترحة للتحرير بناءً على الحوار الذي تم في البداية لإضافة الموضوعات وتحديد مستويات صعوبة المهام.
 * كل واحد كانت له القدرة على انتقاء المواضيع ذات الشعبية واضافة المواضيع الخاصة بهم بسهولة.
 * فهم الجميع المغزى من وحدة التعديلات المقترحة.
 * شخصان كانا مرتبكين/افترضا أنهما غير قادرين على انشاء مقالة جديدة ريثما ينهيا المهمات السهلة والمتوسطة الصعوبة.
 * 5 أو 6 مشاركين تعلموا النقر على وحدة المساعدة لتوجيههم حينما كانوا داخل صفحة التعديل.
 * أربعة أشخاص توقعوا امكاتية الاتصال بمرشديهم من داخل وحدة المساعدة.
 * افتقرت نصائح المهمة إلى مستوى كافٍ من التوجيه لبعض المشاركين.


 * التوصيات


 * تحسين الكتابة وغيرها من تعليم المستخدم أن إنشاء محتوى جديد هو شكل من أشكال التحرير.
 * جعل تحديثات لوحدة التأثير مثلما جرت تجربتها هنا لمساعدة المستخدم لاستيعاب المهمات المقترحة.
 * توفير مساعدة ذات جودة أثناء التعديل. إنه من الهام جدا أن يجرب المستخدمون التعديل.
 * تضمين "قائمة مراجعة" ليتمكن المستخدمون من الرجوع إليها عبر النصائح المهمة من لوحة المساعدة.
 * تضمين أمثلة قصيرة لما يجب عمله.
 * إشارة للمستخدمين أنه لا يجب عليهم النسخ والتعديل لكامل مقالة.
 * إدراج مرشح آني لنتائج البحث سيساعد المستخدمين في وصل اقترحات مثل تعديل مقالات وتشجيع استعمال المرشح لإيجاد المقالات المترابطة.

Mobile
During the week of September 30, 2019, we used usertesting.com to conduct six tests of the mobile newcomer tasks prototype. The full results can be found in this Phabricator task. The goals of this testing were the same as with desktop, but with the added goal of understanding how the mobile experience should differ from the desktop experience. Mobile user testers were prompted with the scenario of intending to add an image to Wikipedia (whereas desktop respondents were prompted with the scenario of intending to create a new article).

Summary of findings


 * Overall users found the start module (redesigned) clearly laid out the guided steps to begin.
 * The extra “Suggested edits” module below, while not especially confusing, was still not where users expected to go to help them with their task to  add an image.
 * Suggested edits was quite intuitive to use, with participants understanding how its different elements (filtering, seeing more articles, etc) worked.  However, users do not see the value of doing Suggested edits beyond learning or boredom.
 * Several people wanted more granular topics to be available than the broad topics listed.
 * Having the detailed difficulty info was educational, but potentially discouraging. All were surprised “Adding images” was classed as hard, with varying degrees of frustration about this fact.
 * Filtering by interests is a big selling point.
 * 3 people towards the end of the test assumed there was some “verification” or requirement to do  some Easy tasks before Medium/Hard tasks could be achieved
 * Everyone understood the purpose of the Suggested edits as giving edits that would users learn to edit, and also emphasize that it showed them some edits were harder to do.
 * All users struggled to use the guidance we offered through the help panel while they were editing. This is a major area we need to think hard about designing before we begin to build it.

Recommendations


 * Suggested edits call to action is inside start module, not its own card.
 * Improve copy and user education imagery to better convey that there is real world value in trying suggested edits beyond learning and that task difficulty is a guide only and tasks can be tried out of order.
 * Add an overlay specifically to introduce personalized introduction to suggested edits.
 * Including real-time counting of filtered results on both task and topic filters.
 * Incorporate more granular searching by interest topics by users.
 * Reiterate when a user opens a suggestion that it is a real, impactful edit.
 * Update design of the in-task help panel so that all available help content is clearly accessible.

Measurement and results
To be written