ORES/fa

ساعن یا ORES (/ɔɹz/) یک سرویس و واسط برنامه‌نویسی کاربردی است که یادگیری ماشینی را در قالب سرویس برای پروژه‌های ویکی‌مدیا فراهم می‌کند و نگهداری از آن بر عهدهٔ تیم یادگیری ماشینی است. این سامانه به‌منظور کمک به خودکارسازی کارهای ویکیایی طراحی شده است – برای مثال، شناسایی و حذف خرابکاری‌ها. در حال حاضر دو نوع امتیاز عمومی که توسط ساعت تولید می‌شوند در زمینهٔ «کیفیت ویرایش» و «کیفیت مقاله» هستند.

ساعن یک سرویس پسانه است و راهی مستقیم برای استفاده از امتیازها را ارائه نمی‌دهد. اگر تمایل به استفاده از امتیازهای ساعت دارید، فهرست ابزارهایی که از امتیاز ساعن استفاده می‌کنند را ببینید. اگر ساعن هنوز از ویکی شما پشتیبانی نمی‌کند، راهنمای درخواست پشتیبانی ما را ببینید.

برای پرسش‌های خود دربارهٔ ساعن به‌دنبال پاسخ هستید؟ پرسش‌های رایج دربارهٔ ساعن را ببینید.



کیفیت ویرایش
یکی از نگرانی‌های حیاتی دربارهٔ پروژه‌های باز ویکی‌مدیا، بازبینی مشارکت‌های («ویرایش‌های») بالقوه مخرب است. همچنین لازم است که مشارکت‌کنندگان دارای حسن نیت (که ممکن است ناخواسته مرتکب تخریب صفحه‌ها شوند) شناسایی شده و به آن‌ها پیشنهاد پشتیبانی داده شود. این مدل‌ها برای سهولت بیشتر پالایش ویرایش‌ها در صفحهٔ «ویژه:تغییرات اخیر» طراحی شده‌اند. ما برای مدل‌های پیش‌بینی کیفیت ویرایش دو سطح از پشتیبانی را ارائه می‌دهیم: ابتدایی و پیشرفته.



پشتیبانی ابتدایی
با این فرض که بیشتر ویرایش‌های مخرب برگردانده خواهند شد و ویرایش‌هایی که مخرب نیستند دارای برچسب  نخواهند بود، می‌توانیم با کمک تاریخچهٔ ویرایش‌ها (و ویرایش‌های برگردانده شده) از یک ویکی، کار خود را آغاز کنیم. راه‌اندازی این مدل ساده است، اما با این مشکل هم مواجه است که بسیاری از ویرایش‌ها به دلایل دیگری به‌جز تخریب و خرابکاری برگردانده می‌شوند. برای کمک به حل این مشکل، مدلی مبتنی بر واژه‌های نامناسب ایجاد می‌کنیم.


 * – پیش‌بینی می‌کند که آیا ویرایش در نهایت برگردانده می‌شود یا خیر



پشتیبانی پیشرفته
به‌جای فرض کردن، می‌توانیم از ویرایشگران بخواهیم تا به ساعن آموزش دهند که کدام ویرایش‌ها به واقع (مخرب)  هستند و کدام ویرایش‌ها به‌نظر با حسن نیت  ذخیره شده‌اند. این کار نیازمند کار بیشتر از سوی داوطلبان حاضر در اجتماع است، اما با توجه به کیفیت یک ویرایش، پیش‌بینی دقیق‌تر و ظریف‌تری را ارائه خواهد داد. بسیاری از ابزارها تنها زمانی کار می‌کنند که پشتیبانی پیشرفته برای ویکی هدف در دسترس باشد.


 * – پیش‌بینی می‌کند که آیا ویرایش موجب تخریب می‌شود یا خیر
 * – پیش‌بینی می‌کند که آیا ویرایش با حسن نیت ذخیره شده است یا خیر



کیفیت مقاله
کیفیت مقاله‌های ویکی‌پدیا یکی از دغدغه‌های مهم ویکی‌نویسان است. صفحه‌های تازه باید بازبینی شوند تا اطمینان حاصل شود که مقاله‌های حاوی هرزنگاری، خرابکاری یا حمله در ویکی باقی نمی‌مانند. برخی ویکی‌نویسان به‌طور دوره‌ای کیفیت مقاله‌هایی که از بازبینی اولیه سربلند بیرون می‌آیند را ارزیابی می‌کنند، اما این کار بسیار سنگین و فشرده است و ارزیابی‌ها معمولاً قدیمی هستند.



ارزیابی مقاله تازه
The faster that seriously problematic types of draft articles are removed, the better. Curating new page creations can be a lot of work. Like the problem of counter-vandalism in edits, machine predictions can help curators focus on the most problematic new pages first. Based on comments left by admins when they delete pages (see the table), we can train a model to predict which pages will need quick deletion. See en:WP:CSD for a list of quick deletion reasons for English Wikipedia. For the English model, we used G3 "vandalism", G10 "attack", and G11 "spam".


 * – predicts if the article will need to be speedy deleted (spam, vandalism, attack, or OK)

Existing article assessment
For articles that survive the initial curation, some of the large Wikipedias periodically evaluate the quality of articles using a scale that roughly corresponds to the English Wikipedia 1.0 assessment rating scale ("articlequality"). Having these assessments is very useful because it helps us gauge our progress and identify missed opportunities (e.g., popular articles that are low quality). However, keeping these assessments up to date is challenging, so coverage is inconsistent. This is where the  machine learning model comes in handy. By training a model to replicate the article quality assessments that humans perform, we can automatically assess every article and every revision with a computer. This model has been used to help WikiProjects triage re-assessment work and to explore the editing dynamics that lead to article quality improvements.

The articlequality model bases its predictions on structural characteristics of the article. E.g. How many sections are there? Is there an infobox? How many references? And do the references use a cite template? The articlequality model doesn't evaluate the quality of the writing or if there's a tone problem (e.g. a point of view being pushed). However, many of the structural characteristics of articles seem to correlate strongly with good writing and tone, so the models work very well in practice.


 * – predicts the (Wikipedia 1.0-like) assessment class of an article or draft

Topic routing


ORES' article topic model applies an intuitive top-down taxonomy to any article in Wikipedia -- even new article drafts. This topic routing is useful for curating new articles, building work lists, forming new WikiProjects, and analyzing coverage gaps.

ORES topic models are trained using word embeddings of the actual content. For each language, a language-specific embedding is learned and applied natively. Since this modeling strategy depends on the topic of the article, topic predictions may differ between languages depending on the topics present in the text of the article.

New article evaluation


The biggest difficulty with reviewing new articles is finding someone familiar with the subject matter to judge notability, relevance, and accuracy. Our  model is designed to route newly created articles based on their apparent topical nature to interested reviewers. The model is trained and tested against the first revision of articles and is thus suitable to use on new article drafts.


 * – predicts the topic of an a new article draft

Topic interest mapping


The topical relatedness of articles is an important concept for the organization of work in Wikipedia. Topical working groups have become a common strategy for managing content production and patrolling in Wikipedia. Yet a high-level hierarchy is not available or query-able for many reasons. The result is that anyone looking to organize around a topic or make a work-list has to do substantial manual work to identify the relevant articles. With our  model, these queries can be done automatically.


 * – predicts the topic of an article

Support table
The ORES support table reports the status of ORES support by wiki and model available. If you don't see your wiki listed, or support for the model you'd like to use, you can request support.

API usage
ORES offers a Restful API service for dynamically retrieving scoring information about revisions. See https://ores.wikimedia.org for more information on how to use the API.

If you're querying the service about a large number of revisions, it's recommended to batch no more than 50 revisions within a given request as described below. It's acceptable to use up to 4 parallel requests. Please do not exceed these limits or ORES can become unstable. For even larger number of queries, you can run ORES locally

 Example query:  |wp10&revids=34854345|485104318 http://ores.wikimedia.org/v3/scores/enwiki/?modelsdraftquality|wp10&revids34854345|485104318

 Example query:  https://ores.wikimedia.org/v3/scores/wikidatawiki/421063984/damaging

EventStream usage
The ORES scores are also provided as an EventStream at https://stream.wikimedia.org/v2/stream/revision-score

Local usage
To run ORES locally you can install the ORES Python package by:

Then you should be able to run it through:

You should see output of