ORES/pt-br

O ORES (/ɔɹz/, Serviço Objetivo de Avaliação de Revisões) é um serviço web e API que fornece o aprendizado de máquina as a service para os projetos da Wikimedia mantido pela equipe de Plataforma de Pontuações. O sistema foi designado para ajudar a automatizar trabalhos nas wikis, como detecção e remoção de vandalismo. Atualmente, os dois tipos gerais de pontuações que o ORES gera são no contexto de “qualidade da edição” e “qualidade do artigo”.

O ORES é um serviço de back-end, e não possui uma maneira direta de usar as pontuações. Se você gostaria de usá-las, confira a nossa lista de ferramentas que usam pontuações do ORES. No caso do ORES ainda não estar disponível na sua wiki, veja as nossas instruções para solicitar suporte.

Qualidade da edição
Uma das questões mais críticas sobre os projetos abertos da Wikimedia é a revisão de contribuições (“edições”) potencialmente prejudiciais. Há também a necessidade de identificar contribuidores de boa-fé (os quais podem estar causando danos sem saberem) e oferecê-los ajuda. Estes modelos pretendem facilitar o trabalho no feed das mudanças recentes. Oferecemos dois níveis de ajuda pra os modelos de previsão: básico e avançado.

Suporte básico
Assumindo que as edições mais prejudiciais serão revertidas e que as menos prejudiciais não serão, podemos usar o histórico de edições (e reversões) de uma wiki. Esse modelo é fácil de ser configurado, porém sofre do problema de várias edições serem revertidas por razões além de vandalismo. Para consertar isso,.


 * : prevê se uma edição será eventualmente revertida

Suporte avançado
Em vez de assumir, podemos pedir que os editores treinem o ORES sobre quais edições são, de fato, prejudiciais, e quais parecem ter sido feitas em boa-fé. Isso requer trabalho adicional da parte dos voluntários, mas resulta numa previsão mais precisa e matizada em assunto de qualidade. Várias ferramentas somente funcionarão se o suporte avançado estiver disponível para a wiki alvo.


 * -- predicts whether or not an edit causes damage
 * -- predicts whether an edit was saved in good-faith

Article quality
The quality of encyclopedia articles is a core concern for Wikipedians. New pages must be reviewed and curated to ensure that spam, vandalism, and attack articles do not remain in the wiki. For articles that survive the initial curation, some of the Wikipedians periodically evaluate the quality of articles, but this is highly labor intensive and the assessments are often out of date.

Curation support
The faster that seriously problematic types of draft articles are removed, the better. Curating new page creations can be a lot of work. Like the problem of counter-vandalism in edits, machine predictions can help curators focus on the most problematic new pages first. Based on comments left by admins when they delete pages (see the logging table), we can train a model to predict which pages will need quick deletion. See en:WP:CSD for a list of quick deletion reasons for English Wikipedia. For the English model, we used G3 "vandalism", G10 "attack", and G11 "spam".


 * -- predicts if the article will need to be speedy deleted (spam, vandalism, attack, or OK)

Assessment scale support
For articles that survive the initial curation, some of the large Wikipedias periodically evaluate the quality of articles using a scale that roughly corresponds to the English Wikipedia 1.0 assessment rating scale ("wp10"). Having these assessments is very useful because it helps us gauge our progress and identify missed opportunities (e.g., popular articles that are low quality). However, keeping these assessments up to date is challenging, so coverage is inconsistent. This is where the  machine learning model comes in handy. By training a model to replicate the article quality assessments that humans perform, we can automatically assess every article and every revision with a computer. This model has been used to help WikiProjects triage re-assessment work and to explore the editing dynamics that lead to article quality improvements.


 * -- predicts the (Wikipedia 1.0-like) assessment class of an article or draft

Support table
The following table reports the status of ORES support by wiki and model available. If you don't see your wiki listed, or support for the model you'd like to use, you can request support.

API usage
ORES offers a Restful API service for dynamically retrieving scoring information about revisions. See https://ores.wikimedia.org for more information on how to use the API.

If you're querying the service about a large number of revisions, it's recommended to batch 50 revisions in each request as described below. It's acceptable to use up to four parallel requests.

Example query: |wp10&revids=34854345|485104318 http://ores.wmflabs.org/v3/scores/enwiki/?modelsdraftquality|wp10&revids34854345|485104318