Moderator Tools/Automoderator/id

Saat ini kami dari tim sedang mengerjakan proyek moderasi otomatis yang akan berlaku di proyek Wikimedia. Perkakas ini memungkinkan kontributor untuk melakukan patroli suntingan secara otomatis dengan menggunakan model pembelajaran mesin. In simpler terms, we're looking to build software which performs a similar function to anti-vandalism bots such as ClueBot NG, SeroBOT, and Dexbot, but make this available to all language communities.

Kami berpendapat bahwa apabila kegiatan patroli untuk mencegah dan/atau memberantas vandalisme dilakukan secara otomatis, maka kontributor dapat memiliki waktu leluasa lebih banyak untuk melakukan hal lainnya.

Mulai pertengahan hingga akhir tahun 2023, kami akan mencoba untuk merancang ide ini. Pada tahun 2024, pengembangan perkakas direncanakan untuk dimulai.

Informasi terkini (Juni 2023): Kami membuka masukan dan saran dari Anda. Silakan jawab pertanyaan berikut dan sampaikan pendapat Anda melalui halaman pembicaraan ini.

Latar belakang
Sebagian suntingan yang ada di proyek Wikimedia merupakan suntingan bersifat merusak (vandalisme) dan hal ini harus segera ditangani. Kontributor yang melakukan patroli maupun pengurus menghabiskan sebagian besar waktunya untuk memeriksa dan mengembalikan suntingan tersebut secara manual. Sayangnya jumlah kontributor aktif tidak sebanding dengan banyaknya suntingan masuk yang mengakibatkan beban kerja mereka semakin banyak. Maka dari itu, kami berinisiatif untuk sebisa mungkin mengurangi beban mereka agar bisa melakukan hal lainnya.

Beberapa situs lainnya seperti Reddit, Twitch, dan Discord menyediakan fitur moderasi secara otomatis. Fitur tersebut dikelola oleh komunitas untuk menentukan seberapa ketat penyaringan yang diperlukan dengan menggunakan model algoritme secara otomatis. Sementara itu, Wikipedia memiliki fitur filter penyalahgunaan yang dapat memberikan keleluasaan dalam menentukan filter penyaringan penyuntingan. Namun, perlu diakui bahwa fitur tersebut tidak mudah untuk digunakan oleh semua kontributor. Alasannya adalah filter penyalahgunaan hanya bisa diatur oleh kontributor yang memahami regular expression (regex). Fitur tersebut sangat sulit untuk digunakan oleh sebagian besar kontributor dan berisiko menyebabkan gangguan. Setidaknya beberapa komunitas memiliki akun bot yang bertugas untuk memberantas vandalisme, tetapi akun ini hanya beroperasi secara lokal dan dibutuhkan kontributor yang mumpuni dalam mengatur akun bot agar bekerja sesuai dengan keinginan. Akun bot tersebut umumnya menggunakan model ORES yang notabene tidak digunakan dalam jangka waktu lama dan keterbatasan dukungan bahasa.

Misi

 * Mengurangi beban kontributor dalam melakukan patroli suntingan yang bersifat merusak.
 * Meyakinkan kontributor bahwa perkakas ini dapat membantu melakukan patroli secara berkelanjutan.
 * Memastikan bahwa kontributor dapat menangani kesalahan pemeriksaan (false positive) yang dibuat oleh perkakas ini.


 * Apakah ada misi lain yang perlu kami capai?

Pendekatan
Proyek ini akan menggunakan pendekatan model risiko pengembalian yang dibuat oleh Tim Penelitian Wikimedia Foundation. Terdapat dua pendekatan yang akan digunakan dalam fitur ini:
 * 1) A multilingual model, with support for 47 languages.
 * 2) A language-agnostic model.

These models can calculate a score for every revision denoting the likelihood that the edit should be reverted. We envision providing communities with a way to set a threshold for this score, above which edits would be automatically prevented or reverted.

The models currently only support Wikipedia and Wikidata, but could be trained on other Wikimedia projects. Additionally they are currently only trained on the main (article) namespace. Once deployed, we could re-train the model on an ongoing basis as false positives are reported by the community.

Before moving forward with this project we would like to provide opportunities for testing out the model against recent edits, so that patrollers can understand how accurate the model is and whether they feel confident using it in the way we're proposing.


 *  Do you have any concerns about these models? 
 *  What percentage of false positive reverts would be the maximum you or your community would accept? 



Desain dan cara kerja fitur
Kami membayangkan sebuah perkakas yang dapat dikonfigurasi sesuai dengan kriteria yang berlaku dalam komunitas untuk mencegah atau mengembalikan suntingan vandal. Reverting edits is the more likely scenario - preventing an edit requires high performance so as not to impact edit save times. Additionally, it provides less oversight of what edits are being prevented, which may not be desirable, especially with respect to false positives. Kontributor harus memiliki keleluasaan dalam mengatur fitur ini aktif atau tidak, serta mengatur seberapa ketat fitur ini bekerja dalam mengawasi suntingan masuk.

Apabila diatur dalam tingkatan terendah maka akan banyak suntingan yang dikembalikan, tetapi tingkat kesalahan pemeriksaan akan tinggi. Namun, apabila diatur dalam tingkatan tertinggi maka akan sedikit suntingan yang dikembalikan, tetapi tingkat kesalahan pemeriksaannya rendah.

While the exact form of this project is still being explored, the following are some feature ideas we are considering, beyond the basics of preventing or reverting edits which meeting a revert risk threshold.

Sarana uji coba
Apabila komunitas ingin memiliki opsi untuk mengatur seberapa ketat fitur ini bekerja, maka kami perlu menyediakan sarana untuk menguji coba pengaturan tersebut. Hal ini kurang lebih sama dengan cara kerja dari fitur Filter penyalahgunaan, yaitu ketika suntingan masuk diuji coba dengan filter yang ada untuk dicocokkan dan dilakukan tindakan apabila memenuhi kriteria.


 * Seberapa penting sarana uji coba ini untuk Anda? Apakah ada fitur serupa yang pernah Anda jumpai dan merasa sangat berguna untuk Anda?



Pengaturan yang disesuaikan dengan kebutuhan komunitas
A core aspect of this project will be to give moderators clear configuration options for setting up the automoderator and customising it to their community’s needs. Rather than simply reverting all edits meeting a threshold, we could, for example, provide filters for not operating on editors with certain user groups, or avoiding certain pages.


 * Pengaturan seperti apa yang dibutuhkan oleh Anda sebelum menggunakan fitur ini?
 * Menurut Anda, siapa yang berhak untuk melakukan konfigurasi sistem dari fitur ini?
 * Menurut Anda, perlukah Steward memiliki hak untuk melakukan konfigurasi bagi situs wiki kecil?



Pelaporan kesalahan pemeriksaan
Machine learning models aren't perfect, and so we should expect that there will be a non-zero number of false positive reverts. There are at least two things we need to consider here: the process for a user flagging that their edit was falsely reverted so it can be reinstated, and providing a mechanism for communities to provide feedback to the model over time so that it can be re-trained.

The model is more sensitive to edits from new and unregistered users, as this is where most vandalism comes from. We don't want this tool to negatively impact the experience of good faith new users, so we need to create clear pathways for new users to understand that their edit has been reverted, and be able to reinstate it. This needs to be balanced with not providing easy routes for vandals to undo the tool's work, however.

Although these models have been trained on a large amount of data, false positive reporting by editors can provide a valuable dataset for ongoing re-training of the model. We need to figure out how to enable experienced editors to send false positive data back to the model so that it can improve over time.


 * Bagaimana cara kami memberikan informasi kepada kontributor perihal kesalahan pemeriksaan sehingga suntingan yang seharusnya bukan vandal malah dikembalikan?
 * Apakah ada hal yang Anda khawatirkan perihal kesalahan pemeriksaan ini?



Pertanyaan terbuka lainnya

 * Apabila komunitas Anda memiliki akun bot yang dikelola secara mandiri, dapatkah Anda menceritakan bagaimana pengalamannya menggunakan bot tersebut? Apa yang Anda rasakan apabila bot tersebut tidak bekerja secara normal?
 * Menurut Anda, apakah fitur ini bermanfaat bagi komunitas Anda? Bagaimana cara Anda menyesuaikan alur kerja maupun peralatan lainnya yang sudah ada?
 * Data seperti apa yang dapat kami gunakan (dari fitur ini) untuk kami olah sebagai tolok ukur keberhasilan penerapan fitur ini?
 * Apakah ada hal lainnya yang perlu kami perhatikan dan/atau pertimbangkan?