Moderator Tools/Content Moderation in Medium-Sized Wikimedia Projects/ta

2021/22-இல், நடுத்தர அளவுடைய விக்கிமீடியா செயல்திட்டங்களில் உள்ளடக்க கட்டுப்பாட்டாளர்களின் தேவைகளைப் புரிந்துகொள்ள குழு ஆராய்ச்சி மேற்கொண்டு வருகின்றது. இந்தப் பக்கம் இறுதி அறிக்கையில் இடம்பெற்றுள்ள முடிவுகள் மற்றும் பரிந்துரைகளின் சுருக்கத் தொகுப்பைக் கொண்டுள்ளது, நீங்கள் இதை முழுமையாக இல் படிக்கலாம்.

இந்த அறிக்கையில், ‘உள்ளடக்க கட்டுப்பாடு’ என நாங்கள் குறிப்பிடும்போது, ஒரு விக்கிமீடியா செயல்திட்டத்தின் உள்ளடக்கத்தைக் கட்டுப்படுத்துகின்ற கொள்கைகள் மற்றும் செயல்முறைகளைக் குறிப்பிடுகிறோமே தவிர, உள்ளடக்கத்துக்கான நேரடிப் பங்களிப்புகளைக் குறிப்பிடுவதில்லை. இது புதிய திருத்தங்களை ரோந்திடுவது, பக்கங்களை நீக்க அல்லது பாதுகாக்க நிர்வாகி கருவிகளைப் பயன்படுத்துவது, எழுதுதல் கொள்கைகள் மற்றும் குறியிடுதல் பணிகளை வகைப்படுத்துதல் மற்றும் பராமரித்தல் போன்ற செயல்முறைகள் இதில் அடங்கும்.

கீழே கொடுக்கப்பட்டுள்ள முடிவுகள் உங்கள் தேவைகளுடனும், விக்கிமீடியா செயல்திட்டத்தில் உங்கள் சூழ்நிலையுடனும் பொருந்துகின்றதா, இல்லையா? நாம் என்ன தொழில்நுட்பத் திட்டங்களில் வேலை செய்ய வேண்டும் என்பதைப் பற்றிய நமது புரிதலை நாம் தொடர்ந்து வளர்த்துக்கொள்ள பேச்சுப் பக்கத்தில் நாம் அதைத் தெரிந்துகொள்ளலாம்.

எங்களுடைய முதலாவது சுற்று ஆராய்ச்சியிலிருந்து மொபைல் இணையத்தின் உள்ளடக்கக் கட்டுப்பாடு உள்ளடக்க கட்டுப்பாட்டாளர்களின் பிரதானப் பிரச்சனையாக விளங்குவதை நாங்கள் கண்டறிந்துள்ளோம். அடுத்து வரும் மாதங்களில் மொபைல் இணைய இடைமுகத்தில் மேம்பாடுகளை மேற்கொள்வதற்கான வேலையைத் தொடங்குவதை நாங்கள் இலக்காகக் கொண்டுள்ளோம். Please see Content moderation on mobile web for information and questions we have about potential improvements to mobile web.

ஆராய்ச்சி மற்றும் நேர்காணல்கள்
இந்த ஆராய்ச்சி “நடுத்தர அளவு கொண்ட” விக்கிமீடியா செயல்திட்டங்களில் கவனம் செலுத்துகின்றது. தமிழ் மற்றும் உக்ரேனியன் விக்கிபீடியா செயல்திட்டங்களில் உள்ளடக்கக் கட்டுப்பாடு பற்றிப் புரிந்துகொள்வதில் குறிப்பாக கவனம் செலுத்தும் நோக்கத்துடன், அளவின் அடிப்படையில் முதல்~10 இடங்களைப் பெறாத செயல்திட்டங்களின் தொகுப்பாளர்கள்களை நாங்கள் முக்கியமாக நேர்காணல் செய்தோம். நாங்கள் நேர்காணல் செய்தவர்கள் குறைந்தபட்சம் ஒரு செயல்திட்டத்தில் முக்கிய நிர்வாகிகளாக இருந்தார்கள், ஆயினும் ரோந்திடுபவர்கள், மேலாளர்கள் மற்றும் கருவி உருவாக்குபவர்கள் ஆகியோருடனும் நாங்கள் பேசினோம்.

பலதரப்பட்ட சமுதாய உறுப்பினர்களுக்கான தேவைகளுக்குத் தீர்வு காண்கின்ற தயாரிப்புகள் மீது இறுதியில் நாங்கள் செயல்படுவோம் என்ற நம்பிக்கை கொண்டுள்ள அதே சமயம், எங்கள் ஒட்டுமொத்த இலக்கை வரையறுக்கும்போது பின்தங்கிய சமூகங்கள் மீது நாங்கள் கவனம் செலுத்த விரும்பினோம், ஏனெனில் இவை கடந்த காலத்தில் தயாரிப்பு முதலீட்டைப் பெறவில்லை மற்றும் இவை இடைவெளிகளை நிரப்புவதற்கு குறைவான தொழில்நுட்ப தன்னார்வலர்களையே கொண்டுள்ளன.

முக்கிய தொழில்நுட்பத் தடைகள்
நாங்கள் மிகத் தெளிவாகத் தெரிந்துகொண்ட விஷயங்களில் ஒன்று என்னவென்றால், நாங்கள் நேர்காணல் செய்த உள்ளடக்கக் கட்டுப்பாட்டாளர்களில் யாருமே மொபைலில் உள்ளடக்கப் பணிகளை மேற்கொள்ளவில்லை. மொபைல் இணையப் பக்க பார்வைகள் (87%) மற்றும் மொபைல் தொகுப்பாளர்களை (45.2%) அதிக விழுக்காடு கொண்டுள்ள தமிழ் விக்கிபீடியாவில் கூட, நாங்கள் பேசிய நிர்வாகிகள் யாருமே மொபைலில் வழக்கமாக தொடர்ந்து திருத்தம் மேற்கொள்ளவில்லை. ஏன் என்பதற்கான காரணம் மிகத் தெளிவாகத் தெரிந்தது: மொபைலில் கட்டுப்பாடு என்பது நடைமுறையில் பயன்படுத்த முடியாத அளவுக்கு மோசமாக உள்ளது. ஒரு பக்கத்தின் திருத்தங்களுக்கிடையேயான வேறுபாடில் இருந்து திருத்தங்களைச் செயல்தவிர்ப்பது போன்ற, டெஸ்க்டாப் இடைமுகம் வாயிலாகக் கிடைக்கின்ற பல அடிப்படை அம்சங்களை இது கொண்டிருக்கவில்லை. மேலும், இந்த அம்சங்கள் காணப்பட்டாலும் கூட அவை பொதுவாக மொபைலுக்கு ஏற்புடையதாக இல்லை. ஸ்மார்ட்ஃபோன்கள் மிகப் பொதுவான கணிப்பு சாதனமாக விளங்கும் சமுதாயங்களில், அல்லது அவசரநிலைகள் அல்லது நெருக்கடிகள் காரணமாக டெஸ்க்டாப்கள் அல்லது மடிக்கணினிகளுக்கான அணுகல் இடைவிட்டுக் கிடைக்கக்கூடிய அல்லது நம்பகத்தன்மையற்றதாக உள்ள இடங்களில் இது அணுகல் அல்லது சமத்துவப் பிரச்சனையை ஏற்படுத்துகிறது.

கூடுதலாக, கட்டுப்பாட்டுக் கருவிகள் நன்கு ஆவணப்படுத்தப்பட்டவையாகவும் கண்டறிவதற்குக் கடினமானவையாகவும் இருப்பது அரிதாகவே உள்ளது. பராமரிப்புக் குறியிடுதல் மற்றும் ஒரு நீக்கலுக்கான வாக்கெடுப்புக்காகப் பரிந்துரைத்தல் போன்ற செயல்முறைகளில் ஈடுபடுவது தெளிவற்றதாக உள்ளது மற்றும் இதற்கு வழக்கமாக பல படிநிலைகளை மேற்கொள்ள வேண்டியுள்ளது. நாங்கள் நேர்காணல் செய்தவர்களால் கோரப்பட்ட சில அம்சங்கள் தலைப்பு தடுப்புப்பட்டியல் மற்றும் முறைகேட்டு வடிகட்டி போன்ற கருவிகளால் ஏற்கனவே வழங்கப்பட்டுள்ளன. இந்தக் கருவிகள் பரவலாகக் கிடைப்பதில்லை, அல்லது நிர்வாகிகள் தாங்களே சுயமாக அவற்றை எப்படிப் பயன்படுத்துவது என்பதைக் கற்றுக்கொள்வதற்குப் போதுமான அளவு அவை நன்கு ஆவணப்படுத்தப்படவில்லை என்பதை இது குறிப்பிடுகிறது. இதற்கு மேலாக, இந்தக் கருவிகளில் சில மிகவும் சக்தி வாய்ந்தவையாக விளங்குவதால் இவை பயங்கரமான எதிர்பாராத தீங்கு விளைவிப்பதற்கான சாத்தியத்தைக் கொண்டிருக்கின்றன. அதிகமான உள்ளார்ந்த ஆபத்து மற்றும் அவற்றை எவ்வாறு பயன்படுத்துவது என்பதைப் பாதுகாப்பாகக் கற்றுக்கொள்வதற்கான வாய்ப்புகள் இல்லாதது ஆகியவற்றின் காரணமாக புதிய நிர்வாகிகளால் இதை ஏற்றுக்கொள்வதற்குத் தயக்கம் காட்டலாம்.

முக்கிய சமூகத் தடைகள்
கிட்டத்தட்ட எங்கள் அறிக்கையில் உள்ள ஒவ்வொரு பதிலளித்தவரும் தங்கள் செயல்திட்டத்தில் உள்ள நிர்வாகிகள் மிகுதியான வேலைப்பளு மற்றும் குறைவான பணியாளர்கள் இருப்பதாக உணர்ந்ததாகக் குறிப்பிட்டுள்ளனர். நிர்வாகப் பண்பைப் பெறுவதற்கு புதிய நிர்வாகிகளைக் கண்டுபிடிப்பதற்கு கடுமையான நிபந்தனைகள் ஒரு பெரிய தடையாக இருப்பதை அவர்கள் சுட்டிக்காட்டினர். கூடுதலாக, எங்களால் நேர்காணல் செய்யப்பட்ட உக்ரேனிய விக்கிபீடியாவைச் சேர்ந்தவர்கள் புதிய நிர்வாகிகளை நியமிப்பதில் உள்ள சிரமங்களையும் சுட்டிக்காட்டினர். நிர்வாகிகள் பெரிய அளவிலான தாக்கத்தை ஏற்படுத்தும் கருவிகளைப் பெறுகிறார்கள், ஆனால் அவற்றை எந்த அளவுக்குச் சிறப்பாகப் பயன்படுத்துவது என்பது குறித்த வழிகாட்டுதலை சிறிதளவே பெறுகிறார்கள். This leads to hesitancy both for potential administrator candidates and for the wider community voting on new administrators.

Another theme was how invisible many content moderation tasks are, which leads to the feeling that performing them is less rewarding. Implicit in this was the point that the invisibility of most administration work may also contribute to difficulty in encouraging editors to think about performing moderator work themselves. This is also a problem for administrators seeking to review their own work, or for anyone trying to monitor administrator actions, since getting data on administrative actions is theoretically possible but difficult in practice right now. Therefore, it is hard for anyone to know what kinds of actions are most common, and to assess their impact.

Categorizing moderation capacity by wiki
Content moderator needs vary by project size, and a small admin pool does not automatically mean that a community is understaffed. Therefore, categorizing wikis by administrative capacity is more complex than merely counting the size of their administrator user group or even looking at the number of edits made per month. The metrics we settled on included comparing the monthly active administrator to monthly active editor ratio to the number of edits per month, as well as undertaking a review of a wiki’s policies in a few common areas. Common content moderation policies include:


 * Speedy deletion
 * Deletion discussions
 * Administrator election and removal procedures

We determined that most smaller wikis either have no stated policies on content moderation topics (even if they are carrying out actions such as page deletion), or copy them verbatim from larger wikis. Developing the capacity needed to tailor such policies (both in terms of adapting policy as well as translating it to the language of the wiki) to their specific wiki may therefore be taken as a signal of growing moderation capacity.

In addition to this, we also looked at other characteristics such as percentage of majority-mobile editors, article count of the wiki, and the geographic and linguistic coverage of the project. We wanted to avoid selecting partner wikis that were culturally similar since borrowing policy from closely-related wikis (by language or culture) is a common practice, and we wanted to compare two different moderation contexts for this report.

Product recommendations
Our primary product recommendation would be to improve content moderation from mobile web. We arrived at this conclusion from our main finding that moderation on mobile is practically impossible even for very basic tasks. It poses a barrier to participation for new administrators, as well as addressing an equity issue for many growing communities. One in four contributors to Wikimedia projects edits primarily from a mobile device, a figure which increases to 40-60% in some emerging markets. These are editors who cannot meaningfully participate in advanced editing or moderation due to their lack of access to laptop or desktop devices. Even for moderators whose primary device is not a smartphone, they are common as secondary computing devices and therefore an improvement to mobile moderation would benefit desktop-first editors as well.

Our aim would be to bring content moderation functionality in the mobile skin up to parity with the desktop editing experience. We would do so by building on the Advanced Mobile Contributions project, and incorporating these features into the default experience - with improved user interfaces where needed - rather than requiring editors to opt-in to an advanced editing mode.

Working within the mobile web interface could also be a beneficial starting point for further work in this space. Issues of accessibility and discoverability are accentuated here, making it a good avenue for developing hypotheses to solve other challenges.