Manual:Combating spam/cs

Stejně jako všechny současné dynamické webové stránky jsou wikis běžným cílem pro spammery, kteří chtějí propagovat produkty nebo webové stránky. MediaWiki nabízí řadu funkcí určených k boji proti vandalismu obecně. Na této stránce se zabýváme konkrétně wiki spam.

Přehled
Běžné nástroje používané v boji proti spamu wiki obvykle spadají do těchto kategorií:


 * Vyžadování přihlášení a / nebo CAPTCHA u určitých operací, jako jsou úpravy, přidávání externích odkazů nebo vytváření nových uživatelů
 * Blokování úprav ze známých IP adres ze seznamu zakázaných nebo z adres IP, na nichž běží otevřené servery proxy
 * Blokování úprav, které přidávají konkrétní nechtěná klíčová slova nebo externí odkazy
 * Blokování specifických vzorů uživatelského jména a názvu stránky, které spamboty běžně používají
 * Blokování úprav novými nebo anonymními uživateli na konkrétních často cílených stránkách
 * Whitelisting (seznam povolených) známých editorů (jako jsou administrátoři, pravidelní přispěvatelé) a zároveň omezení pro nové nebo anonymní uživatele
 * Vyčištění skriptů nebo hromadné mazání stávajících příspěvků z nedávno zakázaných spambotů

Běžně se používá kombinace různých metod ve snaze udržet počet úprav spamu, robotů a otevřených proxy na minimu a zároveň omezit míru narušení způsobeného legitimním uživatelům webu.

Mnoho těchto funkcí není ve výchozím nastavení aktivováno. Pokud na serveru / hostiteli instalujete instalaci MediaWiki, pak jste jediný, kdo může provést potřebné změny konfigurace! V každém případě požádejte své uživatele o pomoc Pozor na spam Wiki (a udělejte to sami). V dnešní době může spam snadno přemoci malé komunity wiki. Pomáhá trochu zvýšit tlak. Také byste si měli uvědomit, že žádné z těchto řešení nelze považovat za zcela odolné proti spamu. Efektivní praxí je pravidelně kontrolovat „“ (Special:RecentChanges).

Nejrychlejší řešení nejprve vyzkoušejte
Boj proti spamu by neměl být příliš tvrdý. Pokud chcete rychle a výrazně omezit spam, zkuste nejprve tyto kroky.

Pokud problémy přetrvávají, přečtěte si další část této stránky, kde najdete další řešení, a pošlete zprávu na mediawiki-l.
 * Nainstalujte rozšíření StopForumSpam a zablokujte známé adresy IP spamu.
 * Nainstalujte a nastavte základní rozšíření antivandalismu (již bylo dodáno s poslední verzí), zejména.
 * Konfigurujtet QuestyCaptcha a v případě potřeby změňte výchozí nastavení pro vaši wiki.

CAPTCHA
Jednou z běžnějších metod vyřazování automatických podání je použití CAPTCHA. Systému, který se snaží odlišit lidi od automatizovaných systémů tím, že požádá uživatele, aby vyřešil úkol, který je pro stroje obtížný. Rozšíření pro MediaWiki poskytuje rozšiřitelný rámec CAPTCHA, který lze spustit na řadě událostí, včetně


 * všech úprav
 * úprav přidávajících nové, nerozpoznané externí odkazy
 * registrace uživatele

Rozšíření se dodává se standardním testem, jedná se však o referenční implementaci a není určeno k produkčnímu použití. Operátorům Wiki, kteří instalují ConfirmEdit na veřejné wiki, se doporučuje používat jeden z modulů CAPTCHA obsažených v rozšíření (celkem jich je pět).

Nejodolnější CAPTCHA, které jsou dnes k dispozici, jsou vaše vlastní otázky QuestyCaptcha, pokud je přizpůsobíte pevně publiku vaší wiki a pravidelně je aktualizujete. ReCaptcha je v současné době poražen většinou spammerů ; Asirra CAPTCHA, která žádá uživatele, aby rozlišil kočky a psy, je pro uživatele obzvláště nepříjemná, ale může být účinná.

Je důležité si uvědomit, že CAPTCHA mohou blokovat více než nežádoucí roboty. Pokud skript není schopen projít CAPTCHA, pak to také může být čtečka obrazovky nebo jiný software nebo pomoc používaná nevidomými nebo zrakově postiženými. Jednou z možností v CAPTCHA, widgetu „reCAPTCHA“, je v takových případech alternativní zvukový CAPTCHA - ale někteří uživatelé počítačů selhávají při testech slyšení a čtení, takže to není úplně dobré řešení. Měli byste zvážit důsledky takové překážky a případně poskytnout alternativní prostředky pro postižené uživatele k vytváření účtů a přispívání, což je v některých jurisdikcích zákonný požadavek.

Vaše wiki také nebude zcela odolná proti spamu; podle Wikipedie "Spameři platí asi 0,80 do 1,20 $ za každých 1 000 vyřešených CAPTCHA společnostem zaměstnávajícím lidské řešitele v Bangladéši, Číně, Indii a mnoha dalších rozvojových zemích." Z tohoto důvodu by měl být kombinován s jinými mechanismy.

rel="nofollow"
Ve výchozí konfiguraci MediaWiki přidává  k externím odkazům na wiki stránkách, což znamená, že jsou dodávány uživatelem. Mohou obsahovat spam. Proto by neměly být používány k ovlivňování algoritmů pro hodnocení stránek. Tento atribut ctí oblíbené vyhledávací nástroje, například Google.

Toto chování můžete vypnout na celém webu pomocí nebo na základě jmenného prostoru pomocí konfigurační proměnné.

Use of the  attribute alone will not stop spammers attempting to add marketing to a page, but it will at least prevent them from benefiting through increased page rank; we know for sure that some check this. Nonetheless, it should never be relied upon as the primary method of controlling spam as its effectiveness is inherently limited. It does not keep spam off your site.

See NoIndexHistory. Note that putting it on all external links is a rather heavy handed anti-spam tactic, which you may decide not to use (switch off the rel=nofollow option). See Nofollow for a debate about this. It's good to have this as the installation default though. It means lazy administrators who are not thinking about spam problems, will tend to have this option enabled. For more information, see Manual:Costs and benefits of using nofollow.

Rutina antispamu: opatření na míru
Každý spammer je jiný. I když všichni vypadají nudně podobně. Pokud obecná protiopatření nestačí, použijte před extrémními kroky nástroje, které vám umožní řešit konkrétní problémy, které máte.

Ochrana jednotlivých stránek
Spamboty často často opakovaně zasáhnou stejnou stránku. Běžné vzory pozorované u pagenů vytvořených pomocí spambotů zahrnují diskusní stránku, často mimo hlavní prostor (např. Category_talk: jsou málo používány, takže si vytvoří společné cíle) a další diskusní stránky

Nejvíce zneužívají úpravy na wiki, které nevyžadují k úpravám registraci. Pocházejí z anonymních zdrojů. Blokováním úprav na těchto konkrétních stránkách komukoli jinému než zavedeným uživatelům může zabránit opětovnému vytvoření spamových výpisů. Typically, any page which is already a regular visitor to special:log/delete on an individual wiki is a good candidate for page protection.


 * Semi-protection of individual pages.
 * In addition, this can be combined with changing the minimum requirements for MediaWiki to identify users as 'autoconfirmed'.
 * One may apply cascading protection to one or more pages that have links to the most frequently spammed pages. One can also use this trick to set up a handy list for use by admins.

Filtr zneužívání
(filtr zneužití) umožňuje privilegovaným uživatelům vytvářet pravidla zacílená na konkrétní typ spamu, který vaše wiki přijímá. Může pomoci automaticky zabránit akci nebo blokovat uživatele.

Může prozkoumat mnoho vlastností úprav. Například uživatelské jméno, věk uživatele, přidaný text, přidané odkazy atd. Nejúčinnější je v případech, kdy máte jednoho nebo více kvalifikovaných administrátorů, kteří jsou ochotni vám pomoci v boji proti spamu. Filtr zneužití může být účinný i proti spammerům podporovaným člověkem, ale vyžaduje nepřetržitou údržbu, aby reagoval na nové typy útoků.

Příklady boje proti automatickému spamu lze nalézt v Návod: Příklady boje proti spamu / Příklady filtru zneužití.

Seznam spamů (SpamBlacklist)
Výše uvedený přístup bude příliš těžkopádný, pokud se pokusíte blokovat více než hrst spamových adres URL. Lepším přístupem je dlouhá černá listina identifikující mnoho známých spamových adres URL.

Populární rozšíření pro MediaWiki je rozšíření, které blokuje úpravy, které přidávají URL na stránky do černé listiny. Sestavení takového seznamu na wiki umožňuje za pomoci privilegovaných uživatelů. Využívá seznamů získaných z externích zdrojů (ve výchozím nastavení) Používá rozsáhlou Černou listinu spamů.

Rozšíření (̝černá listina spamů) může být také užitečné, jako prostředek k zabránění opětovného vytvoření konkrétních skupin stránek, které používají 'bots k výpisu odkazových spamů.

Otevřené proxy
Otevřený server proxy je nebezpečný zejména proto, že se používá jako způsob, jak obejít protiopatření zaměřená na konkrétního narušitele; viz také Žádné otevřené servery proxy.

Existují někteří roboti, např. na Wikimedia wikis, detekující a blokující otevřené IP proxy. Jejich kód není často veřejný. Většina takových bloků, když si všimnete zneužití, se provádí ručně. Je proto důležité vědět, zda zneužívající IP je otevřený proxy server nebo něco jiného, aby se rozhodlo, jak se s tím vypořádat. Zejména, pokud se jedná o adresu IP používanou registrovaným uživatelem, získanou pomocí rozšíření.

Několik rozšíření, zejména rozšíření Tor block, blokuje řadu otevřených proxy serverů.

Od verze 1.22 je k dispozici, aby bloky byly účinnější.

Tvrdá opatření
Následující opatření jsou určena pro technicky zdatnější sysadminy, kteří vědí, co dělají. Je obtížnější je správně nastavit a sledovat. Pokud jsou implementovány špatně, mohou být příliš staré na to, aby byly stále efektivní, nebo dokonce mohou být pro vaši wiki kontraproduktivní.

$wgSpamRegex
MediaWiki poskytuje prostředky k filtrování textu úprav za účelem blokování nežádoucích doplňků prostřednictvím konfigurační proměnné . Můžete ji použít k blokování dalších úryvků textu nebo značek spojených s běžnými útoky na spam.

Obvykle se používá k vyloučení adres URL (nebo částí adres URL), na které nechcete uživatele odkazovat. Uživatelé dostanou vysvětlující zprávu, která uvádí, která část jejich upravovaného textu není povolena. umožňuje editaci této proměnné na wiki.

Tím se zabrání jakékoli zmínce o „online kasinu“ nebo „buy-viagra“ nebo „adipex“ nebo „phentermine“. '/i' na konci způsobí, že na případné vyhledávání nebude citlivý. Blokuje také úpravy, které se pokouší přidat skryté nebo přetékající prvky, což je běžný „trik“ používaný při mnoha hromadných útocích, které se pokouší skrýt spam před diváky.

Změny konfigurace Apache
Pokud měníte konfiguraci své MediaWiki, používáte-li na Apache MediaWiki, můžete také provádět změny v konfiguraci webového serveru Apache, abyste zabránili spamu. Tato nastavení jsou obvykle umístěna do konfiguračního souboru virtuálního hostitele nebo do souboru s názvem .htaccess na stejném místě jako LocalSettings.php (Upozorňujeme, že pokud máte sdíleného webového hostitele, musí povolit AllowOverride, aby vám umožnil použití souboru .htaccess).

Filtrování podle agenta uživatele
Když na své wiki zablokujete nevyžádanou poštu, vyhledejte v protokolu přístupu k webu podle adresy IP a určete, který řetězec uživatelských agentů tato adresa IP poskytla. Například

The access log location for your virtual host is generally set using the CustomLog directive. Once you find the accesses, you'll see some lines like this:

The user agent is the last quoted string on the line, in this case an empty string. Some spammers will use user agent strings used by real browsers, while others will use malformed or blank user agent strings. If they are in the latter category, you can block them by adding this to your .htaccess file (adapted from this page):

SetEnvIf User-Agent ^regular expression matching user agent string goes here$ spammer=yes

Order allow,deny allow from all deny from env=spammer

Tím se vrátí chyba 403 Zakázané na jakoukoli adresu IP s uživatelským agentem, který odpovídá zadanému regulárnímu výrazu. Dejte pozor, abyste unikli všem potřebným znakům regexpu v řetězci uživatelského agenta, například. - se zpětným lomítkem (\). Chcete-li porovnat prázdné uživatelské agenty, použijte pouze znak „^$“.

I když je řetězec agenta spammeru používán skutečnými prohlížeči, pokud je starý nebo málokdy se vyskytující, můžete použít pravidla přepsání k přesměrování uživatelů na chybovou stránku a doporučit jim, aby upgradovali svůj prohlížeč:

RewriteCond %{HTTP_USER_AGENT} "Mozilla/5\.0 \(Windows; U; Windows NT 5\.1; en\-US; rv:1\.9\.0\.14\) Gecko/2009082707 Firefox/3\.0\.14 \(\.NET CLR 3\.5\.30729\)" RewriteCond %{REQUEST_URI} !^/forbidden/pleaseupgrade.html RewriteRule ^(.*)$ /forbidden/pleaseupgrade.html [L]

Zamezení blokování spammerů ve spotřebě zdrojů
Trvalý spammer nebo spam s poškozeným skriptem se může i nadále pokoušet spamovat vaši wiki poté, co byl zablokován, zbytečně náročnými zdroji. Přidáním pragmy deny from pragma, jako je následující, do souboru, můžete jim zabránit v načítání stránek vůbec a místo toho vrátit 403 zakázanou chybu:

Order allow,deny allow from all deny from 195.230.18.188

Černé seznamy adres IP
Většina nejproblematičtějších spamů přijímaných na webech MediaWiki pochází z adres, které ostatní webmasteři dlouho nazývají bot nebo otevřené proxy servery, ačkoli pro to existují pouze neoficiální důkazy. Tito roboti obvykle generují velké množství automatických registrací na webech fóra, komentují spam na blogu a vandalismus na stránkách wikis: nejčastěji linkspam, ačkoli existující obsah je někdy prázdný, doplněný náhodnými blábolícími znaky nebo upravován takovým způsobem, aby rozbil stávající Unicode text.

Poměrně jednoduchý CAPTCHA může problém významně snížit, protože může blokovat vytvoření určitých často nevyžádaných stránek. Tato opatření však problém nevylučují a zpřísnění bezpečnosti pro všechny uživatele v určitém okamžiku způsobí nepohodlí legitimních přispěvatelů.

Může být vhodnější namísto spoléhání se výhradně na CAPTCHA nebo jiná preventivní opatření, která ovlivňují všechny uživatele, zaměřit se konkrétně na IP adresy, o nichž již ostatní mistři stránek vědí, že jsou útočištěm net.abuse. Mnoho seznamů je již k dispozici, například stopforumspam.com obsahuje seznam "All IPs in CSV" (všech IP v CSV), který (od února 2012) obsahuje asi 200 000 IP známých spambotů.

Využití procesoru CPU a přetížení
Uvědomte si, že když se při pokusech o úpravy nebo zobrazení stránek provádí mnoho kontrol, roboti mohou snadno přetížit vaši wiki a narušit ji více, než pokud by nebyla chráněna. Sledujte náklady na ochranu svých zdrojů.

DNSBL
Můžete nastavit MediaWiki, aby zkontroloval každou editovací IP adresu proti jednomu nebo více DNSBL (blacklistům založeným na DNS), což nevyžaduje žádnou údržbu, ale mírně zvyšuje latenci úprav. Například můžete přidat tento řádek do LocalSettings.php a blokovat tak mnoho otevřených proxy serverů a známých spammerů:

For details of these DNSBLs, see Spamhaus: XBL and dnsbl.tornevall.org. For a list of DNSBLs, see Comparison of DNS blacklists. See also,.

Špatné chování a projekt HoneyPot
Špatné chování je první obranná linie blokující všechny požadavky známých spammerů identifikovaných pomocí HTTP hlaviček, IP adresy a dalších metadat; je k dispozici jako rozšíření MediaWiki, viz.

Pro maximální účinnost by měla být kombinována s http:BL API Key, které můžete získat na signing up for Project Honey Pot, distribuovaného projektu sledování spamu. Chcete-li se připojit k projektu HoneyPot, musíte do svého webového serveru přidat veřejně přístupný soubor a pomocí následujícího kódu rozšíření ve vašem LocalSettings.php (nebo přiloženém souboru PHP) vložit odkaz na každou stránku:

Nastavte $wgHoneyPotPath na cestu stránky honeypot v LocalSettings.php (např. "/ciralix.php"). Můžete změnit podobu výše uvedeného odkazu na kteroukoli z alternativ navržených v Project HoneyPot. Možná se budete muset přihlásit do Project HoneyPot, abyste viděli tyto alternativní způsoby, jak učinit odkazy honeypot neviditelné pro člověka.

Jakmile se zaregistrujete, zvolte Services&rarr;HTTP Blacklist, abyste získali http:BL API Key, a vložte svůj klíč do nastavení Bad Behavior's.ini.

$wgProxyList
Proměnnou můžete nastavit na seznamu IP, které chcete zakázat. Tentoo lze pravidelně naplňovat z externího zdroje pomocí skriptu cron, jako je například následující:

You then set in your LocalSettings.php:

You may want to save these commands in a file called e.g. updateBannedIPs.sh, so you can run it periodically.

You can also use a PHP-only solution to download the ip-list from stopforumspam. To do so check the PHP script available here.

If you do this and you use APC cache for caching, you may need to increase apc.shm_size in your php.ini to accommodate such a large list.

You have just banned one hundred forty thousand spammers, all hopefully without any disruptive effect on your legitimate users, and said «adieu» to a lot of the worst of the known spammers on the Internet. Good riddance! That should make things a wee bit quieter, at least for a while…

Honeypots, DNS BL's and HTTP BL's
140,000 dead spammers. Not bad, but any proper BOFH at this point would be bored and eagerly looking for the 140,001st spam IP to randomly block. And why not?

Fortunately, dynamically-updated lists of spambots, open proxies and other problem IP's are widely available. Many also allow usernames or e-mail addresses (for logged-in users) to be automatically checked against the same blacklists.

One form of blacklist which may be familiar to MediaWiki administrators is the DNS BL. Hosted on a domain name server, a DNS blacklist is a database of IP addresses. An address lookup determines if an IP attempting to register or edit is an already-known source of net abuse.

The and  options in MediaWiki provide a primitive example of access to a DNS blacklist. Set  in LocalSettings.php and IP addresses listed as HTTP spam are blocked.

The DNS blacklist operates as follows:
 * A wiki gets an edit or new-user registration request from some random IP address (for example, in the format '123.45.67.89')
 * The four IP address bytes are placed into reverse order, then followed by the name of the desired DNS blacklist server
 * The resulting address is requested from the domain name server (in this example, '89.67.45.123.zen.spamhaus.org.' and '89.67.45.123.dnsbl.tornevall.org.')
 * The server returns not found (NXDOMAIN) if the address is not on the blacklist. If is on either blacklist, the edit is blocked.

The lookup in an externally-hosted blacklist typically adds no more than a few seconds to the time taken to save an edit. Unlike settings, which must be loaded on each page read or write, the use of the DNS blacklist only takes place during registration or page edits. This leaves the speed at which the system can service page read requests (the bulk of your traffic) unaffected.

While the original SORBS was primarily intended for dealing with open web proxies and e-mail spam, there are other lists specific to web spam (forums, blog comments, wiki edits) which therefore may be more suitable:
 * .opm.tornevall.org. operates in a very similar manner to SORBS DNSBL, but targets open proxies and web-form spamming. Much of its content is consolidated from other existing lists of abusive IP's.
 * .dnsbl.httpbl.org. specifically targets 'bots which harvest e-mail addresses from web pages for bulk mail lists, leave comment spam or attempt to steal passwords using dictionary attacks. It requires the user register with projecthoneypot.org for a 12-character API key. If this key (for example) were 'myapitestkey', a lookup which would otherwise look like '89.67.45.123.http.dnsbl.sorbs.net.' or '89.67.45.123.opm.tornevall.org.' would need to be 'myapitestkey.89.67.45.123.dnsbl.httpbl.org.'
 * Web-based blacklists can identify spammer's e-mail addresses and user information beyond a simple IP address, but there is no standard format for the reply from an HTTP blacklist server. For instance, a request for http://botscout.com/test/?ip=123.45.67.89 would return "Y|IP|4" if the address is blacklisted ('N' or blank if OK), while a web request for http://www.stopforumspam.com/api?ip=123.45.67.89 would return "ip yes  2009-04-16 23:11:19  41" if the address is blacklisted (the time, date and count can be ignored) or blank if the address is good.

With no one standard format by which a blacklist server responds to an enquiry, no built-in support for most on-line lists of known spambots exists in the stock MediaWiki package. The inability to specify more than one blacklist server further limits the usefulness of the built-in and   options. Since 58061, MediaWiki has been able to check multiple DNSBLs by defining  as an array.

Most blacklist operators provide very limited software support (often targeted to non-wiki applications, such as phpBB or Wordpress). As the same spambots create similar problems on most open-content websites, the worst offenders attacking MediaWiki sites will also be busily targeting thousands of non-wiki sites with spam in blog comments, forum posts and guestbook entries.

Automatic query of multiple blacklist sites is therefore already in widespread use protecting various other forms of open-content sites and the spambot names, ranks and IP addresses are by now already all too well known. A relatively small number of spambots appear to be behind a large percentage of the overall problem. Even where admins take no prisoners, a pattern where the same spambot IP which posted linkspam to the wiki a second ago is spamming blog comments somewhere else now and will be spamming forum posts a few seconds from now on a site half a world away has been duly noted. One shared external blacklist entry can silence one problematic 'bot from posting on thousands of sites.

This greatly reduces the number of individual IP's which need to be manually blocked, one wiki and one forum at a time, by local administrators.

But what's this about honeypots?
Some anti-spam sites, such as projecthoneypot.org, provide code which you are invited to include in your own website pages.

Typically, the pages contain one or more unique, randomised and hidden e-mail addresses or links, intended not for your human visitors but for spambots. Each time the page is served, the embedded addresses are automatically changed, allowing individual pieces of spam to be directly and conclusively matched to the IP address of bots which harvested the addresses from your sites. The IP address which the bot used to view your site is automatically submitted to the operators of the blacklist service. Often a link to a fake 'comment' or 'guest book' is also hidden as a trap to bots which post spam to web forms. See Honeypot (computing).

Once the address of the spammer is known, it is added to the blacklists (see above) so that you and others will in future have one less unwanted robotic visitor to your sites.

While honeypot scripts and blacklist servers can automate much of the task of identifying and dealing with spambot IPs, most blacklist sites do provide links to web pages on which one can manually search for information about an IP address or report an abusive IP as a spambot. It may be advisable to include some of these links on the special:blockip pages of your wiki for the convenience of your site's administrators.

More lists of proxy and spambot IPs
Typically, feeding the address of any bot or open proxy into a search engine will return many lists on which these abusive IP's have already been reported.

In some cases, the lists will be part of anti-spam sites, in others a site advocating the use of open proxies will list not only the proxy which has been being abused to spam your wiki installation but hundreds of other proxies like it which are also open for abuse.

While any plain-text lists of open proxies must still be imported into your wiki manually, may be configured as an automated script to query any of the following databases:

It is also possible to block wiki registrations from anonymised sources such as Tor proxies (Tor Project - torproject.org), from bugmenot users or from e-mail addresses (listed by undisposable.net) intended solely for one-time use.
 * 1) fSpamlist - fspamlist.com
 * 2) StopForumSpam - stopforumspam.com
 * 3) Sorbs - sorbs.net
 * 4) Spamhaus - spamhaus.org
 * 5) SpamCop - spamcop.net
 * 6) ProjectHoneyPot - projecthoneypot.org
 * 7) Bot Scout - botscout.com
 * 8) DroneBL - dronebl.org
 * 9) AHBL - ahbl.org
 * 10) s5h spam - all.s5h.net

See also Blacklists Compared - 1 March 2008 and spamfaq.net for lists of blacklists. Do keep in mind that lists intended for spam e-mail abatement will generate many false positives if installed to block comment spam on wikis or other web forms. Automated use of a list that blacklists all known dynamic user IP address blocks, for instance, could render your wiki all but unusable.

To link to IP blacklist sites from the Special:Blockip page of your wiki (as a convenience to admins wishing to manually check if a problem address is an already-known 'bot):

This will add an invitation to "check this IP at: Domain Tools, OpenRBL, Project Honeypot, Spam Cop, Spamhaus, Stop Forum Spam" to the page from which admins ask to block an IP. An IP address is sufficient information to make comments on Project Honeypot against spambots, Stop Forum Spam is less suited to reporting anon-IP problems as it requires username, IP and e-mail under which a problem 'bot is attempting to register on your sites. The policies and capabilities of other blacklist-related websites may vary.
 * 1) Add one line to LocalSettings.php to set:
 * 2) Add the following text in MediaWiki:Blockiptext to display: " Check this IP at Domain Tools, OpenRBL, Project Honeypot, Spam Cop, Spamhaus, Stop Forum Spam. "

Note that blocking the address of the spambot posting to your site is not the same as blocking the URL's of specific external links being spammed in the edited text. Do both. Both approaches used in combination, as a means to supplement (but not replace) other anti-spam tools such as title or username blacklists and tests which attempt to determine whether an edit is made by a human or a robot (captcha, bad behaviour or akismet) can be a very effective means to separate spambots from real, live human visitors.

If spam has won the battle
You can still win the war! MediaWiki offers you the tools to do so; just consolidate your positions until you're ready to attack again. See and in particular Cleaning up, Restrict editing.

See External links for other tools without MediaWiki support.

Other ideas
This page lists features which are currently included, or available as patches, but on the discussion page you will find many other ideas for anti-spam features which could be added to MediaWiki, or which are under development.

Extensions

 * &mdash; allows edit prevention and blocking based on a variety of criteria
 * A slimmed down can be used to moderate new user registrations, (doesn't require captchas).
 * &mdash; allows, among other things, the checking of the underlying IP addresses of account spammers to block them. Allows mass-blocking of spammers from similar locations.
 * &mdash; allows basic blocking of edits containing spam domains with a single regex
 * &mdash; allows for checking edits against the StopForumSpam service and allows for submitting data back to it when blocking users.
 * Category:Spam management extensions &mdash; category exhaustively listing spam management extensions
 * &mdash; don't show edits to normal users until approved by a moderator. This extension has the advantage that spam links are never shown to the public, so not creating incentive to post spam.
 * Category:Spam management extensions &mdash; category exhaustively listing spam management extensions
 * &mdash; don't show edits to normal users until approved by a moderator. This extension has the advantage that spam links are never shown to the public, so not creating incentive to post spam.

Useful only on some wiki farms:

Commercial services:

Bundled in the installer
The standard tarball available for download now contains most of the main anti-spam extensions, including the following:


 * &mdash; adds various types of CAPTCHAs to your wiki
 * &mdash; CAPTCHA based on answering questions
 * &mdash; removes all contributions by a user or IP
 * &mdash; prevents edits containing spam domains, list is editable on-wiki by privileged users