Manual:Combating spam/fr

Comme tous les sites Web dynamiques actuels, les wikis constituent une cible courante pour les spammeurs souhaitant promouvoir des produits ou des sites Web. MediaWiki propose un certain nombre de fonctionnalités conçues pour lutter contre le vandalisme en général. Sur cette page nous traitons particulièrement du vandalisme dans les wikis, qui est souvent automatisé.

Résumé
Les outils couramment utilisés pour lutter contre le spam de wikis appartiennent généralement aux catégories suivantes:


 * Nécessité d'une connexion et/ou un CAPTCHA pour certaines opérations, telles que des modifications, l'ajout de liens externes ou la création d'un nouvel utilisateur.
 * Blocage des modifications des adresses IP connues figurant sur la liste noire ou des adresses IP exécutant des serveurs mandataires (proxys) ouverts
 * Blocage des modifications servant ajouter des mots-clés ou des liens externes spécifiques non désirés
 * Blocage de modèles de nom d'utilisateur et de titre de page spécifiques couramment utilisés par les robots spammeurs
 * Blocage des modifications apportées par de nouveaux utilisateurs ou anonymes à des pages spécifiques souvent ciblées
 * Mise en liste blanche des contributeurs reconnus pour leur bonne foi (tels que les administrateurs ou les contributeurs réguliers) et restrictions imposées aux contributeurs nouveaux ou anonymes.
 * Nettoyer les scripts ou les suppressions en masse des billets existants réalisés par les robots spammeurs récents.

Normalement on utilise une combinaison des différentes méthodes pour maintenir le spam et les modifications faites par robot et proxy ouverts, à un niveau minimal, afin de limiter le nombre de détections signalées sur des utilisateurs tout à fait légitimes du site.

Notez que beaucoup de ces fonctionnalités ne sont pas activées par défaut. Si vous faites l'installation de MediaWiki sur votre serveur ou votre hôte, alors c'est vous seul qui pouvez faire les modifications nécessaires de la configuration. Par tous les moyens, demandez à vos utilisateurs de vous aider en surveillant le spam du wiki (faites-le aussi vous-même); les spams actuels peuvent atteindre facilement même les plus petites communautés. Cela permet de monter un peu la barre. Notez-bien qu'aucune de ces solutions ne vous garantit d'être débarassé du spam à 100%. Il est utile de vérifier régulièrement  (Special:RecentChanges).



Solutions de test rapide à essayer d'abord
Combattre le vandalisme ne devrait pas être difficile. Si vous souhaitez réduire le vandalisme rapidement et de manière drastique, essayez d'abord ces quelques étapes.


 * Installer l'extension StopForumSpam pour bloquer les adresses IP des spammeurs.
 * Installer et configurer les extensions antivandalisme (déja présentes dans l'archive pour les dernières versions), en particulier.
 * Configurer QuestyCaptcha et mettre à jour les paramètres par défaut si nécessaire pour votre wiki.
 * L'activation de, peut être utilisée pour bloquer les proxy ouverts, les noeuds de sortie Tor ou les VPNs sur les actions spécifiques telles que la modification des pages ou la création de compte.

Si vous rencontrez encore des difficultés, lisez le reste de cette page pour envisager d'autres solutions et postez un message sur mediawiki-l pour obtenir de l'aide.



Les CAPTCHAs
L'une des méthodes les plus communes pour refuser les soumissions automatiques est d'utiliser un CAPTCHA, c'est à dire un système qui essaie de faire la différence entre les humains et les automates, en demandant à l'utilisateur de résoudre une tâche difficile pour les machines. L'extension pour MediaWiki fournit un environnement CAPTCHA extensible pouvant être dirigé par un certain nombre d'événements dont :


 * toutes les modifications
 * les modifications qui ajoutent de nouveaux liens non reconnus
 * l'inscription des utilisateurs

L'extension est livrée avec un test par défaut; c'est une préférence d'implémentation mais qui n'est pas prévue pour être en production. Nous conseillons aux opérateurs qui installent ConfirmEdit sur un wiki public d'utiliser un des modules CAPTCHA contenu dans l'extension (il y en a cinq au total).

Les CAPTCHAs les plus robustes actuellement disponibles sont vos questions personnalisées QuestyCaptcha, si vous les adaptez rigoureusement à l'audience de votre wiki et les mettez à jour régulièrement. Aujourd'hui, ReCaptcha est déjoué par la plupart des spammeurs ; le CAPTCHA Asirra qui demande à l'utilisateur de distinguer des chats et des chiens est particulièrement odieux aux utilisateurs mais peut être efficace.

Il est important de noter que les CAPTCHAs peuvent bloquer bien plus que des robots indésirables : quand un script ne peut pas résoudre un CAPTCHA, comme dans le cas d'un lecteur d'écran, ou autre logiciel ou aide utilisée par les personnes aveugles ou aux facultés visuelles ammoindries. Une des options des CAPTCHA, le widget reCAPTCHA, comprend une alternative audio du CAPTCHA couvrant ces cas - mais certains utilisateurs d'ordinateur échouent aux tests d'audition et aux tests de lecture, donc ceci n'est pas non plus une solution complète. Vous devez prendre en compte les implications d'une telle barrière, et fournir éventuellement des moyens alternatifs aux utilisateurs concernés qui créent des comptes et contribuent, ce qui est une demande légale dans cetaines jurisdictions.

Cela ne rendra pas pour autant votre wiki exempt de tout spam; selon Wikipedia « Les spammeurs paient environ 0.8$ à 1.2$ pour 1,000 CAPTCHAs résolus aux compagnies employant des résolveurs humains au Bangladesh, Chine, Inde, et beaucoup d'autres nations en développement. » Pour cette raison elle doit être combinée avec d'autres mécanismes.

rel="nofollow"
Dans la configuration par défaut, MediaWiki ajoute  aux liens externes des pages wiki, pour indiquer qu'ils sont fournis par l'utilisateur, qu'ils peuvent contenir du spam, et que par conséquent ils ne doivent pas être utilisés pour influencer les algorithmes de classement des pages. Les moteurs de recherche populaires tels que Google satisfont à cet attribut.

Vous pouvez désactiver ce comportement sur l'ensemble du site en utilisant, ou sur tout un espace de noms donné en utilisant la variable de configuration.

Use of the  attribute alone will not stop spammers attempting to add marketing to a page, but it will at least prevent them from benefiting through increased page rank; we know for sure that some check this. Nonetheless, it should never be relied upon as the primary method of controlling spam as its effectiveness is inherently limited. It does not keep spam off your site.

See NoIndexHistory. Note that putting it on all external links is a rather heavy handed anti-spam tactic, which you may decide not to use (switch off the rel=nofollow option). See Nofollow for a debate about this. It's good to have this as the installation default though. It means lazy administrators who are not thinking about spam problems, will tend to have this option enabled. For more information, see Manual:Costs and benefits of using nofollow.



Routines antispam : les mesures adaptées
Chaque spammeur est différent bien qu'ils soient tous semblables de façon ennuyeuse. Si les contre-mesures générales ne sont pas suffisantes et avant de passer aux étapes extrêmes, utilisez les outils permetant de traiter les problèmes spécifiques qui se présentent.



Protection individuelle des pages
Souvent c'est la même page qui est attaquée de manière répétée par les robots spammeurs. Des motifs communs observés dans les noms des pages créées par les robots spammeurs comprennent les pages de discussion, souvent externes à l'espace main: (par exemple 'Category_talk:' est peu utilisé, et donc fait des cibles communes), et les autres pages de discussion

Comme la plupart des modifications abusives sur les wikis qui ne nécessitent pas d'enregistrement pour modifier, sont faites par des sources anonymes, le blocage des modifications de ces pages spécifiques par tout utilisateur autre que les utilisateurs établis, peut empêcher la recréation des pages spammées qui ont été supprimées. Typically, any page which is already a regular visitor to special:log/delete on an individual wiki is a good candidate for page protection.


 * Semi-protection of individual pages.
 * In addition, this can be combined with changing the minimum requirements for MediaWiki to identify users as 'autoconfirmed'.
 * One may apply cascading protection to one or more pages that have links to the most frequently spammed pages. One can also use this trick to set up a handy list for use by admins.



Filtre anti-abus
permet aux utilisateurs privilégiés de créer les règles pour cibler le type spécifique de spam reçu par votre wiki, et empêcher automatiquement l'action et / ou le blocage de l'utilisateur.

Il peut examiner plusieurs propriétés de la modification, telle que le nom d'utilisateur, son age, le texte ou les liens ajoutés, etc. Il est le plus efficace lorsque vous avez un ou plusieurs administrateurs expérimentés qui souhaitent vous aider à combattre le spam. Le filtre anti-abus peut être efficace même pour des spammeurs assistés par des humains, mais cela demande une maintenance continue pour répondre aux nouveaux types d'attaques.

donne des exemples sur la manière de combattre le vandalisme automatisé.

Liste noire des spammeurs
L'approche ci-dessus deviendra trop lourde si vous essayez de bloquer plus d'une poignée d'URL de spam. Une meilleure approche est d'utiliser une longue liste noire contenant les URLs connues pour générer du spam.

Une extension populaire pour MediaWiki est l'extension qui bloque les modifications qui ajoutent aux pages des URLs se trouvant en liste noire : elle permet de construire une telle liste sur le wiki avec l'assistance des utilisateurs privilégiés, et permet l'utilisation des listes récupérées à partir des sources externes (par défaut, elle utilise la liste noire extensive).

L'extension peut être également utile comme moyen pour empécher la recréation de groupes spécifiques de pages utilisés par les robots pour fournir les liens spammeurs.



Serveurs mandataires ouverts
Les proxy ouverts sont un danger particulièrement parce qu'ils sont utilisés comme mannière de contourner les contre-mesures ciblant des abuseurs spécifiques; voir aussi No open proxies.

Il existe certains robots tels ceux des wikis Wikimedia qui détectent et bloquent les adresses IP des proxy ouverts mais leur code est souvent non public. La plupart de tels blocages sont réalisés manuellement lorsque l'abus est signalé. Il est alors important de pouvoir dire si une adresse IP qui abuse correspond à un proxy ouvert ou a autre chose, pour décider du traitement à appliquer ; de plus, si l'adresse IP est celle d'un utilisateur enregistré, elle est récupérée avec l'extension.

Plusieurs extensions, particulièrement l'extension, bloquent un intervalle de proxy ouverts.

Depuis la 1.22, est disponible pour rendre les blocages plus efficaces.



Mesures du noyau
Les mesures suivantes concernent les administrateurs système plus avisés qui savent ce qu'ils font : elles sont plus difficiles à configurer proprement et à gérer; si elles sont mal implémentées elles peuvent s'avérer trop anciennes pour être encore efficaces, ou même être contre-productives pour votre wiki.

$wgSpamRegex
MediaWiki fournit, via le paramètre de configuration, un moyen pour filtrer le texte des modifications et bloquer les ajouts non souhaités. Vous pouvez utiliser ceci pour bloquer des parties de texte supplémentaires ou des balises associées fréquemment aux attaques de spam.

Typiquement ceci est utilisé pour exclure des URLs (ou des parties d'URL) que vous ne souhaitez pas rendre accessibles par les utilisateurs. Les utilisateurs reçoivent un message d'explication indiquant la partie refusée de leur modification. permet de modifier cette variable sur le wiki.

Ceci empêche toute mention de 'online-casino', 'buy-viagra', 'adipex' ou 'phentermine'. Le suffixe '/i' end la recherche insensible à la casse. Cela bloquera aussi les modifications qui essaient d'ajouter des éléments masqués ou en surnombre, ce qui est une pratique commune utilisée par beaucoup d'attaques en masse pour essayer de dissimuler les spammeurs des autres autilisateurs.



Modifications de la configuration Apache
En supplément de la modification des paramètres MediaWiki, si vous exécutez MediaWiki sous Apache, vous pouvez adapter également les paramètres de votre serveur web Apache pour vous aider à combattre le spam. Ces paramètres sont généralement soit placés dans votre fichier de configuration de votre hôte virtuel, ou dans un fichier appelé .htaccess au même emplacement que LocalSettings.php (notez que si vous avez un hôte web partagé, ils doivent activer AllowOverride pour vous permettre d'utiliser un fichier .htaccess).



Filtrage par agent utilisateur
Lorsque vous bloquez un spammeur sur votre wiki, regardez le journal des accès par adresse IP de votre site pour déterminer la chaîne de l'agent utilisateur soumise par cette adresse IP. Par exemple :



The access log location for your virtual host is generally set using the CustomLog directive. Once you find the accesses, you'll see some lines like this:

The user agent is the last quoted string on the line, in this case an empty string. Some spammers will use user agent strings used by real browsers, while others will use malformed or blank user agent strings. If they are in the latter category, you can block them by adding this to your .htaccess file (adapted from this page):

SetEnvIf User-Agent ^regular expression matching user agent string goes here$ spammer=yes

Order allow,deny allow from all deny from env=spammer

Ce qui renverra une erreur 403 Forbidden à toute adresse IP qui se connecte avec un agent utilisateur correspondant à l'expression régulière fournie. Veillez à bien échapper avec des anti-slash '\' tous les caractères nécessaires dans les expressions régulières de la chaîne de l'agent utilisateur, tels que. - Pour couvrir les agents utilisateurs mis à blanc, utilisez simplement use « ^$ ».

Même si la chaîne de l'agent utilisateur du spammeur est utilisée par les navigateurs réels, quand ils sont anciens ou rarement rencontrés vous pouvez utiliser les règles de réécriture pour rediriger les utilisateurs vers la page d'erreur, en les conseillant de mettre à jour leur navigateur :

RewriteCond %{HTTP_USER_AGENT} "Mozilla/5\.0 \(Windows; U; Windows NT 5\.1; en\-US; rv:1\.9\.0\.14\) Gecko/2009082707 Firefox/3\.0\.14 \(\.NET CLR 3\.5\.30729\)" RewriteCond %{REQUEST_URI} !^/forbidden/pleaseupgrade.html RewriteRule ^(.*)$ /forbidden/pleaseupgrade.html [L]



Empêcher des contrevenants bloqués d'utiliser des ressources
Un spammeur obstiné, ou avec un script en erreur, peut continuer à vandaliser votre wiki même après qu'il ait été bloqué et cela consomme des ressources inutilement. En ajoutant dans votre fichier, un pragma 'deny from' tel que le suivant, vous pouvez les empêcher de charger systématiquement les pages et renvoyer une erreur '403 Forbidden' à la place :

Order allow,deny allow from all deny from 195.230.18.188



Listes noires d'adresses IP
La plupart des spams les plus problématiques reçus sur les sites MediaWiki proviennent d'adresses connues depuis longtemps des autres webmasters, comme correspondant à des robots ou des sites de proxy ouverts, bien que cela ne soit qu'une évidence anectotique pour ceci. Ces robots génèrent typiquement un grand nombre d'enregistrements automatiques sur les sites de forum, de spams de commentaires dans les blogs et de vandalisme sur les pages des wikis : spam des liens le plus souvent, bien que le contenu existant soit quelques fois effacé, ou complété avec des caractères aléatoires quelconques ou modifié de sorte à casser le texte Unicode existant.

Un CAPTCHA relativement simple peut réduire le problème de manière significative mais aussi bloquer la création de certaines pages souvent vandalisées. Ces mesures n'éliminent pas complètement le problème néanmoins elles renforçent la sécurité de tous les utilisateurs au détriment parfois des contributeurs légitimes.

Il serait préférable, au lieu de s'en remettre uniquement à CAPTCHA ou aux autres précautions qui touchent tous les utilisateurs, de cibler particulièrement ces adresses IP déjà connues des autres maîtres de sites pour être le paradis du net.abuse. Plusieurs listes sont déjà disponibles, par exemple stopforumspam.com possède une liste de « Toutes les adresses IPs en CSV » qui (en février 2012) contient environ 200,000 adresses IPs de robots spammeurs connus.



Utilisation du CPU et surcharge
Notez-bien que lorsque plusieurs contrôles sont réaliés sur les tentatives de modification ou d'affichage de pages, les robots peuvent facilement surcharger votre wiki et l'interrompre plus que si la protection n'avait pas eu lieu. Soyez vigilent sur le coût des ressources utilisées pour vos protections.

DNSBL
Vous pouvez demander à ce que MediaWiki vérifie que chaque adresse IP qui fait des modifications soit comparée à une ou plusieurs listes noires basées sur les DNS (DNS-based blacklists - DNSBLs), ce qui ne demande pas de maintenance mais augmente sensiblement le délai de réponse. Par exemple vous pouvez ajouter cette ligne à votre fichier LocalSettings.php pour bloquer beaucoup de proxy ouverts et les spammeurs des forums :

For details of these DNSBLs, see Spamhaus: XBL and dnsbl.tornevall.org. For a list of DNSBLs, see Comparison of DNS blacklists. See also,.

$wgProxyList
Vous pouvez indiquer dans la variable une liste d'adresses IP à bannir. Ceci peut être rempli périodiquement à partir d'une source externe en utilisant un script lancé par cron tel que le suivant :

Puis déclarez dans votre LocalSettings.php :

Vous pouvez enregistrer ces commandes dans un fichier tel que, de sorte à pouvoir l'exécuter périodiquement.

Vous pouvez aussi choisir une solution pur PHP pour télécharger la liste des adresses IP à partir de stopforumspam. Pour faire cela voyez le script PHP disponible ici.

Si vous le faites et que vous utilisez en plus le cache APC, il est possible que vous deviez augmenter apc.shm_size dans php.ini pour accepter une liste aussi longue.

Vous avez simplement bloqué cent quarante mille spammeurs, nous l'espérons sans effet de bord négatif sur vos utilisateurs légitimes, et dit « adieu » à beaucoup des pires vandales connus de l'Internet. Bon débarras ! Ce qui devrait rendre la situation plus calme au moins pour un certain momment...



Pots de miel, DNS BLs et HTTP BLs
140 000 spammers ont été supprimés. Pas mal, mais tout opérateur BOFH un peu obsédé sera à ce point ennuyé et cherchera une 140 001e adresse IP de spammeur à bloquer au hasard. Et pourquoi pas ?

Heureusement les listes de robots spammeurs mises à jour automatiquement, les proxy ouverts et les adresses IP posant problème sont largement disponibles. Beaucoup permettent aussi que les noms d'utilisateurs ou les adresses courriel (pour les utilisateurs connectés) soient automatiquement vérifiés avec ces mêmes listes noires.

Une forme de liste noire familière aux administrateurs MediaWiki est la DNS BL. Une liste noire DNS est hébergée sur un serveur de noms de domaines et consiste en une base de données d'adresses IP. La recherche d'une adresse détermine si une adresse IP qui essaie de s'enregistrer ou de modifier est une source déjà connue d'abus sur le réseau.

Les options et  de MediaWiki fournissent un exemple de primitive pour accéder à la liste noire d'un DNS. Initialisez les paramètres suivants dans et les adresses IP listées comme spam HTTP sont bloquées :

La liste noire du DNS fonctionne ainsi :


 * Un wiki reçoit une demande de modification ou d'enregistrement d'un nouvel utilisateur pour une adresse IP aléatoire (par exemple, sous le format '123.45.67.89')
 * Les quatre octets de l'adresse IP sont placés dans l'ordre inverse, et sont suivi du nom du serveur DNS de liste noire désiré.
 * L'adresse résultante est demandée au serveur de noms de domaine (dans cet exemple,'89.67.45.123.zen.spamhaus.org.' et '89.67.45.123.dnsbl.tornevall.org.')
 * Le serveur renvoie 'not found (NXDOMAIN)' si l'adresse n'appartient pas à la liste noire. Si elle est dans l'une quelconque de ces listes, la modification est bloquée.

La vérification dans une liste noire hébergée extérieurement n'ajoute pas plus de quelques secondes au temps nécessaire à l'enregistrement de la modification. A la différence des paramètres, qui doivent être chargés à chaque lecture ou écriture de page, l'utilisation de la liste noire DNS ne se fait que lors de l'inscription ou de la modification des pages. Ceci ne change pas la vitesse à laquelle le système répond aux demandes de lecture des pages (c'est le principal de votre traffic).

While the original SORBS was primarily intended for dealing with open web proxies and email spam, there are other lists specific to web spam (forums, blog comments, wiki edits) which therefore may be more suitable:

La plupart de son contenu est consolidé avec d'autres listes existantes d'adresses IP. Elle nécessite que l'utilisateur soit enregistré avec projecthoneypot.org pour un clé d'API sur 12 caractères. If this key (for example) were 'myapitestkey', a lookup which would otherwise look like '89.67.45.123.http.dnsbl.sorbs.net.' or '89.67.45.123.opm.tornevall.org.' would need to be 'myapitestkey.89.67.45.123.dnsbl.httpbl.org.' For instance, a request for http://botscout.com/test/?ip=123.45.67.89 would return "Y|IP|4" if the address is blacklisted ('N' or blank if OK), while a web request for http://www.stopforumspam.com/api?ip=123.45.67.89 would return "ip yes  2009-04-16 23:11:19  41" if the address is blacklisted (the time, date and count can be ignored) or blank if the address is good.
 * .opm.tornevall.org. operates in a very similar manner to SORBS DNSBL, but targets open proxies and web-form spamming.
 * .dnsbl.httpbl.org. specifically targets 'bots which harvest email addresses from web pages for bulk mail lists, leave comment spam or attempt to steal passwords using dictionary attacks.
 * Web-based blacklists can identify spammer's email addresses and user information beyond a simple IP address, but there is no standard format for the reply from an HTTP blacklist server.

With no one standard format by which a blacklist server responds to an enquiry, no built-in support for most on-line lists of known spambots exists in the stock MediaWiki package. L'incapacité de pouvoir indiquer plusieurs serveurs de liste noire limite en plus l'utilité des options internes et. Depuis la 58061, MediaWiki peut vérifier de multiple DNSBLs si  est défini en tant que tableau.

La plupart des opérateurs de listes noires ne fournissent qu'un support très limité (souvent destiné aux applications non wiki telles que phpBB ou Wordpress). As the same spambots create similar problems on most open-content websites, the worst offenders attacking MediaWiki sites will also be busily targeting thousands of non-wiki sites with spam in blog comments, forum posts and guestbook entries.

Automatic query of multiple blacklist sites is therefore already in widespread use protecting various other forms of open-content sites and the spambot names, ranks and IP addresses are by now already all too well known. Finalement le pourcentage de robots spammeurs est relativement très faible par rapport au pourcentage général du problème. Even where admins take no prisoners, a pattern where the same spambot IP which posted linkspam to the wiki a second ago is spamming blog comments somewhere else now and will be spamming forum posts a few seconds from now on a site half a world away has been duly noted. Une seule entrée de la liste noire externe partagée peut faire taire un robot qui pose problème en adressant des milliers de sites.

Ceci réduit de beaucoup le nombre d'adresses IP individuelles devant être bloquées manuellement, un wiki et un forum à la fois, par les administrateurs locaux.



Mais qu'est-ce ceci par rapport aux pots de miel ?
Some anti-spam sites, such as projecthoneypot.org, provide code which you are invited to include in your own website pages.

Typiquement il s'agit de pages qui contiennent une ou plusieurs adresses courriels ou liens uniques, choisis au hasard et cachés, qui ne concernent pas les visiteurs humains mais faits pour les robots spammeurs. Each time the page is served, the embedded addresses are automatically changed, allowing individual pieces of spam to be directly and conclusively matched to the IP address of bots which harvested the addresses from your sites. L'adresse IP utilisée par le robot pour afficher votre site est automatiquement transmise aux opérateurs du service des listes noires. Often a link to a fake 'comment' or 'guest book' is also hidden as a trap to bots which post spam to web forms. Voir le Pot de miel (en informatique).

Dès que l'adresse du spammeur est connue, elle est ajoutée aux listes noires (voir ci-dessus) si bien que vous et les autres utilisateurs auront à l'avenir, un robot visiteur non désiré de moins sur vos sites.

While honeypot scripts and blacklist servers can automate much of the task of identifying and dealing with spambot IPs, most blacklist sites do provide links to web pages on which one can manually search for information about an IP address or report an abusive IP as a spambot. Il est conseillé d'inclure certains de ces liens dans les pages special:blockip de votre wiki pour en informer vos administrateurs de site.



Davantage de liste d'adresses IP de serveurs mandataires et de robots spammeurs
Typiquement en fournissant l'adresse de n'importe quel robot ou proxy ouvert à un moteur de recherche, on recevra plusieurs listes où figureront déjà ces adresses IP abusives.

In some cases, the lists will be part of anti-spam sites, in others a site advocating the use of open proxies will list not only the proxy which has been being abused to spam your wiki installation but hundreds of other proxies like it which are also open for abuse. It is also possible to block wiki registrations from anonymised sources such as Tor proxies (Tor Project - torproject.org), from bugmenot users or from email addresses (listed by undisposable.net) intended solely for one-time use.

Voir aussi la Comparaison des listes noires - 1er mars 2008 et spamfaq.net pour les listes noires elles-mêmes. Do keep in mind that lists intended for spam email abatement will generate many false positives if installed to block comment spam on wikis or other web forms. Automated use of a list that blacklists all known dynamic user IP address blocks, for instance, could render your wiki all but unusable.

To link to IP blacklist sites from the Special:Blockip page of your wiki (as a convenience to admins wishing to manually check if a problem address is an already-known 'bot):


 * 1) Ajoutez une ligne à  pour définir :
 * 2) Ajouter le texte suivant dans MediaWiki:Blockiptext pour l'afficher : " "

This will add an invitation to "check this IP at: Domain Tools, OpenRBL, Project Honeypot, Spam Cop, Spamhaus, Stop Forum Spam" to the page from which admins ask to block an IP. An IP address is sufficient information to make comments on Project Honeypot against spambots, Stop Forum Spam is less suited to reporting anon-IP problems as it requires username, IP and email under which a problem 'bot is attempting to register on your sites. Les politiques et les possibilités des autres sites web relatifs aux listes noires peuvent être différentes.

Notez-bien que bloquer l'adresse du robot spammeur qui vous attaque n'est pas la même chose que bloquer les URLs des liens externes spécifiques étant vandalisés dans le texte modifié. Faites les deux. Both approaches used in combination, as a means to supplement (but not replace) other anti-spam tools such as title or username blacklists and tests which attempt to determine whether an edit is made by a human or a robot (captchas or akismet) can be a very effective means to separate spambots from real, live human visitors.



Et si le vandale gagnait la bataille ?
You can still win the war! MediaWiki offers you the tools to do so; just consolidate your positions until you're ready to attack again. Voir et en particulier les sections Nettoyage et Restreindre les modifications.

Voir la section des Liens externes pour d'autres outils mais ils n'ont pas leur support dans MediaWiki.

<span id="Other_ideas">

Autres idées
This page lists features which are currently included, or available as patches, but on the discussion page you will find many other ideas for anti-spam features which could be added to MediaWiki, or which are under development.

<span id="See_also">

Voir aussi

 * Manual:Combating vandalism contains more general advice
 * Manual:Preventing access
 * Manual:User rights
 * Spam Filter
 * A message on our mailing list of a successful setup avoiding spam and allow editing to non-registered users.

Extensions

 * &mdash; allows edit prevention and blocking based on a variety of criteria
 * A slimmed down can be used to moderate new user registrations, (doesn't require captchas).
 * &mdash; allows, among other things, the checking of the underlying IP addresses of account spammers to block them. Allows mass-blocking of spammers from similar locations.
 * &mdash; allows basic blocking of edits containing spam domains with a single regex
 * &mdash; allows for checking edits against the StopForumSpam service and allows for submitting data back to it when blocking users.
 * Category:Spam management extensions &mdash; category exhaustively listing spam management extensions
 * &mdash; don't show edits to normal users until approved by a moderator. This extension has the advantage that spam links are never shown to the public, so not creating incentive to post spam.
 * &mdash; don't show edits to normal users until approved by a moderator. This extension has the advantage that spam links are never shown to the public, so not creating incentive to post spam.

Useful only on some wiki farms:

Commercial services: <span id="Bundled_in_the_installer">

Fournies avec l'installateur
Dorénavant les archives tar disponibles au Téléchargement contiennent la plupart des extensions principales anti-spammeurs entre autres les suivantes :


 * &mdash; adds various types of CAPTCHAs to your wiki
 * &mdash; CAPTCHA based on answering questions
 * &mdash; removes all contributions by a user or IP
 * &mdash; prevents edits containing spam domains, list is editable on-wiki by privileged users

Paramètres


<span id="External_links">

Liens externes

 * Some pywikipediabot scripts to aid in vandalism-fighting.