Extension:SpamBlacklist/es

La extensión SpamBlacklist previene ediciones que contienen direcciones URL, en las que el dominio se iguala a expresiones regulares definidas en listas especificadas o páginas wiki, que son registradas por usuarios usando una dirección de correo electrónico especificada

Cuando alguien intenta guardar una página o edición, esta extensión analiza el texto frente a una lista ilegal de nombres de host (potencialmente muy larga). Si hay una coincidencia, la extensión muestra un mensaje de error al usuario y le impide guardar la página.

Estableciendo la lista de bloqueo
Las siguientes páginas locales son usadas siempre, están listadas sin importar otras fuentes adicionales:
 * MediaWiki:Spam-blacklist
 * MediaWiki:Spam-whitelist
 * MediaWiki:Email-blacklist
 * MediaWiki:Email-whitelist

La procedencia por defecto para una lista adicional de bloqueo de URLs prohibidas, es la spam block list de Wikimedia en Meta-Wiki, en m:Spam block list. Por defecto, la extensión utiliza esta lista y se actualiza cada 10 a 15 minutos. Para muchas wikis, usar esta lista es suficiente para bloquear la mayoría de intentos de spam. Sin embargo, desde que la lista negra de Wikimedia es usada por un grupo diverso de grandes wikis con cientos de miles de enlaces externos, es relativamente conservador con los enlaces que bloquea.

La lista negra de spam de Wikimedia puede ser editada por administradores; pero tú puedes sugerir modificaciones la lista negra en m:Talk:Spam blacklist.

Puedes añadir otra mala URL en tu propia wiki. Colócala en la lista global variable  en. Observa algunos ejemplos abajo.

es un arreglo de dos niveles. La llave de nivel superior es  o. Ellas toman un arreglo con cada valor que puede contener una URL, un archivo o una ubicación de base de datos.

Si utilizas  en "LocalSettings.php", el valor por defecto de " Spam blacklist " ya no será utilizado. Si tu quieres esa lista de bloqueo para acceder, tendrás que añadirla manualmente, observa los ejemplos abajo.

Especificando una ubicación de base de datos te permite configurar la lista de bloqueo desde una página en tu wiki.

El formato del especificador de ubicación de la base de datos es ">DB: [db name] [title]". Esta [db name] debería emparejar exactamente el valor de  en. Tu deberías crear el nombre de la página requerido en [title] en el namespace por defecto de tu wiki. Si haces esto, te recomendamos fuertemente que protejas la página de ediciones en general. Además del peligro obvio en el que alguien puede añadir una expresión regular que empareje todo, ten en cuenta que un atacante con la capacidad de introducir expresiones regulares arbitrarias puede ser capaz de generar segfaults en la biblioteca PCRE.

Ejemplos
Si tu quieres, en cambio, usa la lista de bloqueo de spam de Wikipedia en inglés en adición a la lista estándar de Meta-wiki. Podrías llamar a la siguiente en, DESPUÉS de la llamada de :

Here is an example of an entirely local set of block lists: the administrator is using the to generate a local file called "wikimedia_blacklist" that holds a copy of the Meta-Wiki blacklist, and has an additional block list on the wiki page "My spam block list":

Logging
By default, the extension does not log hits into the spam blacklist log. To enable logging set. You can use the  user right to control access to the logs. Every signed-in user can view the logs by default.

Backtrack Limit
If you encounter issues with the block list, you may want to increase the backtrack limit. However on the other hand, this can reduce your security against DOS attacks, as the backtrack limit is a performance limit:

Hardened Wikis
The SpamBlacklist will not allow editing if the wiki is hardened. Hardening includes limiting  so that   is not on-path, and setting   in.

In the hardened case, SpamBlacklist will cause an exception when Guzzle attempts to make a network request. The Guzzle exception message is, GuzzleHttp requires cURL, the allow_url_fopen ini setting, or a custom HTTP handler.

User Filtering
The SpamBlacklist will filter all users by default, including Sysops, administrators and bots. Also see Phabricator issue T36928.

Lista blanca
Se puede mantener una lista blanca correspondiente editando la página MediaWiki:Spam-whitelist. Esto es útil si deseas invalidar algunas entradas de la lista negra de otra wiki que estés usando. Las wikis de Wikimedia, en cambio, algunas veces usan la spam blacklist para otros propósitos, como combatir el spam.

It is questionable how effective the Wikimedia spam block lists are at keeping spam off of third-party wikis. Some spam might be targeted only at Wikimedia wikis, or only at third-party wikis, which would make Wikimedia's blacklist of little help to said third-party wikis in those cases. Also, some third-party wikis might prefer that users be allowed to cite sources that are not considered reliable on Wikipedia, or that Wikipedia has considered so ideologically offensive as to warrant blocking. Sometimes what one wiki considers useless spam, another wiki might consider useful.

Users may not always realize that, when a link is rejected as spammy, it does not necessarily mean that the individual wiki they are editing has specifically chosen to ban that URL. Therefore, wiki system administrators may want to edit the at MediaWiki:Spamprotectiontext and/or MediaWiki:Spamprotectionmatch on your wiki to invite users to make suggestions at MediaWiki talk:Spam-whitelist for pages that should be added by a  to the safe list. For example, you could put, for MediaWiki:Spamprotectiontext:


 * The text you wanted to save was blocked by the spam filter. This is probably caused by a link to a blacklisted external site. maintains its own block list ; however, most blocking is done by means of Meta-Wiki's block list, so this block should not necessarily be construed as an indication that  made a decision to block this particular text (or URL). If you would like this text (or URL) to be added to the local spam safe list , so that  users will not be blocked from adding it to pages, please make a request at MediaWiki talk:Spam-whitelist . A sysop will then respond on that page with a decision as to whether it should be listed as safe.

Notas

 * Esta extensión examina solamente los enlaces externos nuevos añadidos por editores del wiki. Para comprobar los agentes de usuarios, añada la extensión Bad Behaviour o Akismet. Así como las diferentes herramientas para combatir el spam en MediaWiki, use diferentes métodos para detectar abuso, los salvavidas son los mejores en combinación.
 * La lista de actualización de script Extension:SpamBlacklist/update script, es un script cron que puede automatizar las actualizaciones de las listas de bloqueo compartidas. Si estás usando memcached, también tienes que borrar la key   (por ejemplo, usando  ).
 * No hay posibilidad de permitir que algunos usuarios invaliden la lista negra de spam. Véase 34928.

Sintaxis de la lista negra
Si deseas crear una lista negra personalizada o modificar una lista negra existente, aquí está la sintaxis:

Todo lo que aparezca en una línea después del carácter «#» se ignora (se usa para comentarios). Cualquier otra cadena de texto se interpretará como un fragmento de expresión regular que solamente se evaluará contra direcciones URL.


 * Notas:


 * No añadas «http://». Esto provocaría un error, ya que la expresión regular solamente se evaluará después del «http://» (o «https://») en cada URL.
 * Además, «www» tampoco hace falta, ya que la expresión regular se evaluará contra cualquier subdominio. Al indicar explícitamente «www\.», se puede evaluar contra subdominios específicos.
 * Los anclajes  y   coinciden con el principio y el final del nombre del dominio, no al principio y al final de la URL. El anclaje regular   no tiene ningún uso.
 * No hace falta evitar las barras con barras invertidas. Esto lo hace automáticamente el script.


 * Ejemplo:

La siguiente línea bloqueará todas las URLs que contengan la cadena "example.com", excepto en donde es inmediatamente precedido o seguido por una letra o un número.

\bexample\.com\b

Estas están bloqueadas:

These are not blocked:
 * http://www.example.com
 * http://www.this-example.com
 * http://www.google.de/search?q=example.com
 * http://www.goodexample.com
 * http://www.google.de/search?q=example.commodity

Comportamiento
La extensión crea una sola expresión regular similar a  (donde todas las barras diagonales dentro de las líneas están evitadas automáticamente). La almacena en un pequeño fichero llamado «loader» para evitar cargar todo el código cada vez que se visita una página. El desempeño visual de la página no se verá afectada incluso si no estas usando un caché bytecode, aunque usar caché es muy recomendado para cualquier instalación MediaWiki.

La expresión regular en sí generalmente añade una cabecera insignificante para guardar páginas (en el orden de unos 100ms en nuestra experiencia). Sin embargo, cargando el archivo de spam desde nuestro disco o base de datos y construyendo las expresiones regulares, puede tomarte una cantidad significativa de tiempo dependiendo de tu equipo. Si te parece que habilitando esta extensión los guardades se tardan excesivamente, trata installando un caché bytecode que lo soporte. Esta extensión guardará en caché las expresiones regulares construidas si dicho sistema está presente.

If you're sharing a server and cache with several wikis, you may improve your cache performance by modifying getSharedBlacklists and clearCache in SpamBlacklist_body.php to use (or a specific DB if you do not have a shared upload DB) rather than. Be sure to get all references! The regexes from the separate MediaWiki:Spam-blacklist and MediaWiki:Spam-whitelist pages on each wiki will still be applied.

Servidores externos de listas negras (RBL)
In its standard form, this extension requires that the block list be constructed manually. While regular expression wildcards are permitted, and a block list originated on one wiki may be re-used by many others, there is still some effort required to add new patterns in response to spam or remove patterns which generate false-positives.

Much of this effort may be reduced by supplementing the spam regex with lists of known domains advertised in spam email. The regex will catch common patterns (like "casino-" or "-viagra") while the external block list server will automatically update with names of specific sites being promoted through spam.

In the filter function in SpamBlacklist_body.php, approximately halfway between the file start and end, are the lines:

Directly above this section (which does the actual regex test on the extracted links), one could add additional code to check the external RBL servers:

This ensures that, if an edit contains URLs from already blocked spam domains, an error is returned to the user indicating which link cannot be saved due to its appearance on an external spam block list. If nothing is found, the remaining regex tests are allowed to run normally, so that any manually-specified 'suspicious pattern' in the URL may be identified and blocked.

Note that the RBL servers list just the base domain names - not the full URL path - so http://example.com/casino-viagra-lottery.html will trigger RBL only if "example.com" itself were blocked by name by the external server. The regex, however, would be able to block on any of the text in the URL and path, from "example" to "lottery" and everything in between. Both approaches carry some risk of false-positives - the regex because of the use of wildcard expressions, and the external RBL as these servers are often created for other purposes - such as control of abusive spam email - and may include domains which are not engaged in forum, wiki, blog or guestbook comment spam per se.

Otras herramientas antispam
Hay varios manuales útiles en mediawiki.org para combatir el spam y otros vandalismos:


 * - includes link to the built-in anti-spam mechanism.

Otras extensiones antispam y antivandalismo incluyen:


 * System messages
 * System messages
 * System messages

Véase también

 * Listas negras compatibles (esta es solo una pequeña muestra, hay muchísimas más)
 * Meta-wiki block list


 * Otros recursos
 * and.
 * and.