Manuel:$wgDefaultRobotPolicy

From MediaWiki.org
Jump to navigation Jump to search
This page is a translated version of the page Manual:$wgDefaultRobotPolicy and the translation is 31% complete.

Other languages:
Deutsch • ‎English • ‎Lëtzebuergesch • ‎dansk • ‎español • ‎français • ‎italiano • ‎polski • ‎português • ‎português do Brasil • ‎русский • ‎العربية • ‎മലയാളം • ‎日本語
Stratégie d'indexation: $wgDefaultRobotPolicy
Allows specifying the default robot policy for all pages on the wiki
Introduit dans la version :1.12.0 (r30602)
Retiré dans la version :Encore utilisé
Valeurs autorisées :(text string appropriate for a "robots" meta tag)
Valeur par défaut :'index,follow'
Autres paramètres : Alphabétique | Par Fonction

Détails

Allows specifying the default robot policy for all pages on the wiki. The default is to encourage indexing and following of links. This can be overridden on a per-namespace and/or per-article basis.

e.g.

$wgDefaultRobotPolicy = 'noindex,nofollow';
$wgNamespaceRobotPolicies = array( NS_MAIN => 'index,follow' );

would forbid indexing and following of links on all pages outside the main namespace.

Voir aussi

External link

Robot policy Fichiers: robots.txt
Attributes: nofollow noindex
Éléments de configuration: $wgArticleRobotPolicies $wgDefaultRobotPolicy $wgExemptFromUserRobotsControl $wgNamespaceRobotPolicies