Podręcznik:$wgDefaultRobotPolicy

From MediaWiki.org
Jump to navigation Jump to search
This page is a translated version of the page Manual:$wgDefaultRobotPolicy and the translation is 100% complete.

Other languages:
العربية • ‎dansk • ‎Deutsch • ‎English • ‎español • ‎français • ‎italiano • ‎日本語 • ‎Lëtzebuergesch • ‎മലയാളം • ‎polski • ‎português • ‎português do Brasil • ‎русский
Polityka robotów: $wgDefaultRobotPolicy
Pozwala na określenie domyślnej polityki robotów dla wszystkich stron na wiki
Wprowadzono w wersji: 1.12.0 (r30602)
Usunięto w wersji: nadal w użyciu
Dozwolone wartości: (ciąg tekstowy odpowiedni dla znacznika meta "robots")
Domyślna wartość: 'index,follow'

Inne ustawienia: Alfabetycznie | Według funkcji

Szczegóły

Pozwala na określenie domyślnej polityki robotów dla wszystkich stron na wiki. Domyślnie zachęca roboty do indeksowania oraz śledzenia linków. Może zostać nadpisane indywidualnie dla poszczególnych przestrzeni nazw i/lub artykułów.

np.

$wgDefaultRobotPolicy = 'noindex,nofollow';
$wgNamespaceRobotPolicies = array( NS_MAIN => 'index,follow' );

zabroni indeksowania i śledzenia linków na wszystkich stronach z poza głównej przestrzeni nazw.

Zobacz też

Link zewnętrzny

Podręcznik:Polityka robotówManual:Robot policy Pliki: robots.txtManual:Robots.txt
Attributes: nofollowManual:NofollownoindexManual:Noindex
Ustawienia konfiguracyjne: $wgArticleRobotPoliciesManual:$wgArticleRobotPolicies$wgDefaultRobotPolicyManual:$wgDefaultRobotPolicy$wgExemptFromUserRobotsControlManual:$wgExemptFromUserRobotsControl$wgNamespaceRobotPoliciesManual:$wgNamespaceRobotPolicies