Apache configuration/de

Apache ist der wahrscheinlich am weit verbreiteste Webserver in Zusammenhang mit MediaWiki

PHP als Modul für Apache
MediaWiki wurde so programmiert, dass es als Apache Modul verwendet.

PHP auf deinem Webserver ist wahrscheinlich als Modul konfiguriert, wenn deine URLs wie folgt anfangen: example.com/index.php/Main_Page Um zu überprüfen, welche PHP Version du verwendest oder wie PHP konfiguriert wurde, kannst du entweder auf die Special:Version Seite schauen oder eine Abfrage auf die [phpinfo] Methode machen.

RedHat/Fedora-basiertes Linux
PHP installieren: httpd neuladen:
 * 1) yum install php php-xml
 * 1) service httpd reload

Debian-basiertes Linux
Das apache2 php5 Modul installieren: Das apache2 php5 Modul aktivieren: Apache neu starten: (Für Debian gibt es auch ein MediaWiki Paket)
 * 1) apt-get install apache2 libapache2-mod-php5 php5-cli php-apc php5-mcrypt
 * 1) a2enmod php5
 * 1) apache2ctl restart

PHP als CGI
Sollte PHP als CGI auf deinem Webserver laufen, wirst du wahrscheinlich nicht sehr schöne URLs als Standard vorgesetzt bekommen.

Das "Problem" kannst du über die beheben.

CGIWrap
Solltest du auf deinem eigenen Server Apache laufen haben und dein laufen, gibt es die Möglichkeit einer Installation von CGIWrap.

Dieses Tool erlaubt es dir, den Apache Server über einen anderen Benutzer für die CGIs laufen zu lassen.

Auf diese Art kannst du einen neuen Benutzer für deine MediaWiki Seiten erstellen.

Eine genauere Anleitung für das Installieren von CGIWrap liegt ausserhalb den möglichen Rahmens, da du die CGIWrap für deinen Server selber kompilieren musst - abhängig von der jeweiligen OS Version deines Servers.

Nichtsdestotrotz, um wenigstens einen kleinen Überblick zu bekommen, kannst du folgende Schritte für CGIWrap beachten:

useradd -M -s /sbin/nologin wikiuser chown apache:apache cgiwrap chmod 500 cgiwrap ln -s /home/myuser/public_html/wiki /home/myuser/cgi-bin/wikilink AddHandler php-wrapper .php Action php-wrapper /cgi-bin/cgiwrap/wikiuser/wikilink chown -R wikiuser:wikiuser *.php chmod -R 500 *.php The files will be accessible as usual. You do not need to specify in your path any cgi-bin, as this is transparently taken care for you.
 * Erstelle einen WikiMedia Benutzer
 * Du benötigst einen cgi-bin Ordner, welcher CGIWrap enthält (z.B. /home/myuser/cgi-bin). Sobald alles einmal konfiguriert wurde, brauchst du nur mehr den cgibin Ordner. Die Debugordner kannst du in einen anderen Ordner verschieben, sofern du sie benötigst. Deine CGIWrap Datei sollte nur für Apache zugänglich sein (chown und chmod dementsprechend einstellen).
 * Erstelle innerhalb des cgi-bin Ordners einen Softlink auf das MediaWiki Root Verzeichnis
 * In your wiki's .htaccess file, add the following definitions:
 * Finally, chown and chmod all the .php files of your Wikimedia folder to be accessible solely by wikiuser.

I strongly suggest you start out with /cgi-bin/cgiwrapd/... as your php-wrapper, as it will precisely show what is currently working. I also strongly suggest you do not delete your CGIWrap source folder until everything works perfectly as this is a real trial and error process, taking a long time. However, it's all worth your time as your MediaWiki will be run in its own separate process, in its own uid, without being able to interfere any other uid. Inverse is also true, except for root, that can read anything anywhere.

mod_alias and mod_rewrite
The recommended method of involves mod_alias. Other methods use mod_rewrite instead.

mod_security
has been known to cause problems with MediaWiki. If you get errors seemingly at random, check your error log to see whether it is causing problems.

Thread stack size
The stack size for for each Apache thread is configurable and the default varies on different operating systems. To run MediaWiki on Windows environments it may be necessary to increase the stack size (if there are problems), as the 1MB default is small and can cause stack overflows during PHP script execution. The following httpd.conf setting will set the stack size to about 8MB (about a typical Linux default):

Spiders and bots
You really should use a file to tell well-behaved spiders not to download dynamically generated pages (edit pages, for instance). This can reduce the load on your webserver, preserve your bandwidth, and prevent duplicate content issues with search engines. However, malicious bots could tie up your webserver and waste your bandwidth by downloading a large volume of pages extremely quickly. Request throttling can help protect against this.