Apache configuration/pt-br

O Apache é o servidor de web mais recomendado para ser usado com o MediaWiki. Outros servidores como IIS podem funcionar também.

PHP como módulo do Apache
O MediaWiki foi escrito para usar como um módulo do Apache. Seu PHP provavelmente é configurado como um módulo se você começar com URLs assim: example.com/index.php/Main_Page Você pode conferir qual configuração e versão de PHP você tem, visualizando sua página wiki Special:Version, ou com phpinfo.

Linux baseado em RedHat/Fedora
Instale o PHP: Recarregue o servidor httpd:
 * 1) yum install php php-xml
 * 1) service httpd reload

Linux baseado em Debian
Instale o módulo apache2 php5: Habilite o módulo apache2 php5: Reinicie o Apache: (O Debian também tem um pacote do Mediawiki.)
 * 1) apt-get install apache2 libapache2-mod-php5 php5-cli php-apc php5-mcrypt
 * 1) a2enmod php5
 * 1) apache2ctl restart

PHP como CGI
Se o PHP estiver rodando como um CGI, você terá "URLs feias" por padrão, mas você ainda pode implementar.

CGIWrap
Se você tiver seu próprio servidor rodando Apache e está executando o, você pode instalar o CGIWrap. Esta ferramenta permite que você execute o servidor Apache como um usuário diferente para CGIs.

Dessa forma, você pode criar um novo usuário para as páginas do MediaWiki. A instalação do CGIWrap está além do escopo deste documento, especialmente porque você deve compilá-lo de acordo com seu próprio servidor. No entanto, como um guia rápido, você pode seguir estas regras:

useradd -M -s /sbin/nologin wikiuser chown apache:apache cgiwrap chmod 500 cgiwrap ln -s /home/myuser/public_html/wiki /home/myuser/cgi-bin/wikilink AddHandler php-wrapper .php Action php-wrapper /cgi-bin/cgiwrap/wikiuser/wikilink chown -R wikiuser:wikiuser *.php chmod -R 500 *.php Os arquivos poderão ser acessados​​, como de costume. Você não precisa especificar em seu caminho qualquer cgi-bin, pois isso é cuidado de forma transparente para você.
 * Crie um usuário Wikimedia
 * Tenha uma pasta cgi-bin, contendo o CGIWrap (exemplo em /home/myuser/cgi-bin). Depois que tudo estiver configurado, mantenha apenas o cgiwrap, mova as versões de depuração para outra pasta, se você precisar delas. Seu arquivo cgiwrap deve estar acessível apenas ao Apache (chown e chmod em conformidade).
 * Dentro da pasta cgi-bin, crie um link simbólico para o diretório-raiz do Wikimedia.
 * No seu arquivo wiki .htaccess, adicione as seguintes definições:
 * Finalmente, entre com os comandos  e   em todos os arquivos   da pasta Wikimedia para que seja acessível apenas por wikiuser.

I strongly suggest you start out with /cgi-bin/cgiwrapd/... as your php-wrapper, as it will precisely show what is currently working. I also strongly suggest you do not delete your CGIWrap source folder until everything works perfectly as this is a real trial and error process, taking a long time. However, it's all worth your time as your MediaWiki will be run in its own separate process, in its own uid, without being able to interfere any other uid. Inverse is also true, except for root, that can read anything anywhere.

mod_alias e mod_rewrite
O métodos recomendado de envolve mod_alias. Outros métodos usam mod_rewrite em vez disso.

mod_security
O ficou conhecido por causar problemas com o MediaWiki. Se você receber erros aparentemente ao acaso, confira seu log de erro para ver o que está causando problemas.

Tamanho da pilha da linha
The stack size for for each Apache thread is configurable and the default varies on different operating systems. To run MediaWiki on Windows environments it may be necessary to increase the stack size (if there are problems), as the 1MB default is small and can cause stack overflows during PHP script execution. The following httpd.conf setting will set the stack size to about 8MB (about a typical Linux default):

Aranhas e bots
You really should use a file to tell well-behaved spiders not to download dynamically generated pages (edit pages, for instance). This can reduce the load on your webserver, preserve your bandwidth, and prevent duplicate content issues with search engines. However, malicious bots could tie up your webserver and waste your bandwidth by downloading a large volume of pages extremely quickly. Request throttling can help protect against this.