Manual:Backing up a wiki/fr

Il est important d'effectuer la sauvegarde régulière des données contenues dans votre wiki. Cette page donne un aperçu du processus de sauvegarde d'un wiki MediaWiki standard ; vous aurez probablement à cœur de concevoir vos propres scripts de sauvegardes ou de les planifier en fonction de la taille de votre wiki et de vos besoins.

Présentation générale
MediaWiki stocke les données importantes à deux endroits :
 * la base de données : les pages et leur contenu, les utilisateurs et leurs préférences, les métadonnées, l'index pour la recherche, etc.
 * le système de fichiers : les fichiers de configuration logicielle, les habillages personnalisés, les extensions, les images (y compris les images effacées), etc.

Pensez bien à passer le wiki en mode « lecture seule » avant de créer la sauvegarde - voir. Ceci permet d'assurer la cohérence de toutes les parties de votre sauvegarde (certaines des extensions que vous avez installées peuvent éventuellement écrire des données).

Transfert de fichiers
Vous devrez choisir une méthode de transfert des fichiers à partir du serveur où ils se trouvent :


 * Données non-privées : vous pouvez simplement publier sur archive.org et.ou dans un répertoire  de votre serveur web.
 * SCP (ou WinSCP), SFTP/FTP, autres méthodes, il y en a toute une liste sur Wikipédia.
 * l'hébergeur professionnel peut aussi mettre à votre disposition une interface de gestion de fichiers utilisable dans un navigateur web, vérifiez auprès de votre interlocuteur.

Base de données
La plupart des données critiques d'un wiki sont stockées dans la base de données. Si vous utilisez par défaut un arrière-plan MySQL (MySQL backend), le contenu de la base de données peut être vidé sous forme de dump dans un fichier de script qui peut être réutilisé ultérieurement pour regénérer la base de données dans l'état où elle a été sauvegardée.

Automysqlbackup
Voir le paquet sous Debian :

Installer le paquet :

Toutes vos bases de données seront sauvegardées dans /var/lib/automysqlbackup/:

Sauvegarde manuelle:

Restaurer une base de données:

Pour les autres distributions, voir sur Sourceforge.

Mysqldump en mode ligne de commande
Le plus pratique pour créer un fichier dump de la base de données que vous souhaitez sauvegarder consiste à employer l'outil MySQL standard mysqldump en ligne de commande. Assurez-vous d'avoir bien initialisé les paramètres, sinon la restauration de la base de données risque d'être problématique. peut prendre un temps considérable, tout dépend de la taille de la base de données.

D'abord insérez cette ligne de code dans

on peut la retirer une fois que le dump est terminé.

Exemple de commande à exécuter dans une interface shell Linux/UNIX :

mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql

En remplaçant,  ,  , et   comme il convient. Tous les quatre peuvent se trouver dans votre fichier (LSP). peut être trouvé sous ; par défaut il vaut localhost. peut être trouvé sous,  peut être trouvé sous , où il est listé après. Si  n'est pas spécifié mysqldump est sensé utilisé utf8 par défaut, ou latin1 sur une version plus ancienne de MySQL. Alors que  peut être trouvé sous. Après avoir exécuté la ligne de commande, mysqldump va demander le mot de passe du serveur (qui peut se trouver sous dans LSP).

Lire mysqldump pour une liste complète des paramètres en ligne de commande.

Le résultat de mysqldump peut être préférentiellement gzippé, dans le but d'obtenir un fichier de plus petite taille, ainsi :

mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz

Une commande mysqldump similaire peut être utilisée pour obtenir un fichier XML à la place, en incluant le paramètre --xml.

mysqldump -h hostname -u userid -p --xml dbname > backup.xml

et pour compresser le fichier sous la forme gzip avec un pipe '|'

mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz

Rappelez-vous d'archiver également les composants du système de fichiers du wiki qui pourraient être indispensables, comme les images, le logo et les extensions, par exemple.

Exécuter mysqldump sous Cron
Cron est le planificateur de tâches des systèmes d'exploitation informatiques dérivés d'Unix. Cron permet aux utlisateurs de planifier des tâches (commandes ou scripts shell) à exécuter de manière répétée à certains moments ou à certaines dates.

Voici un exemple de commande que vous pouvez utiliser dans la crontab :  nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz La commande  abaisse la priorité du processus.

Utilisez des valeurs valides pour,  , et. Ça écrira un ficher de sauvegarde avec le jour de la semaine dans le nom du fichier, de sorte à disposez d'un ensemble de roulement des sauvegardes. Si vous désirez également sauvegarder les fichiers et les extensions, vous pouvez utiliser celui-ci.

Si vous voulez ajouter cette tâche dans le Cron via Cpanel alors vous devez protéger le caractère « % » en l'échappant

/usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz

sinon vous aurez une erreur :

/bin/sh: -c: line 0: unexpected EOF while looking for matching `'' /bin/sh: -c: line 1: syntax error: unexpected end of file

Tables
Certaines tables que vous videz ont différents degrés de temporalité. Donc pour économiser de l'espace disque (en plus de compresser par gzip), bien que ces tables doivent être présentes dans un vidage plus propre, leur données n'ont pas besoin de l'être. Néanmoins, sous certaines circonstances le désavantage d'avoir à reconstruire toutes ces données peut contre-balancer l'économie d'espace disque (par exemple, sur un grand wiki où la vitesse de restauration est cruciale).

Voir le fil de la liste de diffusion mysql5 binary schema (schéma binaire mysql5) relatif au sujet.

Conversion de Latin-1 à UTF-8
Voir la section relative sur la page de mise à jour pour toute information concernant le processus. Voir aussi la page de discussion pour davantage d'informations sur l'utilisations des alphabets en général.

PostgreSQL
Vous pouvez utiliser l'outil  pour sauvegarder une base de données PostgreSQL de MediaWiki. Par exemple :

pg_dump mywiki > mywikidump.sql

videra la base de données  dans mywikidump.sql.

Pour restaurer la sauvegarde :

psql mywiki -f mywikidump.sql

Vous pouvez aussi vider les informations globales, par exemple les utilisateurs de la base de données :

pg_dumpall --globals > postgres_globals.sql

phpMyAdmin
Mettez votre wiki en mode lecture-seule en ajoutant  à votre fichier LocalSettings.php.

Ouvrez le navigateur de votre lien phpadmin et choisissez la base de données du wiki. (Vérifiez dans LocalSettings.php si vous hésitez). Sélectionnez Exporter. Assurez-vous que tous les items sous Exporter sont sélectionnés, et assurez-vous que Structure soit sélectionné (il est important de maintenir la structure de la table). Facultatif : cochez Ajouter DROP TABLE pour effacer les références existantes lors de l'importation. Assurez-vous que Data est coché. Sélectionnez compressé. Puis cliquez sur GO et sauvegardez le fichier de backup. Retirez  de votre fichier  LocalSettings.php

N'oubliez pas non plus de sauvegarder les composants du système de fichiers qui pourraient être nécessaires, par exemple les images, le logo et les extensions.

Liens externes

 * Pour le tutoriel, voir Siteground: MySQL Export: How to backup a MySQL database using phpMyAdmin''
 * Sauvegarder la base de données

HeidiSQL
HeidiSQL est similaire à phpMyAdmin, mais sans aucune restriction de la version libre de phpMyAdmin. HeidiSQL nécessite une connexion directe à la base de données, pour lesquels certains hôtes n'offrent seulement que des interfaces web (phpMyAdmin) vers les bases de données via proxy.

Système de fichiers
MediaWiki enregistre les autres composants du wiki dans le système de fichiers le plus approprié plutôt que dans la base de données, par exemple, les fichiers de configuration du site (,  (finalement supprimé en 1.23)), les fichiers d'images (incluant les images supprimées, les vignettes, les expressions mathématiques générées et les images SVG, si c'est le cas), les habillages personnalisés, les fichiers d'extensions, etc.

La meilleure méthode pour les sauvegarder est de les placer dans un fichier archive, en tant que fichier  , qui peut ensuite être compressé si vous le désirez. Sous Windows, vous pouvez utiliser les applications telles que WinZip ou 7-zip.

Pour les variantes Linux, en supposant que le wiki est rangé dans /srv/www/htdocs/wiki

tar zcvhf wikidata.tgz /srv/www/htdocs/wiki

Vous devriez pouvoir sauvegarder le répertoire « wiki » entier dans « htdocs » en utilisant XAMPP.

Sauvegarder le contenu du wiki (vidage XML)
Il est bon aussi de créer un vidage XML en plus du vidage de la base de données. Les vidages XML contiennent le contenu du wiki (les pages du wiki avec toutes leurs révisions), sans les données relatives au site (elle ne contiennent pas les comptes utilisateurs, les méta-données des images les journaux, etc).

Les vidages XML sont moins sensés causer de problèmes avec l' encodage des caractères, que de pouvoir transférer de grandes quantités de contenu rapidement, et peuvent facilement être utilisés par des outils tiers, qui font que les vidages XML sont une bonne solution de repli si la sauvegarde principale de votre base de données venait à devenir inutilisable.

Pour faire un vidage XML, utilisez l'outil en ligne de commande, situé dans le répertoire   de votre installation MediaWiki. Voir pour plus d'informations.

Vous pouvez aussi créer un vidage XML pour un ensemble particulier de pages en ligne, en utilisant Special:Export, bien qu'essayer de vider de grandes quantités de pages via cet interface risque de se terminer par un dépassement du temps limite autorisé pour l'opération.

Pour importer un vidage XML dans un wiki, utilisez l'outil de commande en ligne. Pour un petit nombre de pages, vous pouvez aussi utiliser la page Special:Import via votre navigateur (par défaut, ceci est restreint au groupe sysop). Comme alternative à  et , vous pouvez utiliser MWDumper, qui est plus rapide, mais nécessite l'environnement Java Runtime.

Voir Manuel:Importer des sauvegardes XML pour plus d'informations.

Sans accès au shell du serveur
Si nous n'avez pas accès au shell du serveur, utilisez le script Python dumpgenerator.py de WikiTeam en mode ligne de commande pour DOS, Unix ou Linux. Nécessite Python v2 (v3 ne fonctionne pas encore).

Pour obtenir un ficher XML, avec l'historique des modifications, le vidage ainsi qu'un vidage de toutes les images avec leur description. Sans extensions ni configurations LocalSettings.php.

Les instructions complètes se trouvent dans le tutoriel de WikiTeam.

Voir aussi Data dumps.

Scripts

 * script non officiel de sauvegarde par User:Duesentrieb.
 * Script de sauvegarde non officiel de Flominator; crée une sauvegarde de tous les fichiers et de la base de données, avec une rotation optionnelle sur les sauvegardes.
 * User:Darizotas/MediaWiki Backup Script for Windows - un script pour sauvegarder une installation MediaWiki de Windows. Note: il n'y a pas pas de fonction de restauration.
 * Script non officiel de sauvegarde basé sur le web, mw_tools, de Wanglong (allwiki.com); vous pouvez l'utiliser pour sauvegarder votre base de données, ou utiliser les fichiers sauvegardés pour restaurer la base de données, l'opération est très facile.
 * outils WikiTeam - si vous n'avez pas accès au serveur (par exemple votre wiki est une ferme libre de wikis), vous pouvez générer un vidage XML et un vidage image en utilisant les outils WikiTeam (voir certains wikis sauvegardés).
 * Un autre script de sauvegarde qui: vide la base de données, les fichiers (par défaut juste les images, option pour inclure tous les fichiers de l'installation), et XML; met le site en mode lecture seule; sauvegardes horodatées; lit la famille de caractères à partir de LocalSettings. Le script n'a pas besoin d'être modifié pour chaque site à sauvegarder. Ne fait pas (encore) de rotation sur les sauvegardes. Usage:  . Fournit aussi un script pour restaurer un   sauvegardé.
 * Un autre non officiel par Lanthanis qui exporte les pages des espaces de noms spécifiés en tant que fichier XML; vide les tables spécifiées de la base de données; et ajoute les répertoires supplémentaires et les fichiers spécifiés à un ficher ZIP de sauvegarde. Peut être utilisé avec le planificateur de tâches de Windows.
 * Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière.
 * Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière.

Extensions

 * – Allows users to generate and download database dumps
 * – Allows users to generate and download XML and file/image dumps

Voir aussi

 * Help:Export is a quick and easy way to save all pages on your wiki.
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée