Manual:Backing up a wiki/fr

Il est important d'effectuer régulièrement la sauvegarde de votre wiki (données et fichiers). Cette page donne un aperçu du processus de sauvegarde d'un wiki MediaWiki standard ; vous aurez probablement à cœur de concevoir vos propres scripts de sauvegarde ou de les planifier en fonction de la taille de votre wiki et de vos propres besoins.

Présentation générale
MediaWiki stocke les données importantes à deux endroits :
 * la base de données : les pages et leur contenu, les utilisateurs et leurs préférences, les métadonnées, l'index pour la recherche, etc.
 * le système de fichiers : les fichiers de configuration logicielle, les habillages personnalisés, les extensions, les images (y compris les images effacées), etc.

Pensez bien à passer le wiki en mode « lecture seule » avant de créer la sauvegarde - voir. Ceci permet d'assurer la cohérence de toutes les parties de votre sauvegarde (certaines des extensions que vous avez installées peuvent éventuellement écrire des données).



Transfert de fichiers
Vous devrez choisir une méthode de transfert des fichiers à partir du serveur où ils se trouvent :


 * Données non-privées : vous pouvez simplement publier sur archive.org et.ou dans un répertoire  de votre serveur web.
 * SCP (ou WinSCP), SFTP/FTP, autres méthodes, il y en a toute une liste sur Wikipédia.
 * l'hébergeur professionnel peut aussi mettre à votre disposition une interface de gestion de fichiers utilisable dans un navigateur web, vérifiez auprès de votre interlocuteur.

Base de données
La plupart des données critiques d'un wiki sont stockées dans la base de données. Si votre wiki est actuellement déconnecté sa base de données peut être sauvegardée simplement en copiant le fichier de base de données.

Si vous utilisez par défaut un serveur MySQL ou MariaDB, la base de données peut être vidée sous forme de dump dans un fichier script qui peut être utilisé ultérieurement pour recréer la base de données avec tout son contenu à partir d'une base vide.

Automysqlbackup
Voir le paquet sous Debian :

Installer le paquet :

Toutes vos bases de données seront sauvegardées dans /var/lib/automysqlbackup/:

Sauvegarde manuelle:

Restaurer une base de données:

Pour les autres distributions, voir sur Sourceforge.



Mysqldump en mode ligne de commande
Le plus pratique pour créer un fichier dump de la base de données que vous souhaitez sauvegarder consiste à employer l'outil MySQL standard mysqldump en ligne de commande. Assurez-vous d'avoir bien initialisé les paramètres, sinon la restauration de la base de données risque d'être problématique. peut prendre un temps considérable, tout dépend de la taille de la base de données.

D'abord insérez cette ligne de code dans

on peut la retirer une fois que le dump est terminé.

Exemple de commande à exécuter dans une interface shell Linux/UNIX :

mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql

En remplaçant,  ,  , et   comme il convient. Tous les quatre peuvent se trouver dans votre fichier (LSP). peut être trouvé sous ; par défaut il vaut localhost. peut être trouvé sous,  peut être trouvé sous , où il est listé après. Si  n'est pas spécifié mysqldump est sensé utilisé utf8 par défaut, ou latin1 sur une version plus ancienne de MySQL. Alors que  peut être trouvé sous. Après avoir exécuté la ligne de commande, mysqldump va demander le mot de passe du serveur (qui peut se trouver sous dans LSP).

Lire mysqldump pour une liste complète des paramètres en ligne de commande.

Le résultat de mysqldump peut être préférentiellement gzippé, dans le but d'obtenir un fichier de plus petite taille, ainsi :

mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz

Some newer versions of MySQL might show an error about tablespaces and PROCESS privilege. MediaWiki does not use tablespaces. The solution is to add the --no-tablespaces option to the command:

mysqldump --no-tablespaces -h hostname -u userid -p dbname | gzip > backup.sql.gz

Une commande mysqldump similaire peut être utilisée pour obtenir un fichier XML à la place, en incluant le paramètre --xml.

mysqldump -h hostname -u userid -p --xml dbname > backup.xml

et pour compresser le fichier sous la forme gzip avec un pipe '|'

mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz

Rappelez-vous d'archiver également les composants du système de fichiers du wiki qui pourraient être indispensables, comme les images, le logo et les extensions, par exemple.



Exécuter mysqldump sous Cron
Cron est le planificateur de tâches des systèmes d'exploitation informatiques dérivés d'Unix. Cron permet aux utlisateurs de planifier des tâches (commandes ou scripts shell) à exécuter de manière répétée à certains moments ou à certaines dates.

Voici un exemple de commande que vous pouvez utiliser dans la crontab :  nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz La commande  abaisse la priorité du processus.

Utilisez des valeurs valides pour,  , et. Ça écrira un ficher de sauvegarde avec le jour de la semaine dans le nom du fichier, de sorte à disposez d'un ensemble de roulement des sauvegardes. Si vous désirez également sauvegarder les fichiers et les extensions, vous pouvez utiliser celui-ci.

Si vous voulez ajouter cette tâche dans le Cron via Cpanel alors vous devez protéger le caractère « % » en l'échappant

/usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz

sinon vous aurez une erreur :

/bin/sh: -c: line 0: unexpected EOF while looking for matching `'' /bin/sh: -c: line 1: syntax error: unexpected end of file

Tables
Certaines tables que vous videz ont différents degrés de temporalité. Donc pour économiser de l'espace disque (en plus de compresser par gzip), bien que ces tables doivent être présentes dans un vidage plus propre, leur données n'ont pas besoin de l'être. Néanmoins, sous certaines circonstances le désavantage d'avoir à reconstruire toutes ces données peut contre-balancer l'économie d'espace disque (par exemple, sur un grand wiki où la vitesse de restauration est cruciale).

Voir le fil de la liste de diffusion mysql5 binary schema (schéma binaire mysql5) relatif au sujet.



Conversion de Latin-1 à UTF-8
Voir la section relative de la page de mise à jour pour toute information concernant le processus. Voir aussi la page de discussion pour davantage d'informations sur l'utilisation des alphabets en général.

PostgreSQL
Vous pouvez utiliser l'outil  pour sauvegarder une base de données PostgreSQL de MediaWiki. Par exemple :

pg_dump mywiki > mywikidump.sql

videra la base de données  dans mywikidump.sql.

Pour restaurer la sauvegarde :

psql mywiki -f mywikidump.sql

Vous pouvez aussi vider les informations globales, par exemple les utilisateurs de la base de données :

pg_dumpall --globals > postgres_globals.sql

phpMyAdmin
Mettez votre wiki en mode lecture-seule en ajoutant  à votre fichier LocalSettings.php.

Chercher la base de données du wiki dans LocalSettings.php. Exemple de l'apparence dans LocalSettings.php :

 Ouvrez le navigateur de votre lien phpadmin, connectez-vous et sélectionnez la base de données du wiki. Sélectionnez Exporter.

Assurez-vous que tous les éléments de Exporter sont sélectionnés, et que Structure est aussi sélectionné (il est important de maintenir la structure de la table).

Facultatif : cochez Ajouter DROP TABLE pour effacer les références existantes lors de l'importation.

Assurez-vous que Data est coché.  Sélectionnez compressé. Puis cliquez sur GO et sauvegardez le fichier de backup.  Retirez  de votre fichier  LocalSettings.php </ol>

N'oubliez pas non plus de sauvegarder les composants du système de fichiers qui pourraient être nécessaires, par exemple les images, le logo et les extensions.

<span id="External_links">

Liens externes

 * Pour le tutoriel, voir Siteground: MySQL Export: How to backup a MySQL database using phpMyAdmin
 * Sauvegarder la base de données

HeidiSQL (alternative to phpMyAdmin)
HeidiSQL est similaire à phpMyAdmin, mais sans aucune restriction de la version libre de phpMyAdmin. HeidiSQL nécessite une connexion directe à la base de données, pour lesquels certains hôtes n'offrent seulement que des interfaces web (phpMyAdmin) vers les bases de données via proxy.

<span id="File_system">

Système de fichiers
MediaWiki enregistre les autres composants du wiki dans le système de fichiers.

Les plus importants de ceux-ci sont :


 * les fichiers téléversés dans le répertoire  (y compris les fichiers supprimés, les vignettes, et les formules mathématiques générées ainsi que les images SVG, selon le cas).
 * les fichiers téléversés dans le répertoire  (y compris les fichiers supprimés, les vignettes, et les formules mathématiques générées ainsi que les images SVG, selon le cas).

La meilleure méthode pour les sauvegarder est de les placer dans un fichier archive, en tant que fichier  , qui peut ensuite être compressé si vous le désirez. Sous Windows, vous pouvez utiliser les applications telles que WinZip ou 7-zip.

Pour les variantes Linux, en supposant que le wiki est rangé dans

Vous devriez pouvoir sauvegarder le répertoire « wiki » entier dans « htdocs » en utilisant XAMPP.

Configuration files
LocalSettings.php is the most important of these, but a wiki might also have things like  or other web server configuration files that should be backed up.

Uploaded files
Files uploaded to the wiki are by default put into the  directory, separated into subdirectories such as. There are also other directories such as  and. These should all be backed up.

The  can be backed up along with everything else, but can optionally be excluded in order to save backup space. This directory stores the derived thumbnails of images and other files; generally multiple thumbnails per wiki file. After restoring from backup, these thumbnails will be recreated as required (although depending on this may need to be a manual process).

<span id="Backup_the_content_of_the_wiki_(XML_dump)">

Sauvegarder le contenu du wiki (vidage XML)
Il est bon aussi de créer un vidage XML en plus du vidage de la base de données. Les vidages XML contiennent le contenu du wiki (les pages du wiki et toutes leurs versions), sans les données relatives du site (elle ne contiennent pas les comptes utilisateurs, les méta-données des images, les journaux, etc).

Les vidages XML sont moins sensés causer de problèmes avec l' encodage des caractères, que de pouvoir transférer de grandes quantités de contenu rapidement, et peuvent facilement être utilisés par des outils tiers, qui font que les vidages XML sont une bonne solution de repli si la sauvegarde principale de votre base de données venait à devenir inutilisable.

Pour faire un vidage XML, utilisez l'outil en mode ligne de commande, situé dans le répertoire   de votre installation MediaWiki. Voir pour plus d'informations.

Vous pouvez aussi créer un vidage XML pour un ensemble particulier de pages en ligne, en utilisant Special:Export, bien qu'essayer de vider de grandes quantités de pages via cet interface risque de se terminer par un dépassement du temps limite autorisé pour l'opération.

Pour importer un vidage XML dans un wiki, utilisez l'outil de commande en ligne. Pour un petit nombre de pages, vous pouvez aussi utiliser la page Special:Import via votre navigateur (par défaut, cette fonction est restreinte au groupe sysop).

Voir pour plus d'information.

<span id="Without_shell_access_to_the_server">

Sans accès au shell du serveur
Si nous n'avez pas accès au shell du serveur, utilisez le script Python dumpgenerator.py de WikiTeam en mode ligne de commande pour DOS, Unix ou Linux. Requires Python v2. Mediawiki Client Tools are developing Mediawiki Scraper, a Python 3.x port.

User account information won't be preserved. The XML dump can include full or only most recent page history. The images dump will contain all file types with associated descriptions. The siteinfo.json and SpecialVersion.html files will contain information about wiki features such as the installed extensions and skins.

Les instructions complètes se trouvent dans le tutoriel de WikiTeam et dans le répertoire Mediawiki Scraper des dépôts GitHub.

Voir aussi Data dumps.

Scripts

 * script non officiel de sauvegarde par User:Duesentrieb.
 * Script de sauvegarde non officiel de Flominator; crée une sauvegarde de tous les fichiers et de la base de données, avec une rotation optionnelle sur les sauvegardes.
 * User:Darizotas/MediaWiki Backup Script for Windows - un script pour sauvegarder une installation MediaWiki de Windows. Note: il n'y a pas pas de fonction de restauration.
 * outils WikiTeam - si vous n'avez pas accès au serveur (par exemple votre wiki fait partie d'une ferme libre de wikis), vous pouvez générer un vidage XML et un vidage des images en utilisant l'outil dumpgenerator des outils WikiTeam (Python 2). Voir certains wikis sauvegardés.
 * Mediawiki Scraper - if you do not have server access (e.g. your wiki is in a free wikifarm), you can generate an XML dump and an image dump using dumpgenerator from Mediawiki Client Tools, (Python 3).
 * Un autre script de sauvegarde qui: vide la base de données, les fichiers (par défaut juste les images, option pour inclure tous les fichiers de l'installation), et XML; met le site en mode lecture seule; sauvegardes horodatées; dans LocalSettings il trouve la famille des caractères utilisés. Le script n'a pas besoin d'être modifié pour chaque site à sauvegarder. Ne fait pas (encore) de rotation sur les sauvegardes. Utilisation : . Fournit également un script pour restaurer une sauvegarde.
 * Un autre non officiel par Lanthanis qui exporte les pages des espaces de noms spécifiés en tant que fichier XML; vide les tables spécifiées de la base de données; et ajoute les répertoires supplémentaires et les fichiers spécifiés à un ficher ZIP de sauvegarde. Peut être utilisé avec le planificateur de tâches de Windows.
 * Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière.
 * Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière.

Extensions

 * – Permet aux utilisateurs de générer et de télécharger les vidages de bases de données
 * – Permet aux utilisateurs de générer et de télécharger le XML et le fichier ou l'image

<span id="See_also">

Voir aussi

 * Help:Export is a quick and easy way to save all pages on your wiki.
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée