Manual:Backing up a wiki/fr

Il est important d'effectuer régulièrement la sauvegarde de votre wiki (données et fichiers). Cette page donne un aperçu du processus de sauvegarde d'un wiki MediaWiki standard ; vous aurez probablement à cœur de concevoir vos propres scripts de sauvegarde ou de les planifier en fonction de la taille de votre wiki et de vos propres besoins.

Présentation générale
MediaWiki stocke les données importantes à deux endroits :
 * la base de données : les pages et leur contenu, les utilisateurs et leurs préférences, les métadonnées, l'index pour la recherche, etc.
 * le système de fichiers : les fichiers de configuration logicielle, les habillages personnalisés, les extensions, les images (y compris les images effacées), etc.

Pensez bien à passer le wiki en mode « lecture seule » avant de créer la sauvegarde - voir. Ceci permet d'assurer la cohérence de toutes les parties de votre sauvegarde (certaines des extensions que vous avez installées peuvent éventuellement écrire des données).



Transfert de fichiers
Vous devrez choisir une méthode de transfert des fichiers à partir du serveur où ils se trouvent :


 * Données non-privées : vous pouvez simplement publier sur archive.org et.ou dans un répertoire  de votre serveur web.
 * SCP (ou WinSCP), SFTP/FTP, autres méthodes, il y en a toute une liste sur Wikipédia.
 * l'hébergeur professionnel peut aussi mettre à votre disposition une interface de gestion de fichiers utilisable dans un navigateur web, vérifiez auprès de votre interlocuteur.

Base de données
La plupart des données critiques d'un wiki sont stockées dans la base de données. Si votre wiki est actuellement déconnecté sa base de données peut être sauvegardée simplement en copiant le fichier de base de données.

Si vous utilisez par défaut un serveur MySQL ou MariaDB, la base de données peut être vidée sous forme de dump dans un fichier script qui peut être utilisé ultérieurement pour recréer la base de données avec tout son contenu à partir d'une base vide.

Automysqlbackup
Voir le paquet sous Debian :

Installer le paquet :

Toutes vos bases de données seront sauvegardées dans /var/lib/automysqlbackup/:

Sauvegarde manuelle:

Restaurer une base de données:

Pour les autres distributions, voir sur Sourceforge.



Mysqldump en mode ligne de commande
Le plus pratique pour créer un fichier dump de la base de données que vous souhaitez sauvegarder consiste à employer l'outil MySQL standard mysqldump en ligne de commande. Assurez-vous d'avoir bien initialisé les paramètres, sinon la restauration de la base de données risque d'être problématique. peut prendre un temps considérable, tout dépend de la taille de la base de données.

D'abord insérez cette ligne de code dans

on peut la retirer une fois que le dump est terminé.

Exemple de commande à exécuter dans une interface shell Linux/UNIX :

mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql

En remplaçant,  ,  , et   comme il convient. Tous les quatre peuvent se trouver dans votre fichier (LSP). peut être trouvé sous ; par défaut il vaut localhost. peut être trouvé sous,  peut être trouvé sous , où il est listé après. Si  n'est pas spécifié mysqldump est sensé utilisé utf8 par défaut, ou latin1 sur une version plus ancienne de MySQL. Alors que  peut être trouvé sous. Après avoir exécuté la ligne de commande, mysqldump va demander le mot de passe du serveur (qui peut se trouver sous dans LSP).

Lire mysqldump pour une liste complète des paramètres en ligne de commande.

Le résultat de mysqldump peut être préférentiellement gzippé, dans le but d'obtenir un fichier de plus petite taille, ainsi :

mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz

Certaines des versions récentes de MySQL peuvent afficher une erreur avec les tablespaces et le privilège PROCESS. MédiaWiki n'utilise pas les tablespaces. La solution est d'ajouter l'option  à la commande :

mysqldump --no-tablespaces -h hostname -u userid -p dbname | gzip > backup.sql.gz

Une commande mysqldump similaire peut être utilisée pour obtenir un fichier XML à la place, en incluant le paramètre --xml.

mysqldump -h hostname -u userid -p --xml dbname > backup.xml

et pour compresser le fichier sous la forme gzip avec un pipe '|'

mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz

Rappelez-vous d'archiver également les composants du système de fichiers du wiki qui pourraient être indispensables, comme les images, le logo et les extensions, par exemple.



Exécuter mysqldump sous Cron
Cron est le planificateur de tâches des systèmes d'exploitation informatiques dérivés d'Unix. Cron permet aux utlisateurs de planifier des tâches (commandes ou scripts shell) à exécuter de manière répétée à certains moments ou à certaines dates.

Voici un exemple de commande que vous pouvez utiliser dans la crontab :  nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz La commande  abaisse la priorité du processus.

Utilisez des valeurs valides pour,  , et. Ça écrira un ficher de sauvegarde avec le jour de la semaine dans le nom du fichier, de sorte à disposez d'un ensemble de roulement des sauvegardes. Si vous désirez également sauvegarder les fichiers et les extensions, vous pouvez utiliser celui-ci.

Si vous voulez ajouter cette tâche dans le Cron via Cpanel alors vous devez protéger le caractère « % » en l'échappant

/usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz

sinon vous aurez une erreur :

/bin/sh: -c: line 0: unexpected EOF while looking for matching `'' /bin/sh: -c: line 1: syntax error: unexpected end of file

Tables
Certaines tables que vous videz ont différents degrés de temporalité. Donc pour économiser de l'espace disque (en plus de compresser par gzip), bien que ces tables doivent être présentes dans un vidage plus propre, leur données n'ont pas besoin de l'être. Néanmoins, sous certaines circonstances le désavantage d'avoir à reconstruire toutes ces données peut contre-balancer l'économie d'espace disque (par exemple, sur un grand wiki où la vitesse de restauration est cruciale).

Voir le fil de la liste de diffusion mysql5 binary schema (schéma binaire mysql5) relatif au sujet.



Conversion de Latin-1 à UTF-8
Voir la section relative de la page de mise à jour pour toute information concernant le processus. Voir aussi la page de discussion pour davantage d'informations sur l'utilisation des alphabets en général.

PostgreSQL
Vous pouvez utiliser l'outil  pour sauvegarder une base de données PostgreSQL de MediaWiki. Par exemple :

pg_dump mywiki > mywikidump.sql

videra la base de données  dans mywikidump.sql.

Pour restaurer la sauvegarde :

psql mywiki -f mywikidump.sql

Vous pouvez aussi vider les informations globales, par exemple les utilisateurs de la base de données :

pg_dumpall --globals > postgres_globals.sql

phpMyAdmin
Mettez votre wiki en mode lecture-seule en ajoutant  à votre fichier LocalSettings.php.

Chercher la base de données du wiki dans LocalSettings.php. Exemple de l'apparence dans LocalSettings.php :

 Ouvrez le navigateur de votre lien phpadmin, connectez-vous et sélectionnez la base de données du wiki. Sélectionnez Exporter.

Assurez-vous que tous les éléments de Exporter sont sélectionnés, et que Structure est aussi sélectionné (il est important de maintenir la structure de la table).

Facultatif : cochez Ajouter DROP TABLE pour effacer les références existantes lors de l'importation.

Assurez-vous que Data est coché.  Sélectionnez compressé. Puis cliquez sur GO et sauvegardez le fichier de backup.  Retirez  de votre fichier  LocalSettings.php </ol>

N'oubliez pas non plus de sauvegarder les composants du système de fichiers qui pourraient être nécessaires, par exemple les images, le logo et les extensions.

<span id="External_links">

Liens externes

 * Pour le tutoriel, voir Siteground: MySQL Export: How to backup a MySQL database using phpMyAdmin
 * Sauvegarder la base de données

HeidiSQL (alternative to phpMyAdmin)
HeidiSQL est similaire à phpMyAdmin, mais sans aucune restriction de la version libre de phpMyAdmin. HeidiSQL nécessite une connexion directe à la base de données, pour lesquels certains hôtes n'offrent seulement que des interfaces web (phpMyAdmin) vers les bases de données via proxy.

<span id="File_system">

Système de fichiers
MediaWiki enregistre les autres composants du wiki dans le système de fichiers.

Les plus importants de ceux-ci sont :


 * les fichiers téléversés dans le répertoire  (y compris les fichiers supprimés, les vignettes, et les formules mathématiques générées ainsi que les images SVG, selon le cas).
 * les fichiers téléversés dans le répertoire  (y compris les fichiers supprimés, les vignettes, et les formules mathématiques générées ainsi que les images SVG, selon le cas).

La meilleure méthode pour les sauvegarder est de les placer dans un fichier archive, en tant que fichier  , qui peut ensuite être compressé si vous le désirez. Sous Windows, vous pouvez utiliser les applications telles que WinZip ou 7-zip.

Pour les variantes Linux, en supposant que le wiki est rangé dans

Vous devriez pouvoir sauvegarder le répertoire « wiki » entier dans « htdocs » en utilisant XAMPP.

<span id="Configuration_files">

Fichiers de configuration
est le plus important d'entre eux, mais un wiki pourrait aussi avoir des choses comme  ou d'autres fichiers de configuration de serveur web qui devraient être sauvegardés.

<span id="Uploaded_files">

Fichiers téléversés
Les fichiers téléversés dans le wiki sont par défaut rangés dans le répertoire  et séparés en sous-dossiers comme. Il existe aussi d'autres répertoires comme  et. Ils devraient tous être sauvegardés.

LE  peut être sauvegardé avec le reste, mais il est possible de l'exclure pour sauver de la place. Ce répertoire stocke les vignettes dérivées d'images et autres fichiers; en général, plusieurs vignettes par fichier de wiki. Après une restauration à partir d'une sauvegarde, ces vignettes seront recréées si nécessaire (bien que, selon, il puisse s'agir d'un processus manuel).

<span id="Backup_the_content_of_the_wiki_(XML_dump)">

Sauvegarder le contenu du wiki (vidage XML)
Il est bon aussi de créer un vidage XML en plus du vidage de la base de données. Les vidages XML contiennent le contenu du wiki (les pages du wiki et toutes leurs versions), sans les données relatives du site (elle ne contiennent pas les comptes utilisateurs, les méta-données des images, les journaux, etc).

Les vidages XML sont moins sensés causer de problèmes avec l' encodage des caractères, que de pouvoir transférer de grandes quantités de contenu rapidement, et peuvent facilement être utilisés par des outils tiers, qui font que les vidages XML sont une bonne solution de repli si la sauvegarde principale de votre base de données venait à devenir inutilisable.

Pour faire un vidage XML, utilisez l'outil en mode ligne de commande, situé dans le répertoire   de votre installation MediaWiki. Voir pour plus d'informations.

Vous pouvez aussi créer un vidage XML pour un ensemble particulier de pages en ligne, en utilisant Special:Export, bien qu'essayer de vider de grandes quantités de pages via cet interface risque de se terminer par un dépassement du temps limite autorisé pour l'opération.

Pour importer un vidage XML dans un wiki, utilisez l'outil de commande en ligne. Pour un petit nombre de pages, vous pouvez aussi utiliser la page Special:Import via votre navigateur (par défaut, cette fonction est restreinte au groupe sysop).

Voir pour plus d'information.

<span id="Without_shell_access_to_the_server">

Sans accès au shell du serveur
If you have no shell access, use the MediaWiki Client Tools' MediaWiki Scraper dumpgenerator script, a Python 3.x port of the WikiTeam Python 2.7 dumpgenerator.py script. Il est exécuté depuis la ligne de commande dans un terminal.

Le vidage XML peut inclure l'historique complet ou seulement des pages les plus récentes.

Le vidage d'images contiendra tous les types de fichiers avec des descriptions associées. Les fichiers  et   contiendront des informations à propos de fonctionnalités de wiki comme les extensions installées et les habillages. Les informations de compte utilisateur ne seront pas conservées.

Les instructions complètes se trouvent dans le dépôt GitHub MédiaWiki Scraper d'outils client MédiaWiki

Voir aussi Data dumps.

Scripts

 * Script de sauvegarde non officiel de Flominator; crée une sauvegarde de tous les fichiers et de la base de données, avec une rotation optionnelle sur les sauvegardes. Shell script, last updated 2012.
 * Un autre script de sauvegarde qui: vide la base de données, les fichiers (par défaut juste les images, option pour inclure tous les fichiers de l'installation), et XML; met le site en mode lecture seule; sauvegardes horodatées; dans LocalSettings il trouve la famille des caractères utilisés. Le script n'a pas besoin d'être modifié pour chaque site à sauvegarder. Ne fait pas (encore) de rotation sur les sauvegardes. Utilisation : . Fournit également un script pour restaurer une sauvegarde  . Script shell, dernière mise à jour en 2013.
 * User:Darizotas/MediaWiki Backup Script for Windows - un script pour sauvegarder une installation MediaWiki de Windows. Note: il n'y a pas pas de fonction de restauration. Script shell, dernière mise à jour en 2015.
 * script non officiel de sauvegarde par User:Duesentrieb. Script shell, dernière mise à jour en 2016.
 * Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière. Script PHP, dernière mise à jour en 2017.
 * Un autre non officiel par Lanthanis qui exporte les pages des espaces de noms spécifiés en tant que fichier XML; vide les tables spécifiées de la base de données; et ajoute les répertoires supplémentaires et les fichiers spécifiés à un ficher ZIP de sauvegarde. Peut être utilisé avec le planificateur de tâches de Windows. Dernière mise à jour en 2019.
 * outils WikiTeam - si vous n'avez pas accès au serveur (par exemple votre wiki fait partie d'une ferme libre de wikis), vous pouvez générer un vidage XML et un vidage des images en utilisant l'outil dumpgenerator des outils WikiTeam (Python 2). Voir certains wikis sauvegardés. Script python 2.
 * Mediawiki Scraper - si vous n'avez pas accès au serveur (par exemple votre wiki fait partie d'une ferme libre de wikis), vous pouvez générer un vidage XML et un vidage des images en utilisant l'outil dumpgenerator des outils Client MédiaWiki, script python 3, dernière mise à jour en 2023.

Extensions

 * – Permet aux utilisateurs de générer et de télécharger les vidages de bases de données
 * – Permet aux utilisateurs de générer et de télécharger le XML et le fichier ou l'image

<span id="See_also">

Voir aussi

 * est une manière rapide et facile de sauvegarder toutes les pages sur votre wiki.
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée
 * — si la sauvegarde s'est mal passée