Manuel:Faire une copie de secours d'un wiki

From MediaWiki.org
Jump to navigation Jump to search
This page is a translated version of the page Manual:Backing up a wiki and the translation is 100% complete.
Other languages:
Bahasa Indonesia • ‎Deutsch • ‎English • ‎dansk • ‎español • ‎français • ‎italiano • ‎magyar • ‎polski • ‎português do Brasil • ‎русский • ‎中文 • ‎日本語 • ‎한국어
Help:Export est une manière rapide et facile de sauvegarder toutes les pages sur votre wiki.

Il est important d'effectuer la sauvegarde régulière des données contenues dans votre wiki. Cette page donne un aperçu du processus de sauvegarde d'un wiki MediaWiki standard ; vous aurez probablement à cœur de concevoir vos propres scripts de sauvegardes ou de les planifier en fonction de la taille de votre wiki et de vos besoins.

Présentation générale

MediaWiki stocke les données importantes à deux endroits :

la base de données 
les pages et leur contenu, les utilisateurs et leurs préférences, les métadonnées, l'index pour la recherche, etc.
le système de fichiers 
les fichiers de configuration logicielle, les habillages personnalisés, les extensions, les images (y compris les images effacées), etc.

Pensez bien à passer le wiki en mode « lecture seule » avant de créer la sauvegarde - voir $wgReadOnly . Ceci permet d'assurer la cohérence de toutes les parties de votre sauvegarde (certaines des extensions que vous avez installées peuvent éventuellement écrire des données).

Transfert de fichiers

Vous devrez choisir une méthode de transfert des fichiers à partir du serveur où ils se trouvent :

  • Données non-privées : vous pouvez simplement publier sur archive.org et.ou dans un répertoire dumps/ de votre serveur web.
  • SCP (ou WinSCP), SFTP/FTP, autres méthodes, il y en a toute une liste sur Wikipédia.
  • l'hébergeur professionnel peut aussi mettre à votre disposition une interface de gestion de fichiers utilisable dans un navigateur web, vérifiez auprès de votre interlocuteur.

Base de données

La plupart des données critiques d'un wiki sont stockées dans la base de données. Si vous utilisez par défaut un arrière-plan MySQL (MySQL backend), le contenu de la base de données peut être vidé sous forme de dump dans un fichier de script qui peut être réutilisé ultérieurement pour regénérer la base de données dans l'état où elle a été sauvegardée.

MySQL

Automysqlbackup

Voir le paquet sous Debian :

$ apt show automysqlbackup
[...]
Description: automysqlbackup creates backup every day, week and month for all of your MySQL database, to a configured folder. There's nothing to do but to install this package, and you'll rest assured that you have a way to go back in the history of your database.
[...]

Installer le paquet :

# apt install automysqlbackup

Toutes vos bases de données seront sauvegardées dans /var/lib/automysqlbackup/:

$ find /var/lib/automysqlbackup/
/var/lib/automysqlbackup/
/var/lib/automysqlbackup/weekly
/var/lib/automysqlbackup/weekly/my_wiki
/var/lib/automysqlbackup/weekly/my_wiki/my_wiki_week.18.2016-05-07_15h32m.sql.gz
/var/lib/automysqlbackup/monthly
/var/lib/automysqlbackup/daily
/var/lib/automysqlbackup/daily/my_wiki

Sauvegarde manuelle:

# automysqlbackup

Restaurer une base de données:

gunzip < /var/lib/automysqlbackup/weekly/my_wiki/my_wiki_week.18.2016-05-07_15h32m.sql.gz|mysql -uUSER -pPASSWORD my_wiki

Pour les autres distributions, voir sur Sourceforge.

Mysqldump en mode ligne de commande

Le plus pratique pour créer un fichier dump de la base de données que vous souhaitez sauvegarder consiste à employer l'outil MySQL standard mysqldump en ligne de commande. Assurez-vous d'avoir bien initialisé les paramètres, sinon la restauration de la base de données risque d'être problématique. Mysqldump peut prendre un temps considérable, tout dépend de la taille de la base de données.

D'abord insérez cette ligne de code dans LocalSettings.php

$wgReadOnly = 'Dumping Database, Access will be restored shortly';

on peut la retirer une fois que le dump est terminé.

Exemple de commande à exécuter dans une interface shell Linux/UNIX :

mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql

En remplaçant hostname, userid, whatever, et dbname comme il convient. Tous les quatre peuvent se trouver dans votre fichier (LSP) LocalSettings.php . hostname peut être trouvé sous $wgDBserver ; par défaut il vaut localhost. userid peut être trouvé sous $wgDBuser , whatever peut être trouvé sous $wgDBTableOptions , où il est listé après DEFAULT CHARSET=. Si whatever n'est pas spécifié mysqldump est sensé utilisé utf8 par défaut, ou latin1 sur une version plus ancienne de MySQL. Alors que dbname peut être trouvé sous $wgDBname . Après avoir exécuté la ligne de commande, mysqldump va demander le mot de passe du serveur (qui peut se trouver sous Manuel:$wgDBpassword dans LSP).

Lire mysqldump pour une liste complète des paramètres en ligne de commande.

Le résultat de mysqldump peut être préférentiellement gzippé, dans le but d'obtenir un fichier de plus petite taille, ainsi :

mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz

Une commande mysqldump similaire peut être utilisée pour obtenir un fichier XML à la place, en incluant le paramètre --xml.

mysqldump -h hostname -u userid -p --xml dbname > backup.xml

et pour compresser le fichier sous la forme gzip avec un pipe '|'

mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz

Rappelez-vous d'archiver également les composants du système de fichiers du wiki qui pourraient être indispensables, comme les images, le logo et les extensions, par exemple.

Exécuter mysqldump sous Cron

Cron est le planificateur de tâches des systèmes d'exploitation informatiques dérivés d'Unix. Cron permet aux utlisateurs de planifier des tâches (commandes ou scripts shell) à exécuter de manière répétée à certains moments ou à certaines dates.

Voici un exemple de commande que vous pouvez utiliser dans la crontab :

nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz

La commande nice -n 19 abaisse la priorité du processus.

Utilisez des valeurs valides pour $USER, $PASSWORD, et $DATABASE. Ça écrira directement le jour de la semaine dans le nom du fichier ainsi sauvegardé, de telle sorte que vous disposerez d'un ensemble de roulement des sauvegardes. Si vous désirez également sauvegarder les fichiers et les extensions, vous pouvez utiliser celui-là.

Avertissement Avertissement : N'essayez pas de sauvegarder votre base de données Mediawiki en utilisant mysqlhotcopy. Le format des tables utilisé par Mediawiki ne peut pas être sauvegardé avec cet outil, et l'échec est silencieux !

Si vous voulez ajouter cette tâche dans le Cron via Cpanel alors vous devez protéger le caractère « % » en l'échappant

/usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz

sinon vous aurez une erreur :

/bin/sh: -c: line 0: unexpected EOF while looking for matching `''
/bin/sh: -c: line 1: syntax error: unexpected end of file

Tables

Certaines tables que vous videz ont différents degrés de temporalité. Donc pour économiser de l'espace disque (en plus de compresser par gzip), bien que ces tables doivent être présentes dans un vidage plus propre, leur données n'ont pas besoin de l'être. Néanmoins, sous certaines circonstances le désavantage d'avoir à reconstruire toutes ces données peut contre-balancer l'économie d'espace disque (par exemple, sur un grand wiki où la vitesse de restauration est cruciale).

Voir le fil de la liste de diffusion mysql5 binary schema (schéma binaire mysql5) relatif au sujet.

Conversion de Latin-1 à UTF-8

Voir la section relative sur la page de mise à jour pour toute information concernant le processus. Voir aussi la page de discussion pour davantage d'informations sur l'utilisations des alphabets en général.

PostgreSQL

Vous pouvez utiliser l'outil pg_dump pour sauvegarder une base de données PostgreSQL de MediaWiki. Par exemple :

pg_dump mywiki > mywikidump.sql

videra la base de données mywiki dans mywikidump.sql.

Pour restaurer la sauvegarde :

psql mywiki -f mywikidump.sql

Vous pouvez aussi vider les informations globales, par exemple les utilisateurs de la base de données :

pg_dumpall --globals > postgres_globals.sql

SQLite

<translate> If your wiki is currently offline, its database can be backed up by simply copying the database file.</translate> <translate> Otherwise, you should use [[<tvar|sqlite>Special:MyLanguage/Manual:Sqlite.php</>|a maintenance script]]: <tvar|code>php maintenance/sqlite.php --backup-to <backup file name></>, which will make sure that operation is atomic and there are no inconsistencies.</translate> <translate> If your database is not really huge and server is not under heavy load, users editing the wiki will notice nothing but a short lag.</translate> <translate> Users who are just reading will not notice anything in any case. </translate>

phpMyAdmin

Mettez votre wiki en mode lecture-seule en ajoutant $wgReadOnly = 'Maintenance du Site'; à votre fichier LocalSettings.php.

Ouvrez le navigateur de votre lien phpadmin et choisissez la base de données du wiki (vérifiez dans LocalSettings.php si vous hésitez). Sélectionnez Exporter. Assurez-vous que tous les items sous Exporter sont sélectionnés, et assurez-vous que Structure soit sélectionné (il est important de maintenir la structure de la table). Facultatif : cochez Ajouter DROP TABLE pour effacer les références existantes lors de l'importation. Assurez-vous que Data est coché. Sélectionnez compressé. Puis cliquez sur GO et sauvegardez le fichier de backup.[1]

Retirez $wgReadOnly = 'Maintenance du Site'; de votre fichier LocalSettings.php

N'oubliez pas non plus de sauvegarder les composants du système de fichiers qui pourraient être nécessaires, par exemple les images, le logo et les extensions.

Liens externes

HeidiSQL

HeidiSQL est similaire à phpMyAdmin, mais sans aucune restriction de la version libre de phpMyAdmin. HeidiSQL nécessite une connexion directe à la base de données, pour lesquels certains hôtes n'offrent seulement que des interfaces web (phpMyAdmin) vers les bases de données via proxy.

Système de fichiers

MediaWiki enregistre les autres composants du wiki dans le système de fichiers le plus approprié plutôt que dans la base de données, par exemple, les fichiers de configuration du site (LocalSettings.php, AdminSettings.php (finalement supprimé en 1.23)), les fichiers d'images (incluant les images supprimées, les vignettes, les expressions mathématiques générées et les images SVG, si c'est le cas), les habillages personnalisés, les fichiers d'extensions, etc.

La meilleure méthode pour les sauvegarder est de les placer dans un fichier archive , en tant que fichier .tar , qui peut ensuite être compressé si vous le désirez. Sous Windows, vous pouvez utiliser les applications telles que WinZip ou 7-zip.

Pour les variantes Linux, en supposant que le wiki est rangé dans /srv/www/htdocs/wiki

  tar zcvhf wikidata.tgz /srv/www/htdocs/wiki

Vous devriez pouvoir sauvegarder le répertoire « wiki » entier dans « htdocs » en utilisant XAMPP.

Sauvegarder le contenu du wiki (vidage XML)

Il est bon aussi de créer un vidage XML en plus du vidage de la base de données. Les vidages XML contiennent le contenu du wiki (les pages du wiki avec toutes leurs révisions), sans les données relatives au site (elle ne contiennent pad les comptes utilisateurs, les méta-données des images les journaux, etc). [2]

Les vidages XML sont moins sensés causer de problèmes avec l' encodage des caractères, que de pouvoir transférer de grandes quantités de contenu rapidement, et peuvent facilement être utilisés par des outils tiers, qui font que les vidages XML sont une bonne solution de repli si la sauvegarde principale de votre base de données venait à devenir inutilisable.

Pour faire un vidage XML, utilisez l'outil en ligne de commande dumpBackup.php, situé dans le répertoire maintenance de votre installation MediaWiki. Voir Manual:dumpBackup.php pour plus de détails.

Vous pouvez aussi créer un vidage XML pour un ensemble particulier de pages en ligne, en utilisant Special:Export, bien qu'essayer de vider de grandes quantités de pages via cet interface risque de se terminer par un dépassement du temps limite autorisé pour l'opération.

Pour importer un vidage XML dans un wiki, utilisez l'outil de commande en ligne importDump.php. Pour un petit nombre de pages, vous pouvez aussi utiliser la page Special:Import via votre navigateur (par défaut, ceci est restreint au groupe sysop). Comme alternative à dumpBackup.php et importDump.php, vous pouvez utiliser MWDumper, qui est plus rapide, mais nécessite l'environnement Java Runtime.

Voir Manuel:Importer des sauvegardes XML pour plus d'informations.

Sans accès au shell du serveur

Si nous n'avez pas accès au shell du serveur, utilisez le script Python dumpgenerator.py de WikiTeam en mode ligne de commande pour DOS, Unix ou Linux. Nécessite Python v2 (v3 ne fonctionne pas encore).

Pour obtenir un ficher XML, avec l'historique des modifications, le vidage ainsi qu'un vidage de toutes les images avec leur description. Sans extensions ni configurations LocalSettings.php .

python dumpgenerator.py --api=http://www.sdiy.info/w/api.php --xml --images

Les instructions complètes se trouvent dans le tutoriel de WikiTeam.

Voir aussi Meta:Data dumps.

Scripts

Avertissement Avertissement : Utilsez-les à votre propre risque. Vérifiez dans LocalSettings.php de votre wiki, l'ensemble correct de caractères à utiliser, parce que vous pourriez avoir à corriger le script par la suite.
  • script non officiel de sauvegarde par User:Duesentrieb.
  • Script de sauvegarde non officiel de Flominator; crée une sauvegarde de tous les fichiers et de la base de données, avec une rotation optionnelle sur les sauvegardes.
  • User:Darizotas/MediaWiki Backup Script for Windows - un script pour sauvegarder une installation MediaWiki de Windows. Note: il n'y a pas pas de fonction de restauration.
  • Script non officiel de sauvegarde basé sur le web, mw_tools, de Wanglong (allwiki.com); vous pouvez l'utiliser pour sauvegarder votre base de données, ou utiliser les fichiers sauvegardés pour restaurer la base de données, l'opération est très facile.
  • outils WikiTeam - si vous n'avez pas accès au serveur (par exemple votre wiki est une ferme libre de wikis), vous pouvez générer un vidage XML et un vidage image en utilisant les outils WikiTeam (voir certains wikis sauvegardés).
  • Fullsitebackup
  • Un autre script de sauvegarde qui: vide la base de données, les fichiers (par défaut juste les images, option pour inclure tous les fichiers de l'installation), et XML; met le site en mode lecture seule; sauvegardes horodatées; lit la famille de caractères à partir de LocalSettings. Le script n'a pas besoin d'être modifié pour chaque site à sauvegarder. Ne fait pas (encore) de rotation sur les sauvegardes. Usage: restore.sh -a backup/directory/dated_archive.tar.gz -w installation/directory . Fournit aussi un script pour restaurer un restore.sh -a backup/directory/dated_archive.tar.gz -w installation/directory sauvegardé.
  • Un autre script de sauvegarde MediaWiki pour Windows non officiel par Lanthanis qui exporte les pages des espaces de noms spécifiés en tant que fichier XML; vide les tables spécifiées de la base de données; et ajoute les répertoires supplémentaires et les fichiers spécifiés à un ficher ZIP de sauvegarde. Peut être utilisé avec le planificateur de tâches de Windows.
  • Script pour faire des sauvegardes périodiques mw_backup. Ce script fait des sauvegardes de votre base de données et du répertoire d'images de manière quotidienne, hebdomadaire, ou mensuelle lorsqu'il est lancé en tant que tâche de cron journalière.

Voir aussi

Références

  1. Manual_talk:Backing_up_a_wiki#Ubuntu_10.10_-_Step_by_Step_Instructions
  2. Les vidages XML sont indépendants de la structure de la base de données, et peuvent être importés dans les versions futures (et mêmes anciennes) de MediaWiki.