Руководство:Резервное копирование вики
Важно регулярно делать резервные копии данных в вашей Вики. В этом разделе описывается обзор процесса резервного копирования для типичной Вики на движке MediaWiki. Возможно, вы захотите разработать свой собственный скрипт резервного копирования или график резервного копирования в зависимости от размеров вашей Вики и ваших индивидуальных потребностей.
Обзор
MediaWiki хранит важные данные в двух местах:
- База данных
- страницы и их содержимое, пользователи и их настройки, метаданные, индекс поиска и другое
- Файловая система
- файлы конфигурации, файлы тем, расширения, изображения (включая удаленные изображения) и другое
Необходимо перевести MediaWiki в режим read-only прежде, чем создавать резервную копию — смотри раздел $wgReadOnly . Это будет гарантией того, что все части вашей резервной копии непротиворечивы (некоторые из установленных дополнений могут записывать данные в базу).
Передача файлов
Вам нужно выбрать способ для передачи файлов с сервера, где они находятся:
- Неконфиденциальные данные вы можете просто опубликовать на archive.org или в каталог
dumps/
вашего веб-сервера. - SCP (или WinSCP), SFTP/FTP или любой другой протокол передачи, который вы привыкли использовать.
- Хостинг компания может предоставлять интерфейс файлового менеджера при помощи веб-браузера; свяжитесь с вашим провайдером.
База данных
Большинство критических данных Вики хранятся в базе данных, которая обычно проста для резервного копирования. При использовании MySQL-бэкэнда по-умолчанию, база данных может быть задамплена в скрипт файл, который может быть использован позже, чтобы восстановить базу данных и все данные в ней с нуля. If your wiki is currently offline, its database can be backed up by simply copying the database file.
When using the default MySQL or MariaDB backend, the database can be dumped into a script file which can be used later to recreate the database and all the data in it from scratch.
MySQL
Automysqlbackup
Смотри пакет в Debian:
$ apt show automysqlbackup
[...]
Description: automysqlbackup creates backup every day, week and month for all of your MySQL database, to a configured folder. There's nothing to do but to install this package, and you'll rest assured that you have a way to go back in the history of your database.
[...]
Установка пакета:
# apt install automysqlbackup
Все ваши базы данных будут сохранены в /var/lib/automysqlbackup/
$ find /var/lib/automysqlbackup/
/var/lib/automysqlbackup/
/var/lib/automysqlbackup/weekly
/var/lib/automysqlbackup/weekly/my_wiki
/var/lib/automysqlbackup/weekly/my_wiki/my_wiki_week.18.2016-05-07_15h32m.sql.gz
/var/lib/automysqlbackup/monthly
/var/lib/automysqlbackup/daily
/var/lib/automysqlbackup/daily/my_wiki
Резервное копирование вручную:
# automysqlbackup
Восстановление базы данных:
gunzip < /var/lib/automysqlbackup/weekly/my_wiki/my_wiki_week.18.2016-05-07_15h32m.sql.gz|mysql -uUSER -pPASSWORD my_wiki
Другие версии смотри на SourceForge.
Получение Mysqldump из командной строки
Наиболее удобный способ для создания файла дампа базы данных — это использовать стандартный инструмент mysqldump. Оно является приложением командной строки. Убедитесь, что используете правильные параметры, в противном случае могут возникнуть трудности при восстановлении базы данных. В зависимости от размера базы данных, создание дампа может занять значительное количество времени.
Сначала вставьте следующую строку в LocalSettings.php
$wgReadOnly = 'Dumping Database, Access will be restored shortly';
это можно удалить после того, как только создание дампа будет завершено.
Пример команды для запуска на Linux/Unix оболочке:
mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql
Изменяйте hostname
, userid
, whatever
, и dbname
по мере необходимости.
Все четыре можно найти в файле LocalSettings.php (LSP).
hostname
может находится под $wgDBserver ; по умолчанию localhost.
userid
может находится под $wgDBuser , whatever
может находится под $wgDBTableOptions , где он указан после DEFAULT CHARSET=
.
Если whatever
не указан, mysqldump скорее всего, будет по умолчанию использовать utf8, или если используется более старая версия MySQL, latin1.
Тогда как dbname
может находится после $wgDBname .
После запуска этой строки из командной строки mysqldump запросит пароль сервера (который можно найти после Manual:$wgDBpassword в LSP).
Смотри страницу mysqldump для того, чтобы узнать все параметры командной строки.
На выходе можно сразу создать архив Wikipedia:ru:gzip, чтобы уменьшить размер
mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz
Some newer versions of MySQL might show an error about tablespaces and PROCESS privilege.
MediaWiki does not use tablespaces.
The solution is to add the --no-tablespaces
option to the command:
mysqldump --no-tablespaces -h hostname -u userid -p dbname | gzip > backup.sql.gz
Похожая команда может быть использована для создания XML файла, если добавить параметр --xml
.
mysqldump -h hostname -u userid -p --xml dbname > backup.xml
и сжать файл используя gzip
mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz
Необходимо помнить, что некоторые системные компоненты в виде файлов необходимы всегда, например, изображения, лого и расширения.
Запуск mysqldump при помощи Cron
Cron — классический демон выполнения заданий в unix-подобных ОС. Cron позволяет пользователям создавать задания (на выполнение команд или скриптов), которые нужно выполнять в определённое время или даты.
Пример команды которую вы можете запустить через crontab выглядит так:
nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz
nice -n 19
понижает приоритет процесса.
Установите правильные значения для переменных $USER
, $PASSWORD
, $DATABASE
. Будет создан файл ежедневной копии базы данных. Если вы сохраняете файлы и расширения таким образом то вы можете использовать метод предложенный на другой странице.
Если Вы хотите добавить задание сохранения базы в планировщик Cron через Cpanel, то вы должны экранировать символ «%»
/usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz
В противном случае, Вы получите ошибку:
/bin/sh: -c: line 0: unexpected EOF while looking for matching `'' /bin/sh: -c: line 1: syntax error: unexpected end of file
Таблицы
Некоторые выгружаемые таблицы имеют разную степень временности. Таким образом, для экономии места на диске (помимо сжатия gzip), можно не копировать данные из временных таблиц, хотя сами таблицы должны быть в дампе. Однако, при определенных обстоятельствах, необходимость перестраивать все эти данные может перевесить желание сэкономить дисковое пространство (например, на большой вики, где скорость восстановления имеет первостепенное значение).
Обратитесь в список рассылки — раздел «mysql5 binary schema» по данному вопросу.
Преобразование кодировки Latin-1 в UTF-8
Смотри раздел страницы обновления для того, чтобы узнать, как это делается. Также смотри страницу обсуждения для того, чтобы узнать, как работать с кодировками в целом.
PostgreSQL
Вы можете использовать утилиту pg_dump
для резервного копирования MediaWiki на PostgreSQL. Например:
pg_dump mywiki > mywikidump.sql
скопирует базу mywiki
в файл mywikdump.sql.
Чтобы восстановиться из копии:
psql mywiki -f mywikidump.sql
Вы можете также скопировать глобальную информацию, например, пользователей базы:
pg_dumpall --globals > postgres_globals.sql
SQLite
If your wiki is currently offline, its database can be backed up by simply copying the database file.
Otherwise, you should use a maintenance script: php maintenance/SqliteMaintenance.php --backup-to <backup file name>
, which will make sure that operation is atomic and there are no inconsistencies.
If your database is not really huge and server is not under heavy load, users editing the wiki will notice nothing but a short lag.
Users who are just reading will not notice anything in any case.
phpMyAdmin
Переведите свою вики в режим только для чтения, добавив $wgReadOnly = 'Site Maintenance';
в LocalSettings.php.
Find the wiki database in LocalSettings.php. Here is an example of what this looks like in LocalSettings.php:
## Database settings
$wgDBtype = "mysql";
$wgDBserver = "localhost";
$wgDBname = "sashtmax_mw19999";
$wgDBuser = "sashtmax_mw19999";
$wgDBpassword = "S7[88p]jJJ";
- Откройте браузер по вашей ссылке phpmyadmin, авторизуйтесь, выберите базу данных вики.
- Выберите Экспорт. Убедитесь, что все элементы в разделе «Экспорт» выделены, а также убедитесь, что выделена структура (важно сохранить структуру таблицы). При необходимости установите флажок Добавить DROP TABLE, чтобы удалить существующие ссылки при импорте. Убедитесь, что данные проверены.
- Select zipped.
- Затем нажмите Вперёд и сохраните файл резервной копии.[1]
- Удалите
$wgReadOnly = 'Site Maintenance';
из LocalSettings.php
Необходимо помнить, что некоторые системные компоненты в виде файлов необходимы всегда, например, изображения, лого и расширения.
Внешние ссылки
- В качестве учебного пособия можно посмотреть MySQL Backup/Restore Tutorial
- Резервное копирование базы данных
HeidiSQL (alternative to phpMyAdmin)
HeidiSQL — похожая на phpMyAdmin, но менее строгая версия бесплатного phpMyAdmin. HeidiSQL requires a direct database connection, where some hosts may only offer web interfaces (phpMyAdmin) to firewalled databases.
Файловая система
MediaWiki хранит другие компоненты Вики в виде файлов, что более удобно, чем вставка в базу данных.
The most important of these are:
- LocalSettings.php
- uploaded files in the
images/
directory (including deleted files, thumbnails, and rendered math and SVG images, if applicable).
Лучшим методом хранения таких файлов — архивы типа tar
, которые могут быть сжаты. Для Windows можно использовать такие утилиты, как WinZip или 7-Zip.
Варианты для Linux, если вики хранится в директории /srv/www/htdocs/wiki
tar zcvhf wikidata.tgz /srv/www/htdocs/wiki
Должна быть резервная копия всей папки wiki в директории htdocs, если используется XAMPP.
Configuration files
LocalSettings.php is the most important of these, but a wiki might also have things like .htaccess
or other web server configuration files that should be backed up.
Загруженные файлы
Files uploaded to the wiki are by default put into the images/
directory, separated into subdirectories such as images/8/8f
.
There are also other directories such as images/archive/
and images/deleted/
.
These should all be backed up.
The images/thumb/
can be backed up along with everything else, but can optionally be excluded in order to save backup space.
This directory stores the derived thumbnails of images and other files; generally multiple thumbnails per wiki file.
After restoring from backup, these thumbnails will be recreated as required (although depending on $wgGenerateThumbnailOnParse this may need to be a manual process).
Резервная копия содержимого вики (XML dump)
Для дополнения дампа базы данных рекомендуется выполнять XML дапм. В XML дамп входит содержимое wiki-страниц и всех их ревизий (информация о логинаx пользователей, журналы, метаданные изображений в xml дампе не хранятся).
XML dumps are less likely to cause problems with character encoding, as a means of transferring large amounts of content quickly, and can easily be used by third party tools, which makes XML dumps a good fallback should your main database dump become unusable.
Чтобы создать дамп XML, используйте инструмент командной строки dumpBackup.php
, расположенный в каталоге maintenance
вашей установки MediaWiki.
См. Manual:dumpBackup.php для более детальной информации.
Вы также можете создать дамп XML для определенного набора страниц в Интернете, используя Special:Export, хотя попытка выгрузить большое количество страниц через этот интерфейс обычно приводит к тайм-ауту.
Для импорта XML-дампа в wiki используйте инструмент коммандной строки importDump.php
.
для небольшого набора данных вы можете использовать Special:Import через браузер (по умолчанию эта функция доступна только sysop группе).
См. Manual:Importing XML dumps для более детальной информации.
Without shell access to the server
If you have no shell access, use the MediaWiki Client Tools' MediaWiki Scraper dumpgenerator script, a Python 3.x port of the WikiTeam Python 2.7 dumpgenerator.py script. It is run from the command-line in a terminal.
The XML dump can include full or only most recent page history.
The images dump will contain all file types with associated descriptions.
The siteinfo.json
and SpecialVersion.html
files will contain information about wiki features such as the installed extensions and skins.
User account information won't be preserved.
Full instructions are at the Mediawiki Client Tools' Mediawiki Scraper GitHub repository.
See also Meta:Data dumps.
Скрипты
- неофициальный скрипт резервного копирования Flominator: User:Flominator/Backup MW; создает резервную копию всех файлов и базы данных с возможной ротацией резервных копий. Shell script, last updated 2012.
- Another backup script that: dumps DB, files (just pictures by default, option to include all files in installation), and XML; puts the site into read-only mode; timestamps backups; and reads the charset from LocalSettings.
Script does not need to be modified for each site to be backed up. Does not (yet) rotate old backups. Usage: backup.sh -d backup/directory -w installation/directory
. Also provides a script to restore a backup restore.sh -a backup/directory/dated_archive.tar.gz -w installation/directory
. Shell script, last updated 2013.
- User:Darizotas/MediaWiki Backup Script for Windows - a script for backing up a Windows MediaWiki install. Note: Has no restore feature.
Shell script, last updated 2015.
- неофициальный скрипт резервного копирования User:Duesentrieb: Неофициальный скрипт резервного копирования Shell script, last updated 2016.
- Script to make periodical backups mw_backup. This script will make daily, weekly and monthly backups of your database and images directory when run as a daily cron job.
PHP script, last updated 2017.
- Another unofficial MediaWiki backup script for Windows by Lanthanis that: exports the pages of specified namespaces as an XML file; dumps specified database tables; and adds further specified folders and files to a ZIP backup file.
Can be used with Windows task scheduler. Last updated 2019.
- WikiTeam tools - if you do not have server access (e.g. your wiki is in a free wikifarm), you can generate an XML dump and an image dump using dumpgenerator from WikiTeam tools, (Python 2). See some saved wikis.
Python 2 script.
- Mediawiki Scraper - if you do not have server access (e.g. your wiki is in a free wikifarm), you can generate an XML dump and an image dump using dumpgenerator from Mediawiki Client Tools, Python 3 script, last update 2023.
Расширения
- Extension:DumpsOnDemand – Allows users to generate and download database dumps
- Extension:DataDump – Allows users to generate and download XML and file/image dumps
См. также
- Справка:Экспорт is a quick and easy way to save all pages on your wiki.
- Руководство: Восстановление вики-страницы из резервной копии
- Руководство:Перенос вики-сайта
- Manual:Обновление
- Руководство:Восстановление кода вики из кэшированного HTML — if you don't have a successful backup
- Exporting all the files of a wiki