Manual:Backing up a wiki/es

Es importante que de forma periódica hagas una copia de seguridad de los datos de tu wiki. Esta página describe este proceso para un wiki típico basado en MediaWiki; probablemente quieras hacerte tus propios scripts que se encarguen de esto automáticamente, o usar una frecuencia distinta para esta tarea según el tamaño de tu wiki y tus necesidades particulares.

Sumario
MediaWiki guarda información importante en dos lugares:
 * La base de datos
 * Las páginas y su contenido, los usuarios y sus preferencias personales, metadatos, índice de búsqueda, etc.


 * Sistema de archivos
 * Archivos de configuración del software, apariencias personalizadas, extensiones, imágenes y archivos multimedia (incluyendo los archivos borrados), etc.

Deberías poner tu wiki en modo lectura antes de empezar a crear la copia: mira $wgReadOnly. Esto garantizará que todas las partes de tu copia de seguridad sean consistentes, aunque algunas de las extensiones que tengas instaladas puedan escribir información al disco de todos modos.

Transferencia de archivos
Tendrás que elegir un método para transferir los archivos desde el servidor en el que se encuentran:


 * En el caso de información que no sea privada, puedes simplemente publicarla en archive.org y/o en un directorio  de tu servidor web.
 * SCP (o WinSCP), SFTP/FTP o cualquier otro protocolo de transferencia con el que tengas experiencia o esté disponible.
 * La empresa que hospeda el wiki podría a lo mejor ofrecer una interfaz administrativa accesible con un navegador; consúltales.

Base de datos
La mayor parte de la información vital que contiene el wiki se encuentra en la base de datos, de la que normalmente es bastante sencillo hacer una copia de seguridad. Al usar la interfaz de comunicación integrada para MySQL, la base de datos puede volcarse en un archivo script que puede usar más tarde para recrear desde cero la base de datos y toda la información que contiene.

Mysqldump desde la línea de comandos
La forma más práctica de crear un volcado de la base de datos que quieres copiar es usar la herramienta de volcado estándar de MySQL mysqldump desde la línea de comandos. Asegúrate de usar los parámetros correctos, o tendrás problemas para restaurar la base de datos. Dependiendo del tamaño de la base de datos, mysqldump puede tardar un tiempo considerable.

Antes de nada, añade esta línea a LocalSettings.php: $wgReadOnly = 'Dumping Database, Access will be restored shortly'; Puedes quitar esa línea en cuanto concluya el proceso de volcado de información.

Ejemplo del comando a ejecutar en la línea de comandos de Linux/UNIX: mysqldump -h hostname -u userid -p --default-character-set=whatever dbname > backup.sql Sustituye,  ,   y   según corresponda. Encontrarás el valor de los cuatro parámetros en tu archivo LocalSettings.php. será el valor de $wgDBserver; de forma predeterminada es localhost. será el valor de $wgDBuser, mientras que el valor adecuado de  podrás encontrarlo en $wgDBTableOptions, después de. Si no especificas un valor para, mysqldump probablemente usará utf8 de forma predeterminada, o bien latin1 en el caso de una versión más antigua de MySQL. Por último,  debería ser el valor de $wgDBname. Una vez introducida la orden, mysqldump te pedirá la contraseña para acceder al servidor (que corresponde al valor de $wgDBpassword).

Mira mysqldump para ver una lista completa de los parámetros que admite el comando.

La salida de mysqldump puede pasarse por tubería a gzip para producir un archivo de salida más pequeño, de este modo: mysqldump -h hostname -u userid -p dbname | gzip > backup.sql.gz

Puede usarse una orden similar de mysqldump para producir salida en formato XML, indicando la opción --xml: mysqldump -h hostname -u userid -p --xml dbname > backup.xml y comprimir el archivo enviándolo por tubería a gzip: mysqldump -h hostname -u userid -p --xml dbname | gzip > backup.xml.gz

Recuerda hacer copia también de los componentes del sistema de archivos que también forman parte del wiki y que puedes necesitar, como las imágenes, el logotipo y las extensiones.

Ejecutar mysqldump con Cron
En los sistemas que corren sistemas operativos tipo Unix, un Cron es un administrador regular de procesos en segundo plano que permite lanzar ciertos procesos (comandos o scripts de línea de comandos) de forma periódica o en determinadas fechas.

He aquí un ejemplo de comando que podrías lanzar desde un crontab:  nice -n 19 mysqldump -u $USER --password=$PASSWORD $DATABASE -c | nice -n 19 gzip -9 > ~/backup/wiki-$DATABASE-$(date '+%Y%m%d').sql.gz El comando  reduce la prioridad del proceso.

Procura usar valores válidos con,   y. Este comando creará una copia de seguridad poniendo el día de la semana en el nombre del archivo, con lo cual tendrías una buena referencia de copias. Si quieres copiar también los archivos y las extensiones, quizá te interese ver esto.

Si quieres añadir esta tarea en Cron por medio de Cpanel, debes usar el carácter de escape "%": /usr/bin/mysqldump -u $USER --password=$PASSWORD $DATABASE -c | /bin/gzip > ~/backup/wiki-$DATABASE-$(date '+\%Y\%m\%d').sql.gz

De lo contrario obtendrás un error: /bin/sh: -c: line 0: unexpected EOF while looking for matching `'' /bin/sh: -c: line 1: syntax error: unexpected end of file

Tablas
Cuando se examinan de cerca, se percibe que algunas de las tablas volcadas presentan distintos grados de temporalidad. Así que, para ahorrar espacio (más allá de aplicar gzip), si bien estas tablas tienen que estar presentes para tener un volcado como es debido, no ocurre lo mismo con la información que contienen. Sin embargo, en determinadas circunstancias el inconveniente de tener que reconstruir toda esta información puede ser mayor que el ahorro de espacio en disco (por ejemplo, en un wiki muy grande donde la velocidad a la que se restaura información es un factor clave).

Mira el hilo mysql5 binary schema de la lista de correo donde se trata este asunto.

Conversión Latin-1 a UTF-8
Mira la sección correspondiente en la página que trata la actualización para ver información sobre este proceso. En la página de discusión también encontrarás más información en general sobre cómo trabajar con juegos de caracteres.

PostgreSQL
Puedes usar la herramienta code>pg_dump para hacer una copia de seguridad de una base de datos de MediaWiki basada en PostgreSQL. Por ejemplo: pg_dump mywiki > mywikidump.sql volcará la base de datos  en mywikidump.sql.

Para restaurar el volcado: psql mywiki -f mywikidump.sql

También te puede interesar volcar la información global, por ejemplo los usuarios de la base de datos:

pg_dumpall --globals > postgres_globals.sql

phpMyAdmin
Pon tu wiki en modo lectura añadiendo  a LocalSettings.php.

Sigue el enlace a tu página administrativa, identifícate y elige la base de datos del wiki (mira LocalSettings.php si tienes dudas). Elige Exportar. Asegúrate de que todos los elementos que puedes exportar están marcados, incluyendo Estructura (es importante mantener la estructura de las tablas). Opcionalmente marca también "Añadir DROP TABLE" para borrar las referencias existentes al importar. Asegúrate de que Datos está marcada. Elige "En zip". Finalmente, pulsa CONFIRMAR para guardar la copia de seguridad.

Elimina  de LocalSettings.php.

Recuerda hacer copia también de los componentes del sistemas de archivos del wiki que puedas necesitar, como las imágenes, el logotipo y las extensiones.

Enlaces externos

 * Para ver un tutorial, mira en Siteground: MySQL Export: How to backup your MySQL database?''
 * Backing up the Database

HeidiSQL
HeidiSQL es similar a phpMyAdmin, pero sin las limitaciones de la versión gratuita de phpMyAdmin. HeidiSQL necesita una conexión directa con la base de datos; algunos servidores sólo ofrecen interfaces web (phpMyAdmin) a bases de datos protegidas por cortafuegos.

Sistema de archivos
MediaWiki guarda otros componentes del wiki en el sistema de archivos cuando es más apropiado hacerlo así que insertarlos en la base de datos, por ejemplo en el caso de los archivos de configuración del sitio (,  (eliminado en MediaWiki 1.23)), los archivos de imágenes (incluyendo las imágenes borradas, las imágenes en miniatura y las imágenes SVG, si corresponde), además de las apariencias personalizadas, los archivos de las extensiones, etc.

El mejor método para hacer una copia de seguridad de estos archivos es almacenarlos por ejemplo en un archivo, que luego puede comprimirse si se desea. En Windows, pueden usarse aplicaciones como WinZip o 7-zip si se prefiere.

For Linux variants, assuming the wiki is stored in /srv/www/htdocs/wiki tar zcvhf wikidata.tgz /srv/www/htdocs/wiki It should be possible to backup the entire "wiki" folder in "htdocs" if using XAMPP.

Backup the content of the wiki (XML dump)
It is also a good idea to create an XML dump in addition to the database dump. XML dumps contain the content of the wiki (wiki pages with all their revisions), without the site-related data (they do not contain user accounts, image metadata, logs, etc).

XML dumps are less likely to cause problems with character encoding, as a means of transfering large amounts of content quickly, and are easily be used by third party tools, which makes XML dumps a good fallback should your main database dump become unusable.

To create an XML dump, use the command-line tool, located in the   directory of your MediaWiki installation. See Manual:dumpBackup.php for more details.

You can also create an XML dump for a specific set of pages online, using Special:Export, although attempting to dump large quantities of pages through this interface will usually time out.

To import an XML dump into a wiki, use the command-line tool. For a small set of pages, you can also use the Special:Import page via your browser (by default, this is restricted to the sysop group). As an alternative to  and , you can use MWDumper, which is faster, but requires a Java runtime environment.

See Manual:Importing XML dumps for more information.

Without shell access to the server
If you have no shell access, then use the WikiTeam Python script dumpgenerator.py from a DOS, Unix or Linux command-line. To run the script see the WikiTeam tutorial.

See also Data dumps.

Scripts

 * Unofficial backup script by User:Duesentrieb.


 * Unofficial backup script by Flominator; creates a backup of all files and the database, with optional backup rotation.


 * User:Darizotas/MediaWiki Backup Script for Windows - a script for backing up a Windows MediaWiki install. Note: Has no restore feature.


 * Unofficial web-based backup script, mw_tools, by Wanglong (allwiki.com); you can use it to back up your database, or use the backup files to recover the database, the operation is very easy.


 * WikiTeam tools - if you do not have server access (e.g. your wiki is in a free wikifarm), you can generate an XML dump and an image dump using WikiTeam tools (see some saved wikis)


 * Fullsitebackup


 * Another backup script that: dumps DB, files, and XML; puts the site into read-only mode; timestamps backups; and reads the charset from LocalSettings. Script does not need to be modified for each site to be backed up. Does not (yet) rotate old backups. Usage:


 * Script to make periodical backups mw_backup. This script will make daily, weekly and monthly backups of your database and images directory when run as a daily cron job.

Véase también

 * Manual:Restoring a wiki from backup
 * Manual:Trasladar un wiki
 * Manual:Actualización
 * Manual:Restoring wiki code from cached HTML (if you don't have a successful backup)