Help:Export/ja

ウィキページは、別に設置した MediaWiki に取り込むために、あるいはコンテンツを分析するといった別のことに利用するために、特別な XML 形式で書き出すことができます. ページ以外をエクスポートするにはm:Syndication feedsを、ページのインポートには をご参照ください. (訳注：フィードも参照. )

書き出しの方法
ページを書き出す方法が少なくとも 4 つあります:


 * 記事の名前を特別:ページの書き出し内の枠に貼り付けるか、 を使用します.
 * バックアップスクリプト  は、すべてのウィキページを XML ファイルにダンプします.    は MediaWiki 1.5 以降でのみ動作します.  このスクリプトを実行するには、サーバに直接アクセスする必要があります.  https://dumps.wikimedia.org/ でウィキメディアのプロジェクト群のダンプを定期的に提供します.
 * 注記：AdminSettings.php の設定によりdumpBackup.php が正しく走る場合があります. 詳細情報は MediaWiki を参照してください.
 * OAI-PMH-インターフェースでは、特定の時点以降に改変された複数ページを定期的に取り込みます. ただしウィキメディアのプロジェクト群で、このインターフェースを公的に採用していないものもあります.  をご参照ください (訳注：[:m:Wikimedia_update_feed_service 転送先]).  OAI-PMH には書き出した記事の実体を包むラッパー書式があります.
 * ここでは説明しませんが、Python Wikipedia Robot Framework を使用.

既定では特定のページの最新の特定版のみ含みます. オプションとして、日付、時刻、利用者名や編集要約欄の記述とともに全ての版を入手できます. オプションとして全テンプレートの最新版 (直接もしくは間接的に呼ぶ) も、書き出します.

さらに SQL データベースの複写も可能です. これはMediaWiki 1.5 以前の情報で、ここでは詳細を扱いませんが、データベースのダンプの過去の入手方法です.

「特別：ページの書き出し」の使用
To export all pages of a namespace, for example.

1. 書き出すページの名前を取得する
I feel an example is better because the description below feels quite unclear.


 * 1) 特別:全ページに行き、希望する記事/ファイルを選びます.
 * 2) ページ名の一覧をテキストエディタにコピーします.
 * 3) すべてのページ名を別々の行に配置します.
 * 4) You can achieve that relatively quickly if you copy the part of the rendered page with the desired names, and paste this into say MS Word - use paste special as unformatted text - then open the replace function (CTRL+h), entering ^t in Find what, entering ^p in Replace with and then hitting Replace All button. (This relies on tabs between the page names; these are typically the result of the fact that the page names are inside td-tags in the html-source.)
 * 5) The text editor Vim also allows for a quick way to fix line breaks: after pasting the whole list, run the command :1,$s/\t/\r/g to replace all tabs by carriage returns and then :1,$s/^\n//g to remove every line containing only a newline character.
 * 6) Another approach is to copy the formatted text into any editor exposing the html. Remove all   and   tags and replace all   tags to    and   tags to    the html will then be parsed into the needed format.
 * 7) If you have shell and mysql access to your server, you can use this script:

mysql -umike -pmikespassword -hlocalhost wikidbname select page_title from wiki_page where page_namespace=0 EOF

''Note, replace mike and mikespassword with your own. Also, this example shows tables with the prefix wiki_''


 * 1) Prefix the namespace to the page names (e.g. 'Help:Contents'), unless the selected namespace is the main namespace.
 * 2) Repeat the steps above for other namespaces (e.g. Category:, Template:, etc.)

A similar script for PostgreSQL databases looks like this:

$ psql -At -U wikiuser -h localhost wikidb -c "select page_title from mediawiki.page"

''Note, replace wikiuser with your own, the database will prompt you for a password. This example shows tables without the prefix wiki_ and with the namespace specified as part of the table name.''

Alternatively, a quick approach for those with access to a machine with Python installed:


 * 1) Go to Special:Allpages and choose the desired namespace.
 * 2) Save the entire webpage as index.php.htm. Some wikis may have more pages than will fit on one screen of AllPages; you will need to save each of those pages.
 * 3) Run export_all_helper.py in the same directory as the saved file. You may wish to pipe the output to a file; e.g.   to send it to a file named "main".
 * 4) Save the page names output by the script.

2. Perform the export
and finally...
 * Go to Special:Export and paste all your page names into the textbox, making sure there are no empty lines.
 * Click 'Submit query'
 * Save the resulting XML to a file using your browser's save facility.
 * Open the XML file in a text editor. Scroll to the bottom to check for error messages.

Now you can use this XML file to perform an import.

完全な履歴の書き出し
A checkbox in the Special:Export interface selects whether to export the full history (all versions of an article) or the most recent version of articles. A maximum of 100 revisions are returned; other revisions can be requested as detailed in.

書き出しの形式
The format of the XML file you receive is the same in all ways. It is codified in XML Schema at https://www.mediawiki.org/xml/export-0.10.xsd This format is not intended for viewing in a web browser. Some browsers show you pretty-printed XML with "+" and "-" links to view or hide selected parts. Alternatively the XML-source can be viewed using the "view source" feature of the browser, or after saving the XML file locally, with a program of choice. If you directly read the XML source it won't be difficult to find the actual wikitext. If you don't use a special XML editor "<" and ">" appear as &amp;lt; and &amp;gt;, to avoid a conflict with XML tags; to avoid ambiguity, "&amp;" is coded as "&amp;amp;".

In the current version the export format does not contain an XML replacement of wiki markup (see Wikipedia DTD for an older proposal). You only get the wikitext as you get when editing the article.

DTD
Here is an unofficial, short Document Type Definition version of the format. If you don't know what a DTD is just ignore it.

XML 出力の手順
XML 出力を扱えるツールは多いです. 大量のページ (例えばダンプを丸ごと) の処理をしたくてもメインメモリに文書を取り込めないと、対策としてSAX ベースのパーサを使うか、イベント固有の方法に頼るしかないかもしれません.

正規表現で直接、XML コードの当該部分を処理することもできます. 他の方法より時間は節約できても、管理が困難で非推奨です.

ここに XML 書き出しに使える方法とツールを追記してください.


 * XML ダンプを処理する Rust のクレート Parse Mediawiki Dump (crates.io). ウィキ文を樹形要素に処理する Rust のクレート Parse Wiki Text (crates.io).
 * Perlのモジュールで XML ダンプファイルを処理するには、Parse::MediaWikiDump.
 * Stream ベースの XML 変換 - m:Processing MediaWiki XML with STX
 * 軽い export-historyflow-expand.py というPython プログラムを当てておき、m:IBM History flow project で読み込む.

詳細と実用のヒント

 * 名前空間名に接頭辞が必要かどうか調べるには、 をご参照ください
 * 次の制限条件が予測されます.
 * (保護されたページ)

書き出しをする理由
単純に動的なデータベース ダウンロードを使えば済むのでは？

Suppose you are building a piece of software that at certain points displays information that came from Wikipedia. If you want your program to display the information in a different way than can be seen in the live version, you'll probably need the wikicode that is used to enter it, instead of the finished html.

Also if you want to get all of the data, you'll probably want to transfer it in the most efficient way that's possible. The Wikimedia servers need to do quite a bit of work to convert the wikicode into html. That's time consuming both for you and for the Wikimedia servers, so simply spidering all pages is not the way to go.

XML 形式で随時、記事を1件ずつ開くには以下にリンクします.

Special:Export/Title_of_the_article