Help:Export/ja

ウィキページは、別に設置した MediaWiki に取り込むために、あるいはコンテンツを分析するといった別のことに利用するために、特別な XML 形式で書き出すことができます. ページ以外をエクスポートするにはm:Syndication feedsを、ページのインポートには をご参照ください. (訳注：フィードも参照. )



書き出しの方法
ページを書き出す方法が少なくとも 4 つあります:


 * 記事の名前を特別:ページの書き出し内の枠に貼り付けるか、 を使用します.
 * バックアップスクリプト  は、すべてのウィキページを XML ファイルにダンプします.    は MediaWiki 1.5 以降でのみ動作します.  このスクリプトを実行するには、サーバに直接アクセスする必要があります.  https://dumps.wikimedia.org/ でウィキメディアのプロジェクト群のダンプを定期的に提供します.
 * 注記：AdminSettings.php の設定によりdumpBackup.php が正しく走る場合があります. 詳細情報は m:MediaWiki を参照してください.
 * OAI-PMH-インターフェースでは、特定の時点以降に改変された複数ページを定期的に取り込みます. ただしウィキメディアのプロジェクト群で、このインターフェースを公的に採用していないものもあります.  をご参照ください (訳注：[:m:Wikimedia_update_feed_service 転送先]).  OAI-PMH には書き出した記事の実体を包むラッパー書式があります.
 * ここでは説明しませんが、Pywikibot フレームワークを使用します.

既定では特定のページの最新の特定版のみ含みます. オプションとして、日付、時刻、利用者名や編集要約欄の記述とともに全ての版を入手できます. オプションとして全テンプレートの最新版 (直接もしくは間接的に呼ぶ) も、書き出します.

さらに SQL データベースの複写も可能です. これは、MediaWiki 1.5 以前でデータベースのダンプを利用できるようにした方法であり、ここではこれ以上説明しません.



「特別：ページの書き出し」の使用
以下の例のように特定の名前空間の全ページを書き出す場合.



書き出すページの名前を取得する
以下の説明が非常に不明瞭であるため、例の方がわかりやすいと思います.


 * 1) 特別:全ページに行き、希望する記事/ファイルを選びます.
 * 2) ページ名の一覧をテキストエディタにコピーします.
 * 3) すべてのページ名を別々の行に配置します.
 * 4) 特定の名前を含む部分のレンダリングされたページをコピーして、それを Microsoft Word などに貼り付ける (貼り付けの際は、特殊貼り付けとして書式なしテキストを使用する) と、比較的短時間でそれを実現できます. その後、置換機能 (Ctrl+H) を開き、「検索する文字列」に ^t を入力し、「置換後の文字列」に ^p を入力し、最後に「すべて置換」ボタンを押します.  (この方法は、ページ名の間にタブがあることを前提としています. 通常、これはページ名が HTML ソース内の td タグ内にあるためです. )
 * 5) テキスト エディター Vim では、改行を修正するための簡単な方法もあります. リスト全体を貼り付けた後、コマンド :1,$s/\t/\r/g を実行してすべてのタブ文字を改行に置き換え、次にコマンド :1,$s/^\n//g を実行して改行文字のみを含むすべての行を除去します.
 * 6) 別の方法は、書式設定されたテキストを HTML を表示するエディターにコピーすることです.   および  のタグをすべて除去し、 タグを   に、 タグを   に置換すると、HTML が必要な書式に構文解析されます.
 * 7) サーバーにシェルと MySQL へのアクセス権がある場合、以下のスクリプトを使用できます:

mysql -umike -pmikespassword -hlocalhost wikidbname select page_title from wiki_page where page_namespace=0 EOF

''注: mike と mikespassword を自分のものに置き換えてください. また、この例ではテーブルの接頭辞として wiki_ を使用しています. ''


 * 1) 選択した名前空間が標準名前空間以外の場合は、ページ名に名前空間を前置します (例: 「Help:Contents」).
 * 1) Repeat the steps above for other namespaces (e.g. Category:, Template:, etc.)

A similar script for PostgreSQL databases looks like this:

$ psql -At -U wikiuser -h localhost wikidb -c "select page_title from mediawiki.page"

'' Note, replace wikiuser with your own, the database will prompt you for a password. This example shows tables without the prefix wiki_ and with the namespace specified as part of the table name. ''

Alternatively, a quick approach for those with access to a machine with Python installed:

Some wikis may have more pages than will fit on one screen of AllPages; you will need to save each of those pages. You may wish to pipe the output to a file; e.g.  to send it to a file named "main".
 * 1) Go to Special:Allpages and choose the desired namespace.
 * 1) Save the entire webpage as index.php.htm.
 * 1) Run export_all_helper.py in the same directory as the saved file.
 * 1) Save the page names output by the script.

Perform the export

 * Go to Special:Export and paste all your page names into the textbox, making sure there are no empty lines.
 * Click 'Submit query'
 * Save the resulting XML to a file using your browser's save facility.

and finally...

Scroll to the bottom to check for error messages.
 * Open the XML file in a text editor.

Now you can use this XML file to perform an import.



完全な履歴の書き出し
Exporting the revision history may be desirable to retain authorship information and attribution. A checkbox in the Special:Export interface selects whether to export the full history (all versions of an article) or the most recent version of articles. A maximum of 100 revisions are returned; other revisions can be requested as detailed in.



書き出しの形式
XML ファイルとして入手する形式はあらゆる点で統一がされいます. https://www.mediawiki.org/xml/export-0.10.xsd にスキーマ言語 としてコードが公開されています. この形式は、ウェブブラウザで表示することを前提にしていません. ブラウザの中には、「+」や「-」のリンクを用意し、きちんと整った体裁で XML を表示するものがあります. あるいはまた XML-ソースの内容を閲覧する代替の方法として、ウェブブラウザの「ソースを見る」機能を使うか、あるいはプログラムを選んでローカルに XML ファイルを保存して以降、表示させます. もし直接 XML を読める場合は、実際に当該するウィキ文を探し出すのも難しくはありません. If you don't use a special XML editor "<" and ">" appear as &amp;lt; and &amp;gt;, to avoid a conflict with XML tags; to avoid ambiguity, "&amp;" is coded as "&amp;amp;".

In the current version the export format does not contain an XML replacement of wiki markup (see Wikipedia DTD for an older proposal). 記事を編集するときと同じようにウィキテキストを取得します.

DTD
非公式ではありますが、書式を短くまとめた文書型定義 Document Type Definition をご紹介します. もし DTD が何かわからなくても読み飛ばしてください.



XML 出力の手順
XML 出力を扱えるツールは多いです. 大量のページ (例えばダンプを丸ごと) の処理をしたくてもメインメモリに文書を取り込めないと、対策としてSAX ベースのパーサを使うか、イベント固有の方法に頼るしかないかもしれません.

正規表現で直接、XML コードの当該部分を処理することもできます. 他の方法より時間は節約できても、管理が困難で非推奨です.

ここに XML 書き出しに使える方法とツールを追記してください.


 * XML ダンプを処理する Rust のクレート Parse MediaWiki Dump (crates.io).
 * ウィキ テキストを要素のツリーへ構文解析する Rust のクレート Parse Wiki Text (crates.io).
 * Perlのモジュールで XML ダンプファイルを処理するには、Parse::MediaWikiDump.
 * Stream ベースの XML 変換 - m:Processing MediaWiki XML with STX
 * 軽い export-historyflow-expand.py というPython プログラムを当てておき、m:IBM History flow project で読み込む.



詳細と実用のヒント

 * 名前空間名に接頭辞が必要かどうか調べるには、 をご参照ください
 * 次の制限条件が予測されます.
 * - 保護されたページ



書き出しをする理由
単純に動的データベースのダウンロードを使えば済むのでは？

ある時点でのウィキペディアからの情報を表示するソフトウェアを構築しているとします. あなたのプログラムで、異なる方法でライブバージョンの情報を表示する場合には、完成したhtmlではなく、入力に使用されるウィキコードが必要になる可能性があります.

また、すべてのデータを取得したい場合は、可能な限り最も効率的な方法でデータを移す必要があります. ウィキメディアサーバーは、ウィキコードをHTMLに変換するためにかなりの作業を行う必要があります. これはあなたにとってもウィキメディアサーバーにとっても時間がかかるので、単にすべてのページをスパイダーするだけではうまくいきません.

XML 形式で随時、記事を1件ずつ開くには以下にリンクします.

Special:Export/Title_of_the_article



関連項目

 * Data portability on English Wikipedia
 * Data portability on English Wikipedia
 * Data portability on English Wikipedia
 * Data portability on English Wikipedia