Help:Export/tr

Viki sayfaları özel bir XML biçiminde içe aktarma yüklemesi başka bir MediaWiki kurulumuna aktarılabilir (bu işlev hedef vikide etkinleştirildiyse ve kullanıcı orada bir hizmetli ise) veya içeriği içeriği analiz etmek için başka şekilde kullanın. Ayrıca sayfalar dışında başka bilgileri dışa aktarma ve içe aktarmalarda aktarma için m:Sendikasyon beslemelerine bakın.

Nasıl dışa aktarılır
Sayfaları dışa aktarmanın en az dört yolu vardır:


 * Special:Export içindeki kutuya makalelerin adını yapıştırın veya kullanın.
 * Yedek betiği  tüm wiki sayfalarını bir XML dosyasına döker.   yalnızca MediaWiki 1.5 veya daha yeni sürümlerinde çalışır. Bu betiğini çalıştırmak için sunucuya doğrudan erişiminizin olması gerekir. Wikimedia projelerinin dökümü düzenli olarak https://dumps.wikimedia.org/ sağlanıyor.
 * Not: dumpBackup.php dosyasını başarıyla çalıştırmak için AdminSettings.php dosyasını yapılandırmanız gerekebilir. Daha fazla bilgi için MediaWiki sayfasına bakın.
 * OAI-PMH - belirli bir zamandan beri değiştirilen sayfaları düzenli olarak getirmek için bir arayüz vardır. Wikimedia projeleri için bu arayüz herkese açık değildir; sayfasına bakın. OAI-PMH, dışa aktarılan makalelerin çevresinde bir sarmalayıcı biçimi içerir.
 * Python çerçevesini kullanın. Bu burada açıklanmayacak.

Varsayılan olarak bir sayfanın yalnızca geçerli sürümü eklenir. İsteğe bağlı olarak tarih, saat, kullanıcı adı ve düzenleme özeti içeren tüm sürümleri alabilirsiniz. İsteğe bağlı olarak, doğrudan veya dolaylı olarak adlandırılan tüm şablonların en son sürümü de dışa aktarılır.

Ayrıca SQL veritabanını kopyalayabilirsiniz. Veritabanının dökümleri MediaWiki 1.5'ten önce bu şekilde kullanıma sunuldu ve burada daha fazla açıklanmayacak.

'Special:Export' kullanımı
Örneğin, bir ad alanının tüm sayfalarını dışa aktarmak için.

1. Dışa aktarılacak sayfaların adlarını alın
Bir örnek daha iyi hissediyorum, çünkü aşağıdaki açıklama oldukça net değil.

Remove all  and   tags and replace all   tags to    and   tags to    the html will then be parsed into the needed format.
 * 1) Special:Allpages'a gidin ve istediğiniz maddeyi/dosyayı seçin.
 * 2) Sayfa adları listesini bir metin düzenleyicisine kopyalayın
 * 3) Tüm sayfa adlarını ayrı satırlara yerleştirin
 * 4) Oluşturulan sayfanın bir kısmını istenen adlarla kopyalayıp bunu MS Word'e yapıştırırsanız bunu nispeten hızlı bir şekilde elde edebilirsiniz - biçimlendirilmemiş metin olarak özel macunu kullan - sonra değiştirme işlevini (CTRL+h) açın, ^t bul, Değiştir ile ^p girip Tümünü Değiştir düğmesine basın. (Bu, sayfa adları arasındaki sekmelere dayanır; bunlar genellikle sayfa adlarının html kaynağındaki td etiketlerinin içinde olmasının sonucudur.)
 * 1) The text editor Vim also allows for a quick way to fix line breaks: after pasting the whole list, run the command :1,$s/\t/\r/g to replace all tabs by carriage returns and then :1,$s/^\n//g to remove every line containing only a newline character.
 * 1) Another approach is to copy the formatted text into any editor exposing the html.
 * 1) If you have shell and mysql access to your server, you can use this script:

mysql -umike -pmikespassword -hlocalhost wikidbname select page_title from wiki_page where page_namespace=0 EOF

'' Note, replace mike and mikespassword with your own. Also, this example shows tables with the prefix wiki_ ''


 * 1) Prefix the namespace to the page names (e.g. 'Help:Contents'), unless the selected namespace is the main namespace.
 * 1) Repeat the steps above for other namespaces (e.g. Category:, Template:, etc.)

A similar script for PostgreSQL databases looks like this:

$ psql -At -U wikiuser -h localhost wikidb -c "select page_title from mediawiki.page"

'' Note, replace wikiuser with your own, the database will prompt you for a password. This example shows tables without the prefix wiki_ and with the namespace specified as part of the table name. ''

Alternatively, a quick approach for those with access to a machine with Python installed:

Some wikis may have more pages than will fit on one screen of AllPages; you will need to save each of those pages. You may wish to pipe the output to a file; e.g.  to send it to a file named "main".
 * 1) Go to Special:Allpages and choose the desired namespace.
 * 1) Save the entire webpage as index.php.htm.
 * 1) Run export_all_helper.py in the same directory as the saved file.
 * 1) Save the page names output by the script.

2. Perform the export

 * Go to Special:Export and paste all your page names into the textbox, making sure there are no empty lines.
 * Click 'Submit query'
 * Save the resulting XML to a file using your browser's save facility.

and finally...

Scroll to the bottom to check for error messages.
 * Open the XML file in a text editor.

Now you can use this XML file to perform an import.

Exporting the full history
A checkbox in the Special:Export interface selects whether to export the full history (all versions of an article) or the most recent version of articles. A maximum of 100 revisions are returned; other revisions can be requested as detailed in.

Export format
The format of the XML file you receive is the same in all ways. It is codified in XML Schema at https://www.mediawiki.org/xml/export-0.10.xsd This format is not intended for viewing in a web browser. Some browsers show you pretty-printed XML with "+" and "-" links to view or hide selected parts. Alternatively the XML-source can be viewed using the "view source" feature of the browser, or after saving the XML file locally, with a program of choice. If you directly read the XML source it won't be difficult to find the actual wikitext. If you don't use a special XML editor "<" and ">" appear as &amp;lt; and &amp;gt;, to avoid a conflict with XML tags; to avoid ambiguity, "&amp;" is coded as "&amp;amp;".

In the current version the export format does not contain an XML replacement of wiki markup (see Wikipedia DTD for an older proposal). You only get the wikitext as you get when editing the article.

DTD
Here is an unofficial, short Document Type Definition version of the format. If you don't know what a DTD is just ignore it.

Processing XML export
Many tools can process the exported XML. If you process a large number of pages (for instance a whole dump) you probably won't be able to get the document in main memory so you will need a parser based on SAX or other event-driven methods.

You can also use regular expressions to directly process parts of the XML code. This may be faster than other methods but not recommended because it's difficult to maintain.

Please list methods and tools for processing XML export here:

Parse Wiki Text (crates.io) is a Rust crate to parse wiki text into a tree of elements.
 * Parse MediaWiki Dump (crates.io) is a Rust crate to parse XML dumps.
 * Parse::MediaWikiDump is a perl module for processing the XML dump file.
 * m:Processing MediaWiki XML with STX - Stream based XML transformation
 * The m:IBM History flow project can read it after applying a small Python program, export-historyflow-expand.py.

Details and practical advice

 * To determine the namespace of a page you have to match its title to the prefixes defined in
 * Possible restrictions are
 * - protected pages

Why to export
Why not just use a dynamic database download?

Suppose you are building a piece of software that at certain points displays information that came from Wikipedia. If you want your program to display the information in a different way than can be seen in the live version, you'll probably need the wikicode that is used to enter it, instead of the finished html.

Also if you want to get all of the data, you'll probably want to transfer it in the most efficient way that's possible. The Wikimedia servers need to do quite a bit of work to convert the wikicode into html. That's time consuming both for you and for the Wikimedia servers, so simply spidering all pages is not the way to go.

To access any article in XML, one at a time, link to:

Special:Export/Title_of_the_article