Wikidata Query Service/User Manual/tr

Vikiveri Sorgulama Hizmeti (WDQS), Vikiveri verilerine ayarlamak karşı sorgulama yapmanızı sağlayan bir SPARQL uç noktası sağlamak üzere tasarlanmış bir yazılım paketi ve kamu hizmetidir.

Bu sayfa veya diğer ilgili belgelendirme sayfaları buna göre güncellenecektir; hizmeti kullanıyorsanız bunları izlemeniz önerilir.

SPARQL Sorgularının örneklerini SPARQL örnekler sayfasında görebilirsiniz.

Veri ayarı
Vikiveri Sorgulama Hizmeti, RDF döküm biçimi belgelerinde açıklandığı gibi RDF'de temsil edilen Wikidata.org'dan alınan bir veri kümesi üzerinde çalışır.

Hizmetin veri kümesi, esas olarak performans nedenleriyle, RDF dökümleri tarafından üretilen veri kümesiyle tam olarak eşleşmiyor; belgeler, küçük bir dizi farkı açıklar.

Aynı verilerin haftalık dökümünü şuradan indirebilirsiniz:

https://dumps.wikimedia.org/wikidatawiki/entities/

Temel Bilgiler - Anlamsal Üçlü olarak da bilinen DPT'yi (Konu, Yüklem, Nesne) anlama
spo veya "özne, yüklem, nesne" üçlü olarak bilinir veya Vikiveri'de genellikle verilerle ilgili bir ifade olarak anılır.

"Amerika Birleşik Devletleri'nin başkenti Washington DC'dir" ifadesi "Birleşik Devletler" konusundan (Q30), ve bir "Washington DC" nesnesi (Q61) "sermaye" yükleminden (P36) oluşur. Bu ifade üç URI olarak temsil edilebilir:

Önekler sayesinde (aşağıya bakınız), aynı ifade daha özlü bir biçimde yazılabilir. İfadenin sonunu temsil etmek için sondaki noktaya dikkat edin.

/entity/ (wd:) Vikiveri varlığını (Q-sayı değerleri) temsil eder. /prop/direct/ (wdt:), "gerçek" bir özelliktir. İfadeye bakarken en sık bekleyeceğimiz bir değerdir. Doğruluk özelliklerine ihtiyaç vardır çünkü bazı ifadeler diğerlerinden "daha doğru" olabilir. Örneğin, "ABD'nin başkenti New York City'dir" ifadesi doğrudur, ancak yalnızca 1790 yılının tarihsel bağlamında. WDQS, hangi ifadelerin "doğru" olarak kullanılması gerektiğini belirlemek için sıralamayı kullanır.

Doğru ifadelere ek olarak, WDQS tüm ifadeleri saklar (hem doğru hem de değil), ancak aynı wdt: önekini kullanmazlar. ABD başkenti üç değere sahiptir: DC, Philadelphia ve New York. Ve bu değerlerin her birinin "niteleyicileri" vardır, her bir ifadenin kapsamını daraltan başlangıç ​​ve bitiş tarihleri ​​gibi ek bilgiler. Bu bilgiyi üçlü depoda depolamak için WDQS, esasen rastgele bir sayı olan otomatik bir "ifade" konusunu sunar:

Daha fazla bilgi için SPARQL eğitimi - niteleyicilere bakın.

spo ayrıca RDF veri yapılarını veya Blazegraph yüksek performanslı bir grafik veritabanı tarafından desteklenen Vikiveri Sorgu Hizmeti (WDQS) gibi herhangi bir grafik veritabanını veya üçlü depoyu sorgulamak için bir temel sözdizimi düzeni biçimi olarak kullanılır.

Üçlülerin (spo) gelişmiş kullanımları, üçlüleri diğer üçlülerin nesnesi veya öznesi olarak kullanmak da dahil!

Temel Bilgiler - Önekleri Anlama
Özneler ve yüklemler (üçlü sayının birinci ve ikinci değerleri) her zaman URI olarak saklanmalıdır. Örneğin, konu Evren (Q1) ise,    olarak depolanacaktır. Ön ekler, bu uzun URI'yi daha kısa bir biçimde yazmamıza izin verir: wd:Q1. Öznelerden ve yüklemlerden farklı olarak, nesne (üçlü'nün üçüncü değeri) bir URI veya bir hazır bilgi olabilir, ör. bir sayı veya bir dize.

WDQS, önek olarak bilinen birçok kısayol kısaltmasını anlar. Bazıları Vikiveri'ye dahildir, ör. wd, wdt, p, ps, bd ve diğerleri, rdf, skos, owl, schema gibi yaygın olarak kullanılan harici öneklerdir.

Aşağıdaki sorguda, "P279 = Q7725634" ifadesinin olduğu veya daha eksiksiz bir ifadeyle, nesnesi = "edebi eser" olan "alt sınıf" yüklemi olan konuları seçerek öğeleri istiyoruz.

Çıkış değişkenleri:

Uzantılar
Hizmet, standart SPARQL yeteneklerinin aşağıdaki uzantılarını destekler:

Etiket hizmeti
URI  ile özel hizmeti kullanarak, dil yedeğini kullanarak sorguladığınız varlıkların etiketini, diğer adını veya açıklamasını getirebilirsiniz. Hizmet, etiketleri almak istediğinizde çok faydalıdır, çünkü aksi takdirde aynı etkiyi elde etmek için ihtiyaç duyacağınız SPARQL sorgularının karmaşıklığını azaltır.

Servis iki moddan birinde kullanılabilir: el ve otomatik.

Otomatik modda, yalnızca hizmet şablonunu belirtmeniz gerekir, örn.:

ve WDQS otomatik olarak aşağıdaki gibi etiketler oluşturacaktır:


 * içindeki ilişkisiz bir değişken  olarak adlandırılırsa, WDQS,   değişkenindeki varlık için etiketi  üretir.
 * içindeki bir ilişkisiz değişken  olarak adlandırılırsa, WDQS,   değişkenindeki varlık için diğer adı  üretir.
 * içindeki bir ilişkisiz değişken  olarak adlandırılırsa, WDQS,   değişkenindeki varlık için açıklamayı  üretir.

Her durumda,  içindeki değişken bağlanmalıdır, aksi takdirde hizmet başarısız olur.

Otomatik mod yalnızca sorgunun projeksiyonunu denetler. Örneğin,  içinde yalnızca ilk etiket tanınır ve   otomatik mod tarafından hiç desteklenmez. Bu gibi durumlarda, el modu kullanmanız gerekecektir (aşağıya bakın).

Bir veya daha fazla  üçlüsü içeren etiket için tercih ettiğiniz dili/dilleri belirtirsiniz. Her dize, virgülle ayrılmış bir veya daha fazla dil kodu içerebilir. WDQS, dilleri belirttiğiniz sıraya göre değerlendirir. Belirtilen dillerden herhangi birinde etiket yoksa, varlığın Q-id'si (herhangi bir önek olmadan) etiketidir.

Vikiveri Sorgulama Hizmeti web sitesi,  öğesini otomatik olarak geçerli kullanıcı arayüzünün dil koduyla değiştirir. Örneğin, kullanıcının kullanıcı arayüzü Fransızca ise, SPARQL''nin kodu  sorgu hizmetine gönderilmeden önce   biçimine dönüştürülecektir.

ABD başkanlarının ve eşlerinin listesini gösteren örnek:

Bu örnekte WDQS, özellikler için otomatik olarak  ve   etiketlerini oluşturur.

El modda, hizmet çağrısı içindeki etiket değişkenlerini açıkça bağlarsınız, ancak WDQS yine de dil çözünürlüğü ve geri dönüş sağlar. Örnek:

Bu, Fransızca, Almanca ve İngilizce etiketleri ve açıklamaları dikkate alacak ve hiçbiri mevcut değilse, etiket olarak Q-id'yi kullanacaktır.

Coğrafi arama
Hizmet, merkezi bir noktanın belirli bir yarıçapında veya belirli bir sınırlayıcı kutu içinde yer alan koordinatlara sahip öğelerin aranmasına olanak tanır.

Etrafta arama noktası
Örnek:

hizmet çağrısının ilk satırı, aramanın sonucunun belirtilen konum içindeki öğelere  ve koordinatlarına   bağlayacağı       biçiminde olmalıdır. Desteklenen parametreler şunlardır:

Kutunun içinde arama
Kutu arama örneği:

veya:

Koordinatlar doğrudan belirtilebilir:

hizmet çağrısının ilk satırı,      biçiminde olmalıdır, burada ve aramanın sonucu,   ile belirtilen konum içindeki öğelere ve   koordinatlarına bağlayacaktır. Desteklenen parametreler şunlardır:

ve  birlikte, ayrıca   ve   birlikte kullanılmalıdır ve karıştırılamaz. ve  yüklemleri kullanılırsa, noktaların kutunun köşegeninin koordinatları olduğu varsayılır ve köşeler buna göre türetilir.

Mesafe işlevi
işlevi, Dünya üzerindeki iki nokta arasındaki mesafeyi kilometre cinsinden döndürür. Örnek kullanım:

Koordinat parçaları işlevleri
İşlevler,   ve   koordinatlarının parçalarını döndürür. Buna göre dünya URI'si, enlem ve boylam.

URL işlevlerinin kodunu çözün
işlevi, verilen URI dizesinin kodunu çözer (yani yüzde kodlama) tersine çevirir. Bu, Vikipedi başlıklarını (kodlanmış) gerçek dizelere dönüştürürken gerekli olabilir. Bu işlev, SPARQL encode_for_uri işlevinin tersidir.

Otomatik önekler
Yaygın sorgularda kullanılan çoğu önekler, açıkça belirtilmelerine gerek kalmadan motor tarafından desteklenir.

Genişletilmiş tarihler
Hizmet, geçmişte ve gelecekte yaklaşık 290 milyar yıl aralığındaki  türündeki tarih değerlerini bir saniyelik çözünürlükle destekler. WDQS, tarihleri ​​Unix çağından bu yana 64 bitlik saniye sayısı olarak depolar.

Blazegraph uzantıları
Üstünde WDQS'nin uygulandığı Blazegraph platformu kendi SPARQL uzantısına sahiptir. Bunların arasında, BFS, en kısa yol, CC ve PageRank uygulamaları dahil Blazegraph Wiki'de belgelenmiş olan çeşitli grafik geçiş algoritmaları vardır.

Sorgu yürütme ve motorun çeşitli yönlerinin nasıl kontrol edileceği hakkında bilgi için lütfen ayrıca Blazegraph sorgu ipuçlarına ilişkin belgelere bakın.

There is no documentation in the BlazeGraph wiki about the bd:sample extension. It's documented only in a comment in the code.

Federasyon
SPARQL Federasyonlu Sorgular'ın seçili sayıda harici veritabanına çağrı yapmasına izin veriyoruz. Lütfen ilgili sayfadaki federe uç noktaların tam listesine bakın.

Örnek federasyonlu sorgu:

Lütfen, federasyonlu uç noktaların hizmet verdiği veritabanlarının Vikiveri'den çok farklı olabilecek ontolojiler kullandığını unutmayın. Bu veritabanlarına ontolojiler ve veri erişimi hakkında bilgi edinmek için lütfen sahip belgelendirme bağlantılarına bakın.

MediaWiki API
Lütfen MediaWiki API Hizmeti belgelendirme sayfasında tam açıklamaya bakın.

MediaWiki API Hizmeti, SPARQL'den MediaWiki API'sine çağrı yapılmasına ve sonuçların SPARQL sorgusunun içinden alınmasına olanak tanır. Örnek (kategori üyelerini bulma):

Wikimedia servisi
Wikimedia, http://query.wikidata.org/ adresinde kullanılabilen WDQS'nin kamu hizmeti örneğini çalıştırır.

Genel uç noktada sorgunun çalışma zamanı 60 saniye ile sınırlıdır. Bu hem GUI hem de genel SPARQL uç noktası için geçerlidir. Daha uzun sorgular çalıştırmanız gerekiyorsa lütfen Keşif ekibi ile iletişime geçin.

GUI
http://query.wikidata.org/ değerinin ana sayfasındaki GUI, SPARQL sorgularını düzenlemenize ve sorgu motoruna göndermenize izin verir. Sonuçlar bir HTML tablosu olarak görüntülenir. Her sorgunun daha sonra kullanılmak üzere işaretlenebilecek benzersiz bir URL'si olduğunu unutmayın. Bu URL'ye gitmek, sorguyu düzenleme penceresine yerleştirecek, ancak çalıştırmayacaktır. Bunun için yine de "Yürüt" düğmesine tıklamanız gerekiyor.

Ayrıca, sağdaki "Kısa URL oluştur" bağlantısını tıklayarak bir URL kısaltma hizmeti aracılığıyla sorgu için kısa bir URL oluşturabilirsiniz. Bu, geçerli sorgu için kısaltılmış URL'yi üretecektir.

"Önek ekle" düğmesi, SPARQL sorguları için standart önekleri içeren başlığı oluşturur. Yararlı olabilecek öneklerin tam listesi RDF format belgelendirmede listelenmiştir. WDQS bunları kutudan çıktığı gibi desteklediğinden, en yaygın öneklerin otomatik olarak çalıştığını unutmayın.

GUI ayrıca, varlık sonucunun yanındaki "🔍" sembolüne tıklayarak etkinleştirilebilen basit bir varlık gezgini içerir. Q-id varlığına tıklamak sizi wikidata.org adresindeki varlık sayfasına götürecektir.

Varsayılan görünümler

 * Ana madde: wikidata:Special:MyLanguage/Wikidata:SPARQL query service/Wikidata Query Help/Result Views

Sorguyu WDQS GUI'de çalıştırırsanız, sorgunun başında bir yorum belirterek hangi görünümün sunulacağını seçebilirsiniz:.

SPARQL uç noktası
SPARQL sorguları,  ile bir GET veya POST isteği ile doğrudan SPARQL uç noktasına gönderilebilir.

GET istekleri, URL'de  biçiminde belirtilen sorguya sahiptir, ör. .

POST istekleri, alternatif olarak, URL uzunluk sınırlarına ulaşmadan daha büyük sorguların çalıştırılmasına izin veren URL yerine isteğin gövdesindeki sorguyu kabul edebilir. (POST gövdesinin yine de  önekini içermesi gerektiğini unutmayın (yani, yalnızca   yerine   olmalıdır) ve SPARQL sorgusu yine de URL çıkışlı olmalıdır.)

Sonuç, varsayılan olarak XML olarak veya  sorgu parametresi URL'ye dahil edilmişse veya istekle birlikte   başlığı sağlanmışsa JSON olarak döndürülür.

JSON formatı standarttır. SPARQL 1.1 Sorgu Sonuçları JSON Formatı.

POST sorguları önbelleğe alınmadığından daha küçük sorgular için GET ve daha büyük sorgular için POST kullanılması önerilir.

Desteklenen formatlar
Aşağıdaki çıkış biçimleri şu anda SPARQL uç noktası tarafından desteklenmektedir:

Sorgu limitleri
60 saniye olarak ayarlanmış bir sabit sorgu son tarihi var. Ayrıca aşağıdaki sınırlar vardır:


 * Bir istemciye (kullanıcı aracısı + IP) her 60 saniyede 60 saniyelik işlem süresine izin verilir
 * Bir istemciye dakikada 30 hata sorgusu izni verilir

Yukarıdaki sınırları aşan istemciler, HTTP kodu  ile kısıtlanır. Use  header to see when the request can be repeated. If the client ignores 429 responses and continues to produce requests over the limits, it can be temporarily banned from the service. Clients who don’t comply with the User-Agent policy may be blocked completely – make sure to send a good  header.

Every query will timeout when it takes more time to execute than this configured deadline. You may want to optimize the query or report a problematic query here.

Also note that currently access to the service is limited to 5 parallel queries per IP. The above limits are subject to change depending on resources and usage patterns.

Explain Query
Blazegraph allows to show query analysis that explains how the query has been parsed and which optimizations were applied. To see this information, add  parameter to the query string, for example:.

Namespaces
The data on Wikidata Query Service contains the main namespace,, to which queries to the main SPARQL endpoint are directed, and other auxiliary namespaces, listed below. To query data from different namespace, use endpoint URL https://query.wikidata.org/bigdata/namespace/NAMESPACENAME/sparql.

Kategoriler
'' Please see full description on Categories documentation page. ''

Wikidata Query Service also provides access to the category graph of select wikis. The list of covered wikis can be seen here: https://noc.wikimedia.org/conf/dblists/categories-rdf.dblist

The category namespace name is. The SPARQL endpoint for accessing it is https://query.wikidata.org/bigdata/namespace/categories/sparql.

Please see Categories page for detailed documentation.

DCAT-AP
The DCAT-AP data for Wikidata is available as SPARQL at https://dcatap.wmflabs.org/ endpoint.

The SPARQL endpoint for accessing it is: https://dcatap.wmflabs.org/sparql

The source for the data is: https://dumps.wikimedia.org/wikidatawiki/entities/dcatap.rdf

Example query to retrieve data:

Linked Data Fragments endpoint
We also support querying the database using Triple Pattern Fragments interface. This allows to cheaply and efficiently browse triple data where one or two components of the triple is known and you need to retrieve all triples that match this template. See more information at the Linked Data Fragments site.

The interface can be accessed by the URL:. This service is implemented on the top of Blazegraph database, so it will have the same lag as the Query Service. Örnek istekler:


 * https://query.wikidata.org/bigdata/ldf?subject=http%3A%2F%2Fwww.wikidata.org%2Fentity%2FQ146 - all triples with subject
 * https://query.wikidata.org/bigdata/ldf?subject=&predicate=http%3A%2F%2Fwww.w3.org%2F2000%2F01%2Frdf-schema%23label&object=%22London%22%40en - all triples that have English label "London"

Note that only full URLs are currently supported for the,   and   parameters.

By default, HTML interface is displayed, however several data formats are available, defined by  HTTP header.

The data is returned in pages, page size being 100 triples. The pages are numbered starting from 1, and page number is defined by  parameter.

Standalone service
As the service is open source software, it is also possible to run the service on any user's server, by using the instructions provided below.

The hardware recommendations can be found in Blazegraph documentation.

If you plan to run the service against non-Wikidata Wikibase instance, please see further instructions.

Kurulum
In order to install the service, it is recommended that you download the full service package as a ZIP file, e.g. from Maven Central, with group ID  and artifact ID " ", or clone the source distribution at https://github.com/wikimedia/wikidata-query-rdf/ and build it with "mvn package". The package ZIP will be in the  directory under.

The package contains the Blazegraph server as a .war application, the libraries needed to run the updater service to fetch fresh data from the wikidata site, scripts to make various tasks easier, and the GUI in the  subdirectory. If you want to use the GUI, you will have to configure your HTTP server to serve it.

By default, only the SPARQL endpoint at http://localhost:9999/bigdata/namespace/wdq/sparql is configured, and the default Blazegraph GUI is available at http://localhost:9999/bigdata/. Note that in the default configuration, both are accessible only from localhost. You will need to provide external endpoints and an appropriate access control if you intend to access them from outside.

Using snapshot versions
If you want to install an un-released snapshot version (usually this is necessary if released version has a bug which is fixed but new release is not available yet) and do not want to compile your own binaries, you can use either:
 * https://github.com/wikimedia/wikidata-query-deploy - deployment repo containing production binaries. Needs  working. Check it out and do " ".
 * Archiva snapshot deployments at https://archiva.wikimedia.org/#artifact/org.wikidata.query.rdf/service - choose the latest version, then Artifacts, and select the latest package for download.

Loading data
Further install procedure is described in detail in the Getting Started document which is part of the distribution, and involves the following steps:


 * 1) Download recent RDF dump from https://dumps.wikimedia.org/wikidatawiki/entities/ (the RDF one is the one ending in  ).
 * 2) Pre-process data with the   script. This creates a set of TTL files with preprocessed data, with names like , etc. See options for the script below.
 * 3) Start Blazegraph service by running the   script.
 * 4) Load the data into the service by using  . Note that loading data is usually significantly slower than pre-processing, so you can start loading as soon as several preprocessed files are ready. Loading can be restarted from any file by using the options as described below.
 * 5) After all the data is loaded, start the Updater service by using.

Loading categories
If you also want to load category data, please do the following:


 * 1) Create namespace, e.g.  :
 * 2) Load data into it:

Note that these scripts only load data from Wikimedia wikis according to Wikimedia settings. If you need to work with other wiki, you may need to change some variables in the scripts.

Scripts
The following useful scripts are part of the distribution:

munge.sh
Pre-process data from RDF dump for loading.

Örnek:

loadData.sh
Load processed data into Blazegraph. Requires  to be installed.

Örnek:

runBlazegraph.sh
Run the Blazegraph service.

Örnek:

Inside the script, there are two variables that one may want to edit: Also, the following environment variables are checked by the script (all of them are optional):

runUpdate.sh
Run the Updater service.

It is recommended that the settings for the  and   options (or absence thereof) be the same for munge.sh and runUpdate.sh, otherwise data may not be updated properly.

Örnek:

Also, the following environment variables are checked by the script (all of them are optional):

Güncelleyici seçenekleri
The following options works with Updater app.

They should be given to the  script as additional options after , e.g.:.

Configurable properties
The following properties are configurable via adding them to the script run command in the scripts above:

Missing features
Below are features which are currently not supported:


 * Redirects are only represented as owl:sameAs triple, but do not express any equivalence in the data and have no special support.

Contacts
If you notice anything wrong with the service, you can contact the Discovery team by email on the list  or on the IRC channel.

Bugs can also be submitted to and tracked on the Discovery Phabricator board.

Ayrıca bakınız

 * WDQ to SPARQL syntax translator
 * SPARQL Query examples
 * Discovery team
 * WDQS Implementation notes
 * An introduction to SPARQL query syntax