Manual:Job queue/tr

MediaWiki 1.6'da, uzun süre çalışan görevleri eşzamansız olarak gerçekleştirmek için bir iş kuyruğu tanıtıldı. İş kuyruğu, toplu işleme kullanarak birçok kısa görevi tutmak için tasarlanmıştır.

Kurulum
Bunun yerine, komut satırı üzerinden işlerin çalışmasını tamamen arka planda planlamanız önerilir. Varsayılan olarak işler bir web talebinin sonunda çalıştırılır. ile  olarak ayarlayarak bu varsayılan davranışı devre dışı bırakın.

Cron
İşleri her saat çalıştırmak için cron kullanabilirsiniz. Aşağıdakileri crontab dosyanıza ekleyin:

Cron kullanmak, başlamayı kolaylaştırır, ancak e-posta bildirimlerini ve basamaklı şablonu yavaşlatabilir (bir saate kadar beklemek için). Bunun yerine sürekli bir iş yürütme aracı kurmak için aşağıdaki yaklaşımlardan birini kullanmayı düşünün.

Hizmet devamı
Kabuk erişiminiz ve başlangıç ​​betikleri oluşturma olanağınız varsa, işleri kullanılabilir hale geldiklerinde çalıştırmak için basit bir hizmet oluşturabilir ve ayrıca iş çalıştırıcısının sunucunun CPU kaynaklarını tekeline almasını önlemek için bunları azaltabilirsiniz:

Örneğin  altında bir bash betiği oluşturun:

Sunucunun ne kadar hızlı olduğuna ve işlediği yüke bağlı olarak, her döngüde çalıştırılacak iş sayısını ve her döngüde beklenecek saniye sayısını ayarlayabilirsiniz.

Betiği çalıştırılabilir yapın.

systemd kullanıyorsa,  dosyasını oluşturarak yeni bir hizmet birimi oluşturun. parametresini, web sunucunuzda PHP çalıştıran kullanıcı olarak değiştirin:

Etkinleştirin ve şu komutlarla başlatın:

Sayfa isteklerinde iş yürütme
Varsayılan olarak, her web isteğinin sonunda, iş kuyruğundan bir iş alınır ve yürütülür. Bu davranış, yapılandırma değişkeni tarafından kontrol edilir. Bu değişkeni  olarak ayarlamak, her istekte bir iş çalıştırır. Bu değişkeni  olarak ayarlamak, web istekleri sırasında işlerin yürütülmesini tamamen devre dışı bırakır, böylece bunun yerine  ile elle veya düzenli olarak komut satırından çalıştırabilirsiniz.

Etkinleştirildiğinde, işler bir soket açılarak ve listelenmemiş bir özel sayfa için dahili bir HTTP isteğinde bulunarak yürütülecektir: Special:RunJobs. Eşzamansız bölüme de bakın.

Performans sorunu
Her web isteğinde iş çalıştırmanın performans yükü çok fazlaysa, ancak işleri komut satırından çalıştıramıyorsanız,,  ile   arasında bir sayıya düşürebilirsiniz. Bu, bir işin her  isteğinde "ortalama olarak" yürütüleceği anlamına gelir.

Manüel kullanımı
İş kuyruğunu manüel olarak boşaltmanın bir yolu da vardır, örneğin birçok sayfada bulunan bir şablonu değiştirdikten sonra. bakım betiğini çalıştırın. Örneğin:

Eşzamansız
Yapılandırma değişkeni, işin yürütülmesi için dahili bir HTTP isteğinde bulunmanın istenmediği betiklerde, işlerin eşzamanlı olarak yürütülmesini zorlamak için eklenmiştir.

İşleri eşzamansız olarak çalıştırırken, işlerin yürütülmesi için dahili bir HTTP bağlantısı açacak ve işin tamamlanmasını beklemeden sayfanın içeriğini istemciye anında döndürecektir. Aksi takdirde, iş aynı süreçte yürütülecek ve iştemcinin iş tamamlanana kadar beklemesi gerekecektir. İş eşzamansız olarak çalışmadığında, işin yürütülmesi sırasında önemli bir hata oluşursa, istemciye yayılır ve sayfanın yüklenmesini iptal eder.

$wgRunJobsAsync true değerine ayarlansa bile, PHP dahili HTTP isteğini yapmak için bir soket açamazsa, senkronize iş yürütmeye geri döneceğini unutmayın. Ancak, bu dahili isteğin başarısız olabileceği ve eşzamanlı iş yürütmeye geri dönmeden işlerin çalıştırılmayacağı çeşitli durumlar vardır. MediaWiki 1.28.1 ve 1.27.2'den başlayarak, $wgRunJobsAsync artık varsayılan olarak false değerine ayarlanmıştır.

Ertelenen güncellemeler
Ertelenmiş güncellemeler mekanizması MediaWiki 1.23'te sundu ve MediaWiki 1.27 ve 1.28 sırasında büyük değişiklikler aldı. Tüm içerik tarayıcıya gönderildiğinde, bazı özelliklerin isteğin sonunda yürütülmesine izin verir, aksi takdirde potansiyel olarak birkaç saat sonra çalıştırılacak olan işte sıraya girmek yerine, tarayıcıya gönderilir. Bu alternatif mekanizmanın amacı temel olarak ana MediaWiki isteklerini hızlandırmak ve aynı zamanda bazı özellikleri isteğin sonunda mümkün olan en kısa sürede yürütmektir.

Bazı ertelenebilir güncellemeler, bu şekilde belirtilirse hem ertelenebilir güncellemeler hem de işler olabilir.

MediaWiki 1.22'deki değişiklikler
üzerinde, her bir sayfa isteğindeki iş kuyruğu yürütmesi değiştirildi, bu nedenle, işi sayfayı işleyen aynı PHP işlemi içinde yürütmek yerine, arka planda çalıştırmak için yeni bir PHP cli komutu üretilir. Yalnızca gerçek bir yola ayarlanmışsa veya güvenli mod kapalıysa çalışır, aksi takdirde eski yöntem kullanılır.

Bu yeni yürütme yöntemi bazı sorunlara neden olabilir:


 * , PHP'nin uyumsuz bir sürümüne ayarlanmışsa (örneğin, eski bir sürüm) işler çalışmayabilir (1.23'te düzeltildi).
 * PHP  kısıtlamaları yürürlükte ve  ile izin verilmiyor (, 1.23'te düzeltildi).
 * Performans: iş kuyruğu boş olsa bile, yeni PHP işlemi yine de başlatılır (, 1.23'te düzeltildi).
 * Bazen ortaya çıkan PHP süreci, stdout ve stderr tanımlayıcılarının düzgün bir şekilde yeniden yönlendirilmemesi nedeniyle sunucunun veya yalnızca CLI işleminin askıda kalmasına neden olur (, 1.22'de düzeltildi)
 * Paylaşılan kod (viki çiftlikleri) için çalışmaz, çünkü işi çalıştıran vikiyi tanımlamak için gereken ek parametreleri runJobs.php'ye iletmez (, 1.23'te düzeltildi)
 * , ve  gibi normal kabuk sınırları, arka planda çalıştırılan runJobs.php işleminde uygulanır.

Örneğin ile   olarak belirlemenin yanı sıra, eski istek üzerine iş kuyruğu işlemeye geri dönmenin bir yolu yoktur, bu da başka sorunlara neden olabilir. ayarlayarak tamamen devre dışı bırakılabilir, ancak işler artık sayfa isteklerinde çalışmayacaktır ve beklemedeki işleri düzenli olarak çalıştırmak için runJobs.php'yi açıkça çalıştırmanız gerekir.

MediaWiki 1.23'deki değişiklikler
MediaWiki 1.23'te, 1.22 yürütme yöntemi terk edilir ve işler MediaWiki tarafından kendisine bir HTTP bağlantısı kurarak tetiklenir.

İlk olarak bir API giriş noktası olarak tasarlandı ancak daha sonra listelenmemiş özel sayfa Special:RunJobs  olarak değiştirildi.

1.22'de ortaya çıkan çeşitli hataları çözerken, bir işi yürütmek için yeni bir işlemde belleğe birçok PHP sınıfının yüklenmesini gerektirir ve ayrıca sunucunun işlemesi gereken yeni bir HTTP isteğinde bulunur.

MediaWiki 1.27'deki değişiklikler
MediaWiki 1.25 ve MediaWiki 1.26'da, vikinin özel yapılandırması varsa,  kullanımı bazen işlerin çalıştırılmamasına neden olabilir. Bu, MediaWiki 1.27'de düzeltildi.

MediaWiki 1.28'deki değişiklikler
MediaWiki 1.23 ve MediaWiki 1.27 arasında, kullanımı, MediaWiki istekleri şu anda yapılandırılmış olan sunucu adıyla eşleşmeyen bir sunucu adı veya protokol için ise (örneğin hem HTTP hem de HTTPS'yi desteklerken veya MediaWiki, HTTPS'ye yeniden yönlendiren bir ters proxy'nin arkasındadır). Bu, MediaWiki 1.28'de düzeltildi.

MediaWiki 1.29'daki değişiklikler
MediaWiki 1.27.0 - 1.27.3 ve 1.28.0 - 1.28.2'de, 0'dan büyük bir değere ayarlandığında, aşağıdaki gibi bir hata, hata günlüklerinde veya sayfada görünebilir:

PHP Notice: JobQueueGroup::__destruct: 1 buffered job(s) never inserted

Bu hatanın bir sonucu olarak, iş kuyruğunu temizlemek için olarak elle çalıştırsanız bile, kategori üyelerinin kategori sayfalarında güncellenmemesi veya silinen sayfaların düzenlemelerini görüntüleyen son değişiklikler gibi bazı durumlarda bazı güncellemeler başarısız olabilir. Hata olarak bildirildi ve 1.27.4 ve 1.28.3'te çözüldü.

Bir şablon değiştiğinde bağlantı tablolarını güncelleme
Bir şablon değiştiğinde, MediaWiki bu şablonu aşan her madde için iş kuyruğuna bir iş ekler. Her iş, bir maddeyi okumak, herhangi bir şablonu genişletmek ve bağlantı tablosunu buna göre güncellemek için bir komuttur. Önceden, ana bilgisayar maddeleri, ayrıştırıcı önbelleği sona erene veya bir kullanıcı maddeyi düzenleyene kadar güncelliğini yitirdi.

HTML önbelleğinin geçersiz kılınması
Daha geniş bir işlem sınıfı, çok sayıda sayfa için HTML önbelleğinin geçersiz kılınmasına neden olabilir:


 * Changing an image (all the thumbnails have to be re-rendered, and their sizes recalculated)
 * Deleting a page (all the links to it from other pages need to change from blue to red)
 * Creating or undeleting a page (like above, but from red to blue)
 * Changing a template (all the pages that transclude the template need updating)

Except for template changes, these operations do not invalidate the links tables, but they do invalidate the HTML cache of all pages linking to that page, or using that image. Invalidating the cache of a page is a short operation; it only requires updating a single database field and sending a multicast packet to clear the caches. But if there are more than about 1000 to do, it takes a long time. By default, one job is added per 300 operations (see )

Note, however, that even if purging the cache of a page is a short operation, reparsing a complex page that is not in the cache may be expensive, specially if a highly used template is edited and causes lots of pages to be purged in a short period of time and your wiki has lots of concurrent visitors loading a wide spread of pages. This can be mitigated by reducing the number of pages purged in a short period of time, by reducing to a small number (20, for example) and also set  for   to a low number (5, for example).

Audio and video transcoding
When using to process local uploads of audio and video files, the job queue is used to run the potentially very slow creation of derivative transcodes at various resolutions/formats.

These are not suitable for running on web requests -- you will need a background runner.

It's recommended to set up separate runners for the  and   job types if possible. These two queues process different subsets of files -- the first for high resolution HD videos, and the second for lower-resolution videos and audio files which process more quickly.

Typical values
During a period of low load, the job queue might be zero. At Wikimedia, the job queue is, in practice, almost never zero. In off-peak hours, it might be a few hundred to a thousand. During a busy day, it might be a few million, but it can quickly fluctuate by 10% or more.

Special:Statistics
Up to MediaWiki 1.16, the job queue value was shown on Special:Statistics. However, since 1.17 (75272) it's been removed, and can be seen now with :

The number of jobs returned in the API result may be slightly inaccurate when using MySQL, which estimates the number of jobs in the database. This number can fluctuate based on the number of jobs that have recently been added or deleted. For other databases that do not support fast result-size estimation, the actual number of jobs is given.