Manual:Job queue/de

2009 (MediaWiki 1.6) wurde die Job-Warteschlange eingeführt, um langlaufende Aufgaben asynchron durchzuführen. Sie wurde mit dem Ziel entwickelt, viele kleine Prozesse zu handhaben (Stapelverarbeitung).

Set up
Es empfiehlt sich, die Ausführung von Jobs komplett im Hintergrund über die Kommandozeile zu planen. Standardmäßig werden Jobs am Ende einer Webanforderung ausgeführt. Deaktivieren Sie dieses Standardverhalten, indem Sie auf   setzen.

Cron
Sie können cron verwenden, um die Jobs jede Stunde auszuführen. Fügen Sie Ihrer crontab-Datei Folgendes hinzu:

Die Verwendung von Cron macht den Einstieg einfach, kann aber dazu führen, dass E-Mail-Benachrichtigungen und kaskadierende Templates nur langsam reagieren (bis zu einer Stunde Wartezeit). Erwägen Sie deshalb einen der folgenden Ansätze, um einen kontinuierlichen Job-Runner einzurichten.



Dauereinsatz
Wenn Sie Shell-Zugriff und die Möglichkeit haben, Init-Skripte anzulegen, können Sie einen einfachen Dienst einrichten, der Jobs ausführt, sobald sie verfügbar sind, und sie außerdem ein wenig bremst, um zu verhindern, dass der Job-Runner die CPU-Ressourcen des Servers für sich in Anspruch nimmt:

Erstellen Sie ein Bash-Skript, zum Beispiel in :



Skript erstellen
Je nachdem, wie leistungsfähig der Server ist und welche Auslastung vorliegt, können Sie die Anzahl der in jedem Zyklus auszuführenden Jobs und die Anzahl der Sekunden, die in jedem Zyklus gewartet werden, anpassen.

Das Script ausführbar machen.



Dienst erstellen
Legen Sie bei Verwendung von systemd eine neue Service-Unit an, indem Sie die Datei  erstellen. Den Parameter  so setzen, dass er dem Benutzer zugeordnet ist, der PHP auf Ihrem Webserver ausführt:

Den Service mit diesen Befehlen aktivieren und starten:



Job-Erledigung bei Seitenaufrufen
Standardmäßig wird bei jedem Seitenaufruf ein Job aus der Job-Schlange genommen und ausgeführt. Die Anzahl der bearbeiteten Jobs kann mittels konfiguriert werden. Das Setzen dieser Variable auf  führt zu einer Jobabarbeitung pro Seitenaufruf. deaktiviert die Ausführung von Jobs bei Seitenaufrufen, dann sollte runJobs.php per Hand oder automatisiert periodisch ausgeführt werden.

Wenn aktiviert, wird zur Jobausführung ein Socket geöffnet und eine interne HTTP-Anfrage an special page: SpecialRunJobs.php geschickt. Siehe auch den Abschnitt asynchron.



Problem mit der Leistung
Wenn die Belastung durch die Ausführung von Jobs bei jeder Webanfrage zu groß ist, Sie aber keine Jobs über die Befehlszeile ausführen dürfen, können Sie auf eine Zahl zwischen   und   reduzieren. Werte zwischen  und   sorgen dafür, dass „durchschnittlich“ alle   Seitenaufrufe ein Job erledigt wird.



Manuelle Bedienung
Es gibt auch eine Möglichkeit, die Job-Warteschlange manuell zu leeren, zum Beispiel nach dem Ändern eines Templates, das auf vielen Seiten vorhanden ist. Führen Sie einfach das Wartungsskript  aus. Zum Beispiel:



Abgebrochene Jobs
Ein Job kann aus verschiedenen Gründen fehlschlagen. Um zu verstehen, warum, musst du die zugehörige Protokolldatei einsehen.

Wenn ein Auftrag 3 Mal fehlschlägt (wenn das System also so viele Versuche unternommen hat), gilt der Auftrag als "aufgegeben" und wird nicht mehr ausgeführt.

Relevanter Quellcode:

https://doc.wikimedia.org/mediawiki-core/master/php/JobQueue_8php_source.html#l00085

Ein abgebrochener Job ist:


 * nicht mehr ausgeführt von
 * nicht von gezählt
 * nicht automatisch aus der Datenbank entfernt
 * aber in der Zählung von Spezial:Statistik enthalten sind

Asynchron
Die Konfigurationsvariable wurde hinzugefügt, um die synchrone Ausführung von Jobs in Szenarien zu erzwingen, in denen eine interne HTTP-Anfrage zur Jobausführung nicht erwünscht ist.

Bei der asynchronen Ausführung von Aufträgen wird eine interne HTTP-Verbindung geöffnet, über die die Ausführung der Aufträge abgewickelt wird, und der Inhalt der Seite wird sofort an den Client zurückgegeben, ohne dass auf den Abschluss des Auftrags gewartet wird. Andernfalls wird der Auftrag in demselben Prozess ausgeführt und der Kunde muss warten, bis der Auftrag abgeschlossen ist. Wenn der Auftrag nicht asynchron ausgeführt wird, wird ein schwerwiegender Fehler während der Auftragsausführung an den Client weitergegeben und das Laden der Seite abgebrochen.

Auch wenn $wgRunJobsAsync auf true gesetzt ist, fällt PHP auf die synchrone Jobausführung zurück, wenn es keinen Socket öffnen kann, um die interne HTTP-Anfrage zu stellen. Es gibt jedoch eine Reihe von Situationen, in denen diese interne Anfrage fehlschlägt und die Aufträge nicht ausgeführt werden, ohne auf die synchrone Auftragsausführung zurückzugreifen. Ab MediaWiki 1.28.1 und 1.27.2 steht $wgRunJobsAsync jetzt standardmäßig auf false.



Aufgeschobene Updates
Mit dem Mechanismus der "aufgeschobenen Updates" kann die Ausführung von Code für das Ende der Anfrage geplant werden, nachdem alle Inhalte an den Browser gesendet wurden. This is similar to queuing a job, except that it runs immediately instead of upto several minutes/hours in the future.

DeferredUpdates'' wurde in MediaWiki 1.23 eingeführt und erfuhr in MediaWiki 1.27 und 1.28 größere Änderungen. Das Ziel dieses Mechanismus ist es, die Web-Antworten zu beschleunigen, indem weniger Arbeit erledigt wird, sowie einige Arbeiten zu priorisieren, die vorher ein Job waren, der so schnell wie möglich nach dem Ende der Antwort ausgeführt werden sollte.

A deferrable update can implement  in order to be queueable as a Job as well. This is used by RefreshSecondaryDataUpdate in core, for example, which means if the update fails for any reason, MediaWiki will fallback to queuing as a job and try again later as to fulfil the contract in question.



Änderungen in MediaWiki 1.22
In wurde die Ausführung der Job-Warteschlange bei jeder Anfrage auf der Seite geändert, so dass der Job nicht mehr innerhalb desselben PHP-Prozesses ausgeführt wird, der die Seite rendert, sondern ein neuer PHP-Cli-Befehl erzeugt wird, der  im Hintergrund ausführt. Es funktioniert nur, wenn auf einen tatsächlichen Pfad gesetzt oder der abgesicherte Modus ausgeschaltet ist, ansonsten wird die alte Methode verwendet.

Diese neue Ausführungsmethode könnte einige Probleme verursachen:


 * Wenn auf eine inkompatible Version von PHP gesetzt ist (z.B. eine veraltete Version), können Jobs nicht ausgeführt werden (behoben in 1.23).
 * PHP -Beschränkungen sind in Kraft, und  ist nicht erlaubt (, behoben in 1.23).
 * Leistung: Auch wenn die Jobwarteschlange leer ist, wird der neue PHP-Prozess trotzdem gestartet (, behoben in 1.23).
 * Der PHP-Prozess, der gestartet wird, führt manchmal dazu, dass der Server oder nur der CLI-Prozess hängen bleibt, weil die stdout- und stderr-Deskriptoren nicht richtig weitergeleitet werden (, behoben in 1.22)
 * Es funktioniert nicht bei gemeinsam genutztem Code (Wikifarmen), weil es keine zusätzlichen erforderlichen Parameter an runJobs.php übergibt, um das Wiki zu identifizieren, das den Job ausführt (, behoben in 1.23)
 * Normale Shell-Limits wie, und  werden für den Prozess runJobs.php durchgesetzt, der im Hintergrund ausgeführt wird.

Es gibt keine Möglichkeit, zur alten Handhabung der Job-Warteschlange bei Anfragen zurückzukehren, außer z.B. auf   zu setzen, was andere Probleme verursachen kann. Sie kann durch Setzen von vollständig deaktiviert werden, aber die Jobs werden dann nicht mehr bei Anfragen von Seiten ausgeführt, und du musst runJobs.php explizit ausführen, um ausstehende Jobs regelmäßig zu starten.



Änderungen in MediaWiki 1.23
In MediaWiki 1.23 wird die Ausführungsmethode von 1.22 aufgegeben und die Jobs werden ausgelöst, indem MediaWiki eine HTTP-Verbindung zu sich selbst herstellt.

Sie war zunächst als API-Einstiegspunkt gedacht, wurde aber später in die nicht aufgeführte Spezialseite Special:RunJobs  geändert.

Damit werden zwar verschiedene Fehler aus Version 1.22 behoben, aber es müssen immer noch viele PHP-Klassen in einem neuen Prozess in den Speicher geladen werden, um einen Auftrag auszuführen, und es wird eine neue HTTP-Anfrage gestellt, die der Server bearbeiten muss.



Änderungen in MediaWiki 1.27
In MediaWiki 1.25 und MediaWiki 1.26 führte die Verwendung von manchmal dazu, dass Jobs nicht ausgeführt wurden, wenn das Wiki eine benutzerdefinierte -Konfiguration hatte. Dies wurde in MediaWiki 1.27 behoben.



Änderungen in MediaWiki 1.28
Zwischen MediaWiki 1.23 und MediaWiki 1.27 führte die Verwendung von dazu, dass Jobs nicht ausgeführt wurden, wenn MediaWiki Anfragen für einen Servernamen oder ein Protokoll stellte, das nicht mit dem aktuell konfigurierten Servernamen übereinstimmte (z.B. wenn sowohl HTTP als auch HTTPS unterstützt wird oder wenn MediaWiki hinter einem Reverse Proxy liegt, der zu HTTPS weiterleitet). Dies wurde in MediaWiki 1.28 behoben.



Änderungen in MediaWiki 1.29
Wenn in MediaWiki 1.27.0 bis 1.27.3 und 1.28.0 bis 1.28.2 auf einen Wert größer als 0 gesetzt wird, kann ein Fehler wie der folgende in den Fehlerprotokollen oder auf der Seite erscheinen:

PHP Notice: JobQueueGroup::__destruct: 1 buffered job(s) never inserted

Als Folge dieses Fehlers können bestimmte Updates in manchen Fällen fehlschlagen, z.B. werden die Mitglieder der Kategorien auf den Kategorieseiten nicht aktualisiert, oder die letzten Änderungen zeigen die Bearbeitung gelöschter Seiten an - selbst wenn du manuell ausführst, um die Jobwarteschlange zu leeren. Er wurde als Fehler gemeldet und in 1.27.4 und 1.28.3 behoben.



Jobbeispiele


Aktualisierung der Linktabellen nach Vorlagenänderungen
Wird im Wiki eine Vorlage bearbeitet, fügt MediaWiki für jede Seite, die diese Vorlage verwendet, einen Job der Job queue hinzu. Jeder Job ist dabei der Befehl, die entsprechende Seite aufzurufen, die Vorlage neu zu expandieren und die Linktabelle entsprechend zu aktualisieren. Zuvor blieben die Host-Artikel so lange veraltet, bis entweder ihr Parser-Cache ablief oder ein/e Benutzer/in den Artikel bearbeitete.



Außerkraftsetzen des HTML-Caches
Weitere Vorgänge können darüberhinaus für eine große Seitenanzahl zum Ungültigwerden des jeweiligen HTML-Caches führen:


 * Änderung eines Bildes (alle Vorschaubilder, die „Thumbnails“, müssen neu gerendert und ihre Größen neu berechnet werden)
 * Löschung einer Seite (alle Links auf anderen Seiten müssen von blau nach rot geändert werden)
 * Neuanlage oder Wiederherstellung einer Seite (wie vorstehend, aber von rot nach blau)
 * Änderung einer Vorlage (alle Seiten, die die Vorlage einbinden, müssen aktualisiert werden)

Abgesehen von Vorlagenänderungen betreffen diese Aktionen zwar nicht die Linktabellen, sie machen jedoch den HTML-Cache aller Seiten, auf denen die fragliche Seite verlinkt oder in denen ein Bild eingebunden ist, ungültig. Die Außerkraftsetzung des Caches einer Seite ist ein kurzer Vorgang; dazu wird nur die Aktualisierung eines einzigen Datenbankfelds und das Senden eines Multicast-Datenpakets zur Cacheleerung benötigt. Es dauert allerdings länger, wenn mehr als 1000 Aktualisierungen vorzunehmen sind. Standardmäßig werden Jobs hinzugefügt, wenn mehr als 500 Seiten betroffen sind; ein Job pro 500 Vorgänge.

Beachte jedoch, dass das Bereinigen einer komplexen Seite, die sich nicht im Cache befindet, teuer werden kann, auch wenn das Bereinigen des Caches einer Seite nur ein kurzer Vorgang ist. Dies gilt insbesondere dann, wenn eine stark genutzte Vorlage bearbeitet wird und viele Seiten in kurzer Zeit bereinigt werden müssen und dein Wiki viele gleichzeitige Besucher hat, die eine große Bandbreite an Seiten laden. Das lässt sich abmildern, indem du die Anzahl der Seiten, die in einem kurzen Zeitraum gelöscht werden, reduzierst, indem du auf eine kleine Zahl (z.B. 20) und auch  für   auf eine niedrige Zahl (z.B. 5) setzt.

<span id="Audio_and_video_transcoding">

Audio- und Video-Transkodierung
Wenn du für die Verarbeitung lokaler Uploads von Audio- und Videodateien verwendest, wird die Jobwarteschlange genutzt, um die potenziell sehr langsame Erstellung von abgeleiteten Transcodes in verschiedenen Auflösungen/Formaten durchzuführen.

Diese sind nicht geeignet, um auf Anfragen im Web zu laufen - du brauchst einen Hintergrund-Runner.

Es wird empfohlen, für die Jobtypen  und   nach Möglichkeit separate Runners einzurichten. Diese beiden Warteschlangen verarbeiten unterschiedliche Teilmengen von Dateien - die erste für hochauflösende HD-Videos und die zweite für Videos und Audiodateien mit geringerer Auflösung, die schneller verarbeitet werden.

<span id="Typical_values">

Typische Werte
In Zeiten geringer Serverlast kann die Job queue leer sein und den Wert Null haben. In der Praxis ist die Job queue – zumindest in den großen Wikimediaprojekten wie zum Beispiel der deutschsprachigen Wikipedia – fast nie leer. Außerhalb der Tagesspitzenzeiten kann sie einige hundert bis tausende anstehende Jobs umfassen, in Spitzenzeiten auch mehrere Millionen. Der Zahlenwert kann sehr kurzfristig um 10 Prozent oder mehr schwanken.

Special:Statistics
Up to MediaWiki 1.16, the job queue value was shown on Special:Statistics. However, since 1.17 (75272) it's been removed, and can be seen now with :

The number of jobs returned in the API result may be slightly inaccurate when using MySQL, which estimates the number of jobs in the database. This number can fluctuate based on the number of jobs that have recently been added or deleted. For other databases that do not support fast result-size estimation, the actual number of jobs is given.

<span id="For_developers">

Für Entwickler


<span id="Code_stewardship">

Code-Verwaltung
<span id="See_also">