API:FAQ/es

Also read the quick start guide. It answers some questions not answered here and points to other useful pages.

consigo ayuda?

 * 1) Leyendo este FAQ
 * 2) Trate de encontrar la respuesta a su pregunta en el  documentación de la API aquí o en la página de inicio API autodocumentado
 * 3) Si no puede encontrar la respuesta a su pregunta en la web, usted puede hacer su pregunta en la lista de correo de la api de mediawiki
 * 4) * Crea una cuenta de Wikimedia (Si no tienes una) y añade un nuevo tema a la página de discusión de la API.
 * 5) * Pregunta en IRC en el canal en la red Freenode.

reporto un error o pido una funcionalidad?
Si has encontrado un bug en la API o tienes una petición o sugerencia para una nueva funcionalidad, infórmelo en Phabricator. Busque bugs existentes primero (No cree temas sobre bugs duplicados) e introduzca MediaWiki-API como el proyecto cuándo informe sobre un bug en la API. Si la funcionalidad estás pidiendo o el bug sobre el que estás informando se encuentra en una extensión (p. ej. AbuseFilter, FlaggedRevs), añade que el proyecto de la extensión, p. ej. "MediaWiki-extensiones-AbuseFilter".

figure out what action or submodule to call?
La API de MediaWiki es grande y las extensiones la amplían aún más. Algunas sugerencias:


 * If you're trying to get information about a page, you probably will use a prop= submodule of . Other query submodules return lists of pages and meta-information about the wiki. [ View] the generated API help of all query submodules.
 * Si ve una página wiki haciendo algo interesante después de la carga de la página inicial, debe hacer una solicitud de la API.
 * Open your browser's developer console and look for its network requests to.
 * All the code running on Wikimedia wikis is open source, so you can read the source code making API requests. One strategy to locate source code is to append  to the wiki page URL to see the message keys near where API results are presented, then you can search for this message key in the localized message files   of core and extensions.
 * You can view the entire expanded generated API help on one page by appending, [ here it is].

Los enlaces a la ayuda de la API generada arriba van a Wikipedia en inglés. Debería buscar la ayuda de la API generada en la wiki donde realizará las solicitudes de la API, ya que diferentes wikis tienen diferentes configuraciones y diferentes conjuntos de extensiones.

llamo a la API?
El API se llama mediante el envío de peticiones HTTP a api.php. Por ejemplo, en la Wikipedia en Inglés, la URL es http://en.wikipedia.org/w/api.php; otras wikis tienen api.php con URLs similares: sólo tiene que utilizar api.php donde el URL de costumbre tiene index.php. Si usted está tratando de acceder a la API en un tercero (no Wikimedia-operado) wiki y no puede averiguar la URL de api.php, póngase en contacto con el propietario de la wiki.

Para jugar con el API


 * use Special:ApiSandbox
 * Habilitar la consola de desarrollador de vuestro navegador y mirar peticiones netas a  cuando  interaccionas con el wiki

controlo el formato de salida?
Pass  in the query string. See the list of output formats for more information. Note that effort is underway to remove all output formats except JSON, so try to use JSON whenever possible.

Comprobar la disponibilidad de un módulo de la API
You can use  to request information about the API modules and submodules (such as  ) that you want to invoke. The  array in the response must contain a   key for each module and submodule, anything missing is not available.

If an API module isn't available and you know which extension implements it, you can check if that extension is loaded by querying the siteinfo meta information for  and look for its name in the returned list.

Incluso si un módulo parece estar disponible, siempre debe manejar los errores de la API.

detecto errores?
Consulta Errores y alertas.

An error response from the API will set the  HTTP header and return an   structure. For an example error response, visit https://en.wikipedia.org/w/api.php?action=blah.

obtengo el contenido de una página (wikitexto)?
If you just want the raw wikitext without any other information whatsoever, it's best to use index.php's action=raw mode instead of the API: https://en.wikipedia.org/w/index.php?action=raw&title=Main_Page. Note that this will output plain wikitext without any formatting. See also the action=raw documentation

To get more information about the page and its latest version, use the API: https://en.wikipedia.org/w/api.php?action=query&prop=revisions&titles=Main_Page. See also the documentation for the prop=revisions module.

Puedes recuperar 50 páginas por solicitud del API: https://en.wikipedia.org/w/api.php?action=query&prop=revisions&rvprop=content&titles=Main_Page|Articles. Esto también funciona con generadores.

obtengo el contenido de una página (HTML)?
If you just want the HTML, it's best to use index.php's  mode instead of the API: https://en.wikipedia.org/wiki/Main_Page?action=render. See the action=render documentation.

With the advent of RESTBase, on Wikimedia wikis you can instead request the cached HTML of a page, for example https://rest.wikimedia.org/en.wikipedia.org/v1/page/html/Main_Page (for performance this is also available at https://en.wikipedia.org/api/rest_v1/page/html/Main_Page to reuse an existing network connection to the wiki). Unlike  this returns a complete HTML document (i.e.   various metadata  ...  ); you could use an HTML parsing library to get the inner HTML of the   tag (see the documentation).

Para obtener más información destilada del wikitexto en tiempo de análisis (enlaces, categorías, secciones, etc.), puede:


 * Query the property submodules that provide the information you need (links, categories, etc.).
 * Use the  API module:

lidiar con los cambios API de 2015?
The default continuation behavior changed in MediaWiki 1.26. Si pides el dato adicional basó encima continuar información de un API respuesta,  tienes que actualizar vuestro código. Either
 * add  to your API requests to continue to get the confusing old query-continue behavior
 * or add  to your API requests and update to the cleaner continue processing that has been available since MediaWiki 1.21.

Also, since MediaWiki 1.25 an improved output structure for JSON and PHP formats has been available if you add   to your requests. As of July 2015, this is still considered experimental because a few API modules may get further improvements in this mode. If you're willing to risk needing to make future changes to adapt, it's much nicer to process API results with.

obtengo errores HTTP 403?
This could mean you're not passing a  HTTP header or that your   is empty or blacklisted User-Agent policy. See the quick start guide for more information. Also, it could mean that you're passing  in the query string of a GET request: Wikimedia blocks all such requests, use POST for them instead.

Cómo puedo obtener el error readapidenied?
The wiki you're querying contains private content and requires users to log in in order to be able to read all pages. This means that a client needs to be logged in to query any information at all through the API. See the quick start guide for more information. It's not currently possible to query the contents of whitelisted pages without logging in, even though they're available in the regular user interface.

Me gustaría saber los errores badtoken?
This is usually because you're either not passing a token at all (read about tokens in the documentation of the module you're using) or because you're having trouble staying logged in. It's also possible you're reusing a type of token that can't be reused (see module documentation for details) or that you're using a token that's associated with an expired session. In general, when using cached tokens, refetch the token (see API:Tokens) and try again before giving up.

do I get warnings instead of tokens (Action 'edit' is not allowed for the current user)?
You either don't have the right to execute the action you requested, or you're having trouble staying logged in.

do I get mustposttoken error?
The action you're attempting must be requested using HTTP POST. You probably clicked on  URL in a browser or modified an existing URL in the browser's location field, but that results in an HTTP GET request. You have to use a library (such as the mediawiki.api ResourceLoader module) or utility that can make POST requests; usually you also have to provide it your session cookies and an API:token so MediaWiki can verify that you are the logged-in user with rights to perform the action. As a hack, you might be able to use the cURL command-line utility, providing it each API parameter with  and the necessary browser cookies with. The Network panel of the browser developer tools window (Ctrl+Shift+I) in Firefox and chromium has a "Copy as cURL" menu item that can help, but it's still fiddly.

Depending on what you want to do it's easier to learn how to use a bot or library that handles the details of login, cookies, and tokens for you.

X no está disponible a través de la API?
Not all features available in the user interface are available through the API. Such features weren't implemented either because no one has gotten around to it yet or because no one has requested them. For information about filing feature requests, see above.

does my API call on Wikimedia wikis just return an HTML error?
Si utiliza llamadas a la API con las peticiones POST asegurarse de que estas peticiones no utilizan '' Content-Type: multipart / form-data "'. Esto sucede, por ejemplo, si utiliza CURL para acceder a la API y pasa sus parámetros POST como una matriz. Los servidores proxy Squid que se utilizan en los servidores frontend en la granja wiki Wikimedia no manejan correctamente que, por tanto, se devuelve un error.

Instead, use the "value1=key1&value2=key2..." notation to pass the parameters as a string, similar to GET requests.

En otras wikis que se accede directamente no hace la diferencia.

Además, algunos programas (como cURL) envía un encabezado de  para peticiones POST más largos (>1024 bytes). Los wikis wikimedia que pasan por los servidores Squid no pueden hacer frente a esto. Si usted todavía está recibiendo errores de HTML con peticiones de correos, y no está en el sistema, pruebe a definir un encabezado en blanco Esperar (por ejemplo, usando cURL en la línea de comandos, utilice la opción de ).

no funcionan las urls de API muy largas?
There is a maximum limit of the url size that can be used with the API when making GET requests. This limit varies depending on the website. Wikimedia's limit is roughly around 8100 characters. To get around this limit use POST requests instead (you may also need to set the Expect header, as described above)