Translations:Apache configuration/34/ja

悪意のないスパイダーに指示し、動的に生成されたページをダウンロードさせないためには、必ずファイルを使用します. これによりウェブサーバの負荷軽減と帯域幅の維持、検索エンジンでコンテンツが重複する問題を防ぐことができます. しかし悪意のあるボットによってウェブサーバを拘束されると、大量のページを非常に迅速にダウンロードさせられてしまい、帯域幅を無駄にする可能性があります. その防止に役立つのがRequest throttlingです.