Mon, 11 Jan 2016 (平成28年) [長年日記]
_ HTTPS のみに
勢いあまって、HTTP でのアクセスも HTTPS に強制するようにしてみた。
<VirtualHost *:80>~</VirtualHost> の中に
Redirect permanent / https://246ra.ath.cx/
<VirtualHost _default_:443>~</VirtualHost> の中に
Header set Strict-Transport-Security "max-age=315360000; includeSubDomains"
と書き足して終了。
2016-01-15 追記: 参考にした記事
_ クローラ襲来
サイトの構成をごそっと変えると検索エンジンのクローラがいらっしゃることを忘れてて、このサーバには明らかに高負荷である、一秒ごとのアクセスを Googlebot と bingbot にしていただいた結果、サーバが音を上げた。無反応になったのでリセット。
robots.txt はどうなってたっけ ? と確認したら……なかった。たぶん jessie にした時のごたごたで削除してしまったんじゃないかと思う。気を取り直して robots.txt を作成し、Crawl-delay を設定してひとまず様子見。ちょうどこのサーバにログインしていじってる最中だったのですぐ対応できたけど、また高負荷で止まってしまったらどうしよう。
_ 成人式
二十歳の時のことを思い出してみようとしたけれど、地元に帰ってこなかったから成人式の記憶はないし、当日どうしてたかもまったく思い出せない。おそらく普通の休日としてだらだら大学周辺で過ごしてたんだろうな。
sitemap.xml を用意できれば負荷を下げられるかもしれません。
情報ありがとうございます。<br>12日の日記に書きましたが結局もう一度ダウンしまして、それでSearch Consoleの中をいろいろ見てたらサイトマップを登録すればいいらしいと気づきました。<br>https://support.google.com/webmasters/answer/183668?hl=ja を読んで sitemap.xml がどういうものかわかったものの、これを用意するのはめんどくさいと思ってたらその下にフィードもサイトマップとして登録できると書いてあり、ひとまずそれだけ登録してみたらクロール頻度がそれなりに落ち着いた感じがします。
tDiaryから離れて久しいのですが、sitemap.xml を吐くプラグインもあるようですね。<br>ttp://docs.tdiary.org/ja/?google_sitemaps.rb
お、そんなものがあったのですね。ありがとうございます。調べてみます。