うーんすげえ。
3日前に思いついたんだけど、blogを投稿する時に
再構築するテンプレートにサイトのindexページとかを
入れることで、いかにも静的なページを動的に
最終更新日とかだけでも更新することが出来るって
ことで実行してみた。
うわあ便利だよ便利ですよちょっとあなた!うへ。
metaタグのdescriptionなんかにもお茶目に最終更新日入れてみたらほら
jamiroquaiで検索して3番目だわーい。
うーんすげえ。
3日前に思いついたんだけど、blogを投稿する時に
再構築するテンプレートにサイトのindexページとかを
入れることで、いかにも静的なページを動的に
最終更新日とかだけでも更新することが出来るって
ことで実行してみた。
うわあ便利だよ便利ですよちょっとあなた!うへ。
metaタグのdescriptionなんかにもお茶目に最終更新日入れてみたらほら
jamiroquaiで検索して3番目だわーい。
PHPを使ってxsltをincludeする、というところまでは行ったのだが
問題がいくつかある。ページ全体を読み込むのがincludeされた
ファイルを読み込んだ後になるため、読み込み先が重いと結局
重くなる。読み込み先が読めないとページ全体が読めなくなる。
さらにAmazon web serviceの文字コードがうにコードで、
EUCに変換できない。どうしよっかな~諦めるか。
全てのページをPHPにする必要があるし。
XSLTをiframeで呼び出す、ということをやっているのだが、
あまりに動的なので静的にしたい。
SSI.。それが何なのか全く知らないわけだが、
ちょっと今からググってみることにする。
何となく伝え聞いたところで出来そうな予感がする。やりたいことが。
サーバサイドインクルード。いったい何が出来るのか。
さて、ロボットにとっても綺麗なhtmlにする、と決意してから
土曜日は結局断念し、日曜日は諦めて手をつけず、
そして祝日の月曜日の昼間からPCに向かったわけだが。
あまりにこれまでのサイトのCSSの構造が適当すぎて
どうやってもレイアウトがうまくいかずCSS地獄に陥っていたわけである。
結局phpにしてページを区切るタグでdivタグがぶった切られていることに
2時間くらいして気づき、そこからは猛スピードで追い上げ。
今回このblogをどうやってロボットにとって綺麗にするか、
というプランで考えていたのは、
・メインのブログをコード的に先頭に持ってくる
・アクセス解析や重いコンテンツ、広告は最後にロードする
というたった2つの事で、
ブログ本文のコンテンツをCSSレイヤーでくくり、
ブログ右上のカウントダウンされる数字をレイヤーでくくり、
そしてtab badge(一番ロードに時間がかかる)をこれまたレイヤーでくくり、
とブロックにすると実に8つとかそれくらいの浮遊するレイヤーによって
このページが構成されることになった。
そのコードのdivでくくられたブロックの配置を上記の2点の理念に照らして行い、
結果的に非常に綺麗になった。まあCSSは大変だったんだけど。自己満。
で次にコードそのものの内容についてはジャンキーに教えてもらった
Another HTML-lint gatewayの出番である。
試しにこのページを採点したのだが、-79点!!!
びびった。100点満点-79点なんて採ったこと無い、である。
添削結果を見てエントリーアーカイブのタグをいじること1時間、
+50点!すばらしい。
Amazonや楽天のリンクで減点されるので、
リンクの少ないページで採点し直すと83点!すばらしすぎる。
あとはAmazonへのテンプレートの修正やMovabletypeに標準装備の
driftyなどを使用してタグ的にNGな箇所を微妙に調節していけば
もうロボットとしても結構綺麗なHTMLの完成。さすが俺である。
#ちなみに変更したデザインも自分では相当気に入ってるんだけど
#誰もほめてくれないので悲しい。
久しぶりに東京に帰ってきたと言うことでブログを少しいじった。
いじったと言っても携帯向けのページの不具合修正をしただけだけど。
どうもmt4iがうまく動作していなくて携帯からの投稿が出来ない状態
だった。バージョンが上がっていて、以前もトライしたんだけど
うまくバージョンアップできず断念。今回も30分くらい格闘した結果
ディレクトリそのもののパーミッション設定ミスと判明。解決。
ということで携帯からも投稿が可能に戻った。
さくさく動くのでうれしい。
それとついでに対apeboardスパムロボットでURLの変更。
こちらはさっさと終わらせる。
タケウチくんから、サーバのアクセスログが1.6GBになってるから
削除していい?と聞かれた。
アクセスログは当然テキストで書かれたデータで、
テキストデータ1.6GB、賢明な諸君ならいったいどんだけの
ログがあるのか想像に難しくないだろう、とか言って
全然想像範囲外なので、計算してみると、
1.6GB=1600MB=1600000KB=1600000000B
で、日本語が2バイト文字なので
日本語に換算すると8億文字。
で、1秒に8文字読んだとすると
8億/8文字/60/60/24/365=3.17年かかる。
くらい膨大。
これをリセットしてもらって、2日と半日でログが既に、
265812行になっている。
延26万回、j-love.info下のファイルにアクセスがある。2日間半で。
26万行のログを見ていると、ああ、
これだけ世界中(主に日本だけど)からファイルを
繰り返し読み込まれているわけだから、
htmlファイル一つにしてもファイルサイズを小さくする試みは
全然馬鹿にできない。と思う。
まずはエラーログ5235行を見て簡単な対策を講じる。
robotの巡回で毎回チェックされるrobot.txtをupしてみたり。
無駄にクロールされるurlを省いてみたり。
google sitemapを見てみたり。
まあでも一番多いのはアクセス解析cgiへのミスリンクだな。
これ何とかしなくては。
あとはスパムもこのログ見て回避できればいいんだけど多すぎるよなあ・・
楽天のアフィリエイトランクがBになった。
サイト経由で誰かが購入している金額が100万以上。
去年の3月からの合計は2000万弱。
楽天儲かるわけだわな。
Jamiroquaiは最も影響を受けたアーティストだけど、
そろそろ卒業かもしれない。まあそれは置いておいて、
Jamiroquai.co.ukのLinksページに、
サイトがリンクされた。すごい。
来日公演は、まだ不明だけど武道館は半分くらいの確率で2日とも
出張中なためチケット取っておらず。出張じゃなかったらいけるかなぁ。
大阪公演はまだ飛行機取ってないけど、いまさらマイルで行けるのだろうか。
明日あたり確認。新幹線でもいいけど・・
そういえば、ちょっと前にauのオークションで僕がデザインしたTシャツが売られてた
みたいですが、誰?恥ずかしいのでやめてくださいというかどうやって
入手したんだろうか。
AsinSearch=8884914191
SimilaritySearch=8884914191
SimilaritySearch=377571460X NG