日報 #53 - catしてgrepしてcutしてsortしてuniqだっつぅうの!
業界じゃ有名なコップのフチ子さんですが、
2ググりくらいでは出身地とか年齢とかのパーソナリティ仕様は見つかりませんでした。
人相見に定評のある社内の人間に聞いたところ、
「静岡出身だね」との即レスを頂きましたので、きっとそうだろうと思うことにしました。
さてEC2の強制リブートに戦々恐々としているAWSユーザの皆様、
お元気ですか。
最近またapacheログと格闘することがあり、
こいつと向き合うのは最終手段にしてぇのになぁと思いながらlogファイルをヌルヌルと眺めておりました。
logのパースは結構面倒で、
なんか思い切って凄い特殊な文字列をLogFormat識別子にしちゃおうかなと思う日々ですが、
そもそも厳密にパースせないかんとかいう事態そのものがきな臭いですね。
さて今日は特に瞬間最大風速が問題となったので、とりあえずイケてそうなソフトを探してみます。
前回visitorみたいな解析アプリを使ってみましたが、目が荒い(時間毎)ので、
出来れば分毎、最大秒ごとに集計が出来るようなものを探しました。
が、あんまないっすね。
なので、「ちゃんと解析体制が整ってない自分が悪いんだぞ!」と言わんばかりの無理やりパースしましょう。
まず分毎のリクエスト数です。
もう僕の大好きcutコマンドとsortコマンドとuniqコマンド目白押しだったので紹介したかっただけです。
はいどん。
cat access.log | grep '28/Sep/2014' | cut -f2,3,4 -d: | sort | uniq -c
次に秒ごと。
cat access.log | grep '28/Sep/2014' | cut -f2,3,4 -d: | cut -f1 -d' ' | sort | uniq -c
ごく荒くアクセス解析をするならこれで十分ですね。
秒ごとが見れれば突発アクセスも解析できます。
あぁ!眠い!
筋肉痛が凄いよマサルさん!
じゃぁね!