Home

日記
64.191.53.180でRNAlibwww-perl/5.69を回している人 (13:51)Edit

ノーウェイトでblogmapのRSSをfetchして、1日117529ヒットってのは立派に攻撃レベルですよ。このアクセスだけで転送量も1G超えてますよ。もうdenyしたけど、これはいくらなんでもひどすぎ。

Published At2004-06-01 00:00Updated At2004-06-01 00:00

日記
今度はYahoo! Slurpか (13:51)Edit

昨日の64.191.53.180からのアタック(http://mylog.ishinao.net/id/1227)はhttpdレベルで403返しただけじゃ負荷が収まらなかったんで、iptablesレベルでdenyしたらようやく収まった。

と思ったら、また気がついたら変にサイトが重い。で、見てみたら今度はYahoo! Slurpですか。blogmapのランキングでYahoo!が検索エンジンを変えたとかいうタイトルを目にした気がするけど、その関係かな。今日だけで5500アクセス以上来ているし、しかも複数のロボットが同時にアクセスしている関係上、集中同時アクセスなんかも発生している模様。

基本的に検索エンジンロボット系はできる限り弾かない方針なんだけど、こんなのがしばらく続くようだとちょっと我慢ならないなー。明日になってもアクセスが収まらないようだったら、66.196.90.11〜15あたりをまとめて弾くか。人が忙しいときにこういうことはせんでもらいたいのー。

Published At2004-06-01 00:00Updated At2004-06-01 00:00

日記
ふーっ (13:51)Edit

ようやく一息つけた。どのくらい隙間があるかな。なんか私的リフレッシュネタをやりたいところ。SQLite+VB.NETでWikiMemoをちゃんと作り直そうとか思って、手をつけ始めたんだけど、やっぱりSQLiteなんか使わない(ディレクトリ+ファイルでデータを保存する)方がいいような気もしてきた。というか、データストレージとしてSubversion(+Apache2)を使うってのはありかなー。HTTPでアクセスすると、/repos/textで元データが、/repos/htmlでレンダリング結果が、/repos/attachで添付ファイル(画像等含む)が見える感じ。で、更新は専用クライアントでtextをダウンロードして変更し、commitすると同時にhtmlも更新をかける、とか。リバースプロキシで/repos/htmlだけを適当なURLにマウントしておけば、一見ふつうのサイトに見えつつ、バックエンドはWiki風管理というアプローチもできるかな。などというところまで手をつけている余裕はないだろう。

Published At2004-06-09 00:00Updated At2004-06-09 00:00

日記
Google検索結果をRSS化する (13:51)Edit

Google Web APIsを使って検索した結果をRSSに変換するツールってあったら便利かなーとふと思ったりしたけれども、別に大して便利でもないかな。RSSリーダーなんかで特定のキーワードに関する検索状況を定期チェックしたりする手助けくらいにはなる程度か。ありもののライブラリを組み合わせると5分くらいでできそうな気がする。

#!/usr/bin/perl
use CGI;
use Net::Google;
use XML::RSS;
my $QUERY = '検索キーワード';
my $GOOGLE_LICENSE_KEY = 'あなたのGOOGLE_LICENSE_KEY';
my $SEARCH_RESULT_COUNT = 10;
my $google = Net::Google->new(key => $GOOGLE_LICENSE_KEY);
my $search = $google->search();
$search->max_results($SEARCH_RESULT_COUNT);
my $query = $search->query( $QUERY );
my $rss = new XML::RSS (version => '1.0');
$rss->channel(
title => "Google Search Result: ".CGI::escapeHTML($QUERY),
link => "http://www.google.com/search?q=".CGI::escape($QUERY),
description  => "search by Google : ".CGI::escapeHTML($QUERY)
);
foreach my $result(@{$search->results()}) {
$rss->add_item(
title => $result->title(),
link => $result->URL(),
descrption => $result->summary(),
);
}
print $rss->as_string;

できたかも。

Published At2004-06-11 00:00Updated At2004-06-11 00:00

日記
分散はてなグループを実現する (13:51)Edit

はてなグループ(http://g.hatena.ne.jp/)というか、blogベースのグループウェア(フリーフォーマットなテキスト群を、キーワード文字列を介して、特定のグループにおける特定の意味づけにおいて結びつける)というネタはかなりいかすと思うんだけど、はてなグループの場合、はてなダイアリーシステムを必ず使わなければならないというところがもったいないと思う。はてなダイアリーシステムも悪くはないんだけど、ほかのblogツールやサーバーを使うという選択肢もほしい。

で、昔少しだけ試した「言葉交差点」的アプローチを使って、様々なサーバー(およびツール)を使ってホスティングされている複数のblogの情報を結びつけるシステムを用意することで、ツールに縛られずにはてなグループ的なことが実現できると思う。

具体的には、

  • 記事情報投稿I/F - 各ツールで更新された記事の本文および固定URLを通知するインターフェース。登録ユーザー(のblogから)のみ投稿可能。本当は各blogツールの更新処理と連動して自動化されるのが理想だけど、最悪手動で投稿するという逃げ道もあるだろう。
  • 共有ディクショナリ - 複数blogで共有するキーワードベースのCMS。つまりはWikiのようなもの。ここの機能次第でよりグループウェアっぽくすることが可能だろう。登録ユーザーのみが編集可能。
  • キーワード取得I/F - 共有ディクショナリに登録されているキーワード一覧を取得するインターフェース。
  • 各blog用キーワード表示プラグイン - キーワード取得I/Fから取得したキーワード情報を利用して、各blogの記事本文にキーワードリンクを埋め込む(もちろん必ずしも本文内にレンダリングしなければならないというものではない)プラグイン。

あたりがあれば、それっぽいことができるはず。

仕組みとしては全然難しい部分はないんで、まともな仕様さえ切ることができれば作るのは簡単なはず。この仕組みは、blogベースのグループウェアだけでなく、複数Wiki同士の高度な連携を実現するという目的にも使えると思う。誰か作らない? 誰も作らなかったらそのうち自分で作ってみるけど。

Published At2004-06-11 00:00Updated At2004-06-11 00:00

日記
むぅ琢磨 (13:51)Edit

そろそろ今シーズンこれから一回くらい表彰台にのる程度の結果じゃ、来シーズン以降のシートが安泰とは思えない感じになってきた気がするぞ。さすがに今回はチームからも批判が大きいっぽいし。とにかく結果を残そうよ。今回だってウィリアムズと-[ザウバー]-トヨタが失格になった(http://www.grandprix.com/ns/ns13040.html)ってことは、最後まで無難に走りきれていれば、ポイントは余裕で取れていただろうに。

Published At2004-06-14 00:00Updated At2004-06-14 00:00

日記
blogmap検索インデックス更新中止 (13:51)Edit

Estraierを新しいバージョンにアップデートしたら、不正な形式っぽいデータ(HTMLと名乗ったバイナリデータだと思うけど、細かく確認していない)を食わせても異常終了することがなくなったんだけど、index生成負荷がずいぶん高くなった模様。特に分割生成したindexをmergeするときの負荷が高すぎて、いくらniceしていてもサーバーごとこける。というかestmergeしているときに、MySQLにちょっと高めの負荷(blogmapの集計系query)をかけるとMySQLがロックの嵐になってconnection数を食いつぶして死ぬ。分割estindexの段階ではそんなに負荷が高くないんだけどなー。なんかいい方法を思いつくまでindex更新は中止。/proc/sys/vm/bdflushをいじればEstraier関連の負荷は低くできそうだけど、ほかへの影響が読めないんだよなー。

Published At2004-06-14 00:00Updated At2004-06-14 00:00

日記
プロバイダの縛りのないIP電話 (13:51)Edit

契約プロバイダの縛りのないIP電話ってないんですかね? てっきり、インターネット回線プロバイダとは関係なく、IP電話サービスにだけ加入して使えるものだと思っていたら、たいていのところはインターネット回線サービスに契約しないと、IP電話サービスは提供しない模様。よりによって今使っているbit-driveはIP電話サービスはやってないみたいなんだよなー。でもIP電話サービスのために回線を乗り換えるのはいろいろと面倒くさい。それだったら、適当な安いADSL+IP電話サービスを別に引いた方がいいのかも。むぅ。

Published At2004-06-14 00:00Updated At2004-06-14 00:00

日記
Petals Around the Rose (13:51)Edit

Petals Around the Rose - http://member.melbpc.org.au/~lborrett/computing/petals-j.htm

さいころ5個の数字と結果の数字を10回分くらい並べて、答えは必ず偶数になるような操作パターンを試してみたら、どうやら正しい計算方法に行き着いたらしい(5回くらい連続で正答したら、We think you've probably got it.と出た)けど、どの辺がおもしろいのかよくわからんちん。

Published At2004-06-16 00:00Updated At2004-06-16 00:00

日記
運転免許更新 (13:51)Edit

昨日は運転免許の更新に鴻巣の免許センター(@埼玉)に行ってきましたよ。今回俺は最寄りの警察署で更新できない状況になっていたのね。確か、5年くらい前に原チャリのスピード違反で1回、3年くらい前にバイクの通行区分違反(要はすり抜け)で1回捕まった覚えがあるから、2回の軽微な違反って扱いなのかな。1回目の違反ってその後1年無違反だったら記録から消えるとか聞いた気がするけど、細かいことを調べるのが面倒くさいからどうでもいいや。

それにしても、鴻巣は(浦和から)微妙に遠いな。ひたすら17号を下っていくだけなんだけど、大宮を越えてバイパスが終わったあたりから先は、平日の昼間なのに微妙な渋滞がずっと続いていて、結局うちから1時間ちょっと(ナビが下道時速30km/h平均で計算した通り)かかった。平日昼間の国道だったら、悪くてもナビの予測の7、8割の時間でつくと思っていたのに。

さらに、着いてからの違反者向け講習がきっちり2時間ありやがった。ちゃんとやるものなのか。ビデオはおもしろかったけど、おっちゃんの話はだるかったな。交通法規の最近の変更点の話はそれなりにおもしろかった(というか情報として有用だった)けど、それ以外の話はどうでもいいや。30分ぶんくらいしか内容がなかった気がする。

ちなみに免許の更新に必要なのは、古い免許、通知のはがき、お金(3000円〜4000円程度)が基本。あと住所とか本籍とか名前とかが変わった人は、その証明書類(住民票とか)が必要。受付時間は午前8:45〜11:00および午後13:00〜14:30。

ただ、講習の方の時間がある程度決まっているんで、タイミングが悪いと待ち時間が変に長くなるかも。俺の場合は14:00ちょい過ぎに着いて14:00〜16:00の講習を受けたんだけど、たぶん13:00に受付した人も同じ講習を受けなきゃならないんじゃないかな。となると一番いいのは14:30に受付して14:30〜16:00で講習を受けるパターンか。ただぎりぎりをねらって受付が間に合わないと悲惨だけど。

そういやいつの間にやら、免許の更新って誕生日の前後1ヶ月間の間できるように変わっていたんだね。要は、誕生日後も1ヶ月更新できる期間が延長されたってこと。なんで、今回交付された免許証の有効期間も、「○○年の誕生日まで」ではなくて、「○○年の誕生日の一ヶ月後まで」になっている。それにしても今回の免許証の写真は人相が悪いなー。

Published At2004-06-16 00:00Updated At2004-06-16 00:00