映画とネットのDIARY(tDiary版)
検索エンジンからのアクセスで、お探しのキーワードが見あたらない場合はNamazuで再検索してみてください。
【映画の感想一覧】 2004年7月以降 2005年 2006年 2007年 2008年 2009年
2005年02月04日 [Fri]
■ NTT-X Store
Scansnapの価格をいろいろ調べたら、ここが一番安かったので注文。49,800円で7,000円のクーポンがその場で使えるので42,800円(税込み、送料不要)。これに36,540円のAcrobatも含まれているのだからお買い得だ。楽天で探しても、ここより安いのはなかった。
利用するのは初めてだが、クレジットカードが使えないのがちょっと不便。ま、銀行振り込みでもATMから振り込めば手間ではないんですがね。振り込んで2時間ほどで、入金確認のメールが来た。「お届け日:最速2月8日(火)」らしい。と思ったら、商品発送のお知らせが来た。早ければ日曜日には届くか。
■ サーチエンジン追加
リンク元にgooブログからの検索があったので、$HOME/www/diary/misc/plugin/jaのdisp_referrerプラグインのgooのところに以下の3行を追加。[%r{\Ahttp://blog\.goo\.ne\.jp/index\.php.*}, '"goo"', ['fid'], nil ], [%r{\Ahttp://blog\.goo\.ne\.jp/search/search\.php.*}, '"goo"', ['MT'], nil ], [%r{\Ahttp://so-net\.blog\.goo\.ne\.jp/search/so-net_search\.php.*}, '"goo(so-net)"', ['MT'], nil ],まとめ検索も以下を追加した。
[%r{\Ahttp://(www|search|movie)\.matome\.jp/tag/(.*(?=\.html\Z)|.*\Z)}i, 'keyword=$2; "まとめ検索"', [], nil],無事、検索に含まれた。それにしてもgooブログとココログにpingを打つようになって、検索エンジンからのアクセスが増えたなあ。
■ nofollowタグ
リファラSpamやコメントSpam対策で各検索エンジンが対応方針のタグ。日記のソースを見て、disp_referrer.rbがリンク元にこのタグを入れているのに気づいた。バージョン1.43から対応したとのこと(SourceForge.net CVS Repository - log - cvs: tdiary/plugin/disp_referrer.rb参照)。それならYahoo!検索から来た場合に再検索を促す自作プラグインは不要。Yahoo!のクロールが一通り終わったら外すことにしよう。
2006年02月04日 [Sat]
■ 「ナイト・ウォッチ」予告編
ロシア製のダークなSFファンタジーで4月公開が決まった。光の勢力と闇の勢力の戦いで、光の勢力の方はバンパイアという設定だけを見ると、「アンダーワールド」みたいな感じだが、もっと面白そう。ロシアでは大ヒットして興収記録を塗り替えたそうだ。といっても1600万ドル(18億4000万円)。きっと入場料が安いのだろう。続編の「デイ・ウォッチ」はさらに大ヒットしている。監督のティムール・ベクマムベトフはCMディレクター出身らしい。
公式サイトにある「2004年のアカデミー賞外国語映画部門にノミネートされた」とあるのは間違いでしょう。外国語映画賞のロシア代表作品に選ばれたのでは。本賞のノミネートには入っていない。
2007年02月04日 [Sun]
■ NMZ.slogの整理
Namazuの検索キーワードを保存するNMZ.slogは放っておくと、ファイルサイズが増えるばかりなので、時々チェックした方がいい。久しぶりに見てみたら、IPアドレス60.28.17.75からの検索がここ数日で5500回ほどあった。クローラーに違いない。ダウンロードした後、拙作の秀丸マクロ(不要行削除マクロ)を使って削除した。これ、時間が少しかかるので、disabledrawの処理を付け加え、描画をしないで削除するようにしたら、少し速くなった。このほか、検索回数が100回を超えているIPアドレスはクローラーと思って間違いない。なぜ、こんなにクローラーが多いかというと、最近の検索キーワード(nlview.cgi)のリンクをたどっているため。このCGIは表に出さない方がいい。サーバーに余計な負荷がかかるだけ。
Namazuと言えば、再検索CGI(subsearch.cgi)が対応しない検索エンジンが多くなっていた。仕様が変わったためだろう。少し書き換えればすむことなので、そのうち。ま、GoogleとYahoo!には対応しているのでいいでしょう。で、このsubsearch.cgi、Namazuで検索してキーワードが見つからなかった場合に、XOOPSで構築しているサイトにキーワードを渡したいと思い、改造してみた。XOOPSの検索もgetなので対応できるのだった。
というわけで、修正した。こんな感じ。
2009年02月04日 [Wed]
■ ココログファイルの切り分け
ココログの全文検索はいちいち「このブログ内で検索」を選ぶのが面倒なので、Googleのカスタム検索を付けた。サイドバーに設置するには「マイリスト」の新規作成でメモを選び、ソースを貼り付ければよい。それだけでは面白くないので、検索結果をサイドバーに表示するようにした。この作り方は以前、映画とネットのDIARY(2009-01-07)に書いた通り。
これで少しはましだが、Namazuでも検索できるようにしたいところ。ココログの設定画面から書き出したファイルは1ファイルに全部の記事が収容されている。これを切り分け、1記事1ファイルの形にしてNamazuで検索できるようにすれば良いわけだ。で、秀丸で切り分けるマクロを書いてみた。
#num = 50;
#count = 0;
disabledraw;
call repeatSub;
enabledraw;
endmacro;
repeatSub:
while( #num > 0){
searchdown "--------";
if(!result){endmacro;
}else{
call cutSub;
#num = #num-1;
}
setactivehidemaru 1;
closehidemaru 2;
}
return;
cutSub:
gofiletop;
beginsel;
searchdown "--------";
cut;
deleteline;
openfile "";
paste;
#count = #count + 1;
$count = str(#count);
saveas "cocolog" + month + day + hour + minute + second + $count + ".html";
return;
#numは作成するファイル数を指定する。大量に記事を書いている場合はこの数字を増やすか、何回かマクロを繰り返せば良い。しかし、これで検索できるようになっても実際のページには飛べない。自分で確認できるだけ。ココログのファイル名は一定の規則にはなっていないのでこれは仕方ない。いや、規則はあるんだけど、タイトルによっても変わるので不規則なのだ。