Webページのコピーを、ローカルディスク上に保存したくなった。
今までも、いろいろな方法を使ってやってきている。
perlスクリプトのwwwcp、gethtmlなどが主なものだが、最終的には、wgetで保存する方法に落ち着いた。
しかし、いちいちコマンドラインを打つのが面倒だ。そこで、wgetのフロントエンドを作成することにした。
- Windows上で動作する
- まず、やはり実際にwebを見るのはWindowsが圧倒的に多い。
- クリップボードの内容を見て、自動的にダウンロード
- できる限り入力の手間は省きたい。そのためにはコピーしたURLを利用するのが一番。
- 階層ダウンロード可能
- ダウンロードする階層数なども、できればマウスオペレーションでクリックする程度で可能にしたい。
WinBatchEhをインストールした理由はこのフロントエンド作成のため。
まあ、VBなどで作れば、もっと見栄えがよく設定の変更も簡単なものができるが、必要にして十分なものを最短の手間でという観点からはこれで十分。
クリップボードにURLを入れてgetweb.btwを起動すれば、こんなウィンドウが開く。あとは、ボタンをクリックするだけ。
ちなみに、実際に起動するコマンドラインはだいたいこんな感じ。
wgetWGET% -x -r -l 1 -p -k -erobots=off -o %LOG_FILE% -P %STORE_DIR% %URL%