getweb.btw: Webページの保存

Webページのコピーを、ローカルディスク上に保存したくなった。
今までも、いろいろな方法を使ってやってきている。
perlスクリプトのwwwcp、gethtmlなどが主なものだが、最終的には、wgetで保存する方法に落ち着いた。
しかし、いちいちコマンドラインを打つのが面倒だ。そこで、wgetのフロントエンドを作成することにした。

Windows上で動作する
まず、やはり実際にwebを見るのはWindowsが圧倒的に多い。
クリップボードの内容を見て、自動的にダウンロード
できる限り入力の手間は省きたい。そのためにはコピーしたURLを利用するのが一番。
階層ダウンロード可能
ダウンロードする階層数なども、できればマウスオペレーションでクリックする程度で可能にしたい。

WinBatchEhをインストールした理由はこのフロントエンド作成のため。
まあ、VBなどで作れば、もっと見栄えがよく設定の変更も簡単なものができるが、必要にして十分なものを最短の手間でという観点からはこれで十分。

クリップボードにURLを入れてgetweb.btwを起動すれば、こんなウィンドウが開く。あとは、ボタンをクリックするだけ。

ちなみに、実際に起動するコマンドラインはだいたいこんな感じ。

wgetWGET% -x -r -l 1 -p -k -erobots=off -o %LOG_FILE% -P %STORE_DIR% %URL%

getweb.btw

このブログ記事について

このページは、norが2007年2月 9日 12:12に書いたブログ記事です。

ひとつ前のブログ記事は「インストール: WinBatchEh 2.12」です。

次のブログ記事は「インストール: AsfBin Version 1.5」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

アーカイブ

ウェブページ

Powered by Movable Type 6.8.5