wgetでサイトをまるごとダウンロード。
http://netafull.net/macosx/018510.html
こちらではDeepVacuumというソフトを使っていたけど、同じことをコマンドラインでやる方法。
というか、元ネタは以下なんですが。
コマンドライン未経験者のための「Wgetの使い方」 - ITmedia エンタープライズ
前にこの方法でhttp://hugo-sb.way-nifty.com/をまるごと保存したりしたなぁ、と思い出しがてら。
wget -xr http://〜
と言った感じにターミナルに入力すれば良かったはず。-xで「http://〜」というフォルダを作り、-rで再帰的に取得する、と言ったところ。
- xrbにして、-bを追加するとバックグラウンドで処理してくれます。
wgetってMacOSXに標準で入ってなかったかな?
入ってない場合は、ITmediaの記事にあるwget for Mac OS X | Status-Qからダウンロード。
もしくはhttp://darwinports.opendarwin.org/を入れてソースからビルドするか、Fink - Homeでバイナリとかで入れれば良いはず。