Если вам понадобилось сделать локальную копию интересующего вас сайта, то wget будет очень полезен (ключи я описывал ранее):
$ wget -v -m -k -K -E -w 1 -p --output-file=wget.log http://www.notsecretsite.com/
Но, допустим, картинки вида http://www.notsecretsite.com/images/supersecret.png не списались и по-прежнему берутся с сайта, то стоит посмотреть на содержимое файла robots.txt. Там может быть запрет на списывание контента роботами:
User-agent: * Disallow: /images/ ... Host: www.notsecretsite.com
Это просьба владельца сайта к подобным краулерам не тянуть лишнее. Стоит её уважать. Но если всё-таки хочется переступить через эту просьбу, то можно сказать “-e robots=off” и wget прекрасно всё стянет:
$ wget -v -m -k -K -E -p -e robots=off -w 1 --output-file=wget.log http://www.notsecretsite.com/
Теперь осталось скормить списанный сайт браузеру или, что более полезно, забросить копию в DocumentRoot web-сервера и наслаждаться результатом.