Будучи большим поклонником всех консольных утилит в Linux, не могу пройти мимо программы wget.
А именно мимо возможности выкачивать сайты целиком из интернета и сохранять их на своём жёстком диске.
В целом ничего сверхестественного в этом нет, существует огромное количество программ для этого, но ничего проще чем wget я пока ещё не встречал.
Кстати кто не хочет устанавливать целый дистрибутив ради этой программы, то можно смело установить CygWin. В этой оболочке wget работает просто отлично.
Для того чтобы скачать сайт целиком можно просто набрать в консоли команду:
wget -r -k -l 7 -p -E -nc //desired-web-site.com/
Теперь быстро пробежимся по параметрам:
-r рекурсивно переходит по ссылкам сайта
-k преобразовывает скаченную информацию, чтобы можно было легко получить к ней доступ с жёсткого диска без подключению к интернету
-p закачиваются все сайты стилей и скриптов с картинками
-l глубина вложенности, как далеко нужно копаться в сайте
-E к скаченным файлам добавляется расширение html
-nc файлы не перезаписываются, проще говоря можно продолжить закачку сайта, если выключили свет
Кстати, можно довольно таки легко с сайта скопировать все файлы определённого типа, например zip.
Тогда строчка будет выглядеть как то так:
wget -A.zip -p website.com
А вообще не поленитесь и наберите команду:
man wget
Добавить комментарий