Как скачать сайт целиком из интернета при помощи wget.

Категория: линукс программы

Будучи большим поклонником всех консольных утилит в Linux, не могу пройти мимо программы wget. А именно мимо возможности выкачивать сайты целиком из интернета и сохранять их на своём жёстком диске.

В целом ничего сверхестественного в этом нет, существует огромное количество программ для этого, но ничего проще чем wget я пока ещё не встречал.

Кстати кто не хочет устанавливать целый дистрибутив ради этой программы, то можно смело установить CygWin. В этой оболочке wget работает просто отлично.

Для того чтобы скачать сайт целиком можно просто набрать в консоли команду:

wget -r -k -l 7 -p -E -nc http://desired-web-site.com/

Теперь быстро пробежимся по параметрам:

-r   рекурсивно переходит по ссылкам сайта

-k преобразовывает скаченную информацию, чтобы можно было легко получить к ней доступ с жёсткого диска без подключению к интернету

-p закачиваются все сайты стилей и скриптов с картинками

-l глубина вложенности, как далеко нужно копаться в сайте

-E к скаченным файлам добавляется расширение html

-nc файлы не перезаписываются, проще говоря можно продолжить закачку сайта, если выключили свет

Кстати, можно довольно таки легко с сайта скопировать все файлы определённого типа, например zip.

Тогда строчка будет выглядеть как то так:

wget -A.zip -p website.com

А вообще не поленитесь и наберите команду:

man wget

 

 





Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *



Карта сайта
Copyright © 2019