Curl это программа для терминала Linux, чтобы закачивать файлы и веб сайты, а также для работы с ftp.
Конечно же профессионалы скажут, что кроме wget настоящему джигиту ничего больше не нужно, но есть ещё один инструмент для джигита, под названием curl.
Возможно в вашем дистрибутиве по умолчанию нет этой программы, поэтому:
sudo apt-get install curl
После установки, можно смело приступать к работе:
curl https://www.ukr.net
И по сути в терминале мы увидем содержание html файла, который сгенерирует для нашего компьютера веб сервер.
Вполне возможно, это далеко не то, что нам нужно, поэтому нужно указывать дополнительный параметр, для того, чтобы сохранить веб страницу, а именно:
curl https://www.ukr.net > ukr.html
И в таком случае мы сохраним себе на жёсткий диск веб сайт.
Также есть альтернативный вариант синтаксиса:
curl -o ukr.html https://www.ukr.net
Также можно сделать импровизированную линию прогресса из # хитрой коммандой в которой добавляем -x:
curl -x -o ukr.html https://www.ukr.net
К сожалению делать копию сайта при помощи curl сделать не получиться к сожалению, для этого больше подойдёт wget, но в отличие от wget у curl есть возможность работать с восемью протоколами включая ftp.
Также можно прерывать загрузку, и затем докачивать большие файлы при помощи префикса -C:
Например:
curl -C - --output ubuntu18043.iso http://releases.ubuntu.com/18.04.3/ubuntu-18.04.3-desktop-amd64.iso
Но перед этим конечно же нужно было начать этот файл закачивать при помощи curl.
Также если вы веб разработчик и хотите быстро глянуть заголовки которые отдаёт веб сервер, то можете задать следующие операторы:
curl -I www.ukr.net
Таким образом очень быстро можно посмотреть заголовки, для веб мастера просто отличная вещь.
Вариантов работы с этой программой ещё очень много, так что можно использовать её вместе с wget, и работать довольно быстро и качественнее нежели вы работали просто при помщи одного wget.
Добавить комментарий