Загрузите материал по URL-пути
Предположим, у меня есть определенные страницы, например, www.abc.def/ghi/a.html; Как я могу скачать все страницы в www.abc.def / ghi с помощью httrack? (т.е. www.abc.def/ghi/a.html,
www.abc.def/ghi/b, ...)? Прямо сейчас я использую простую httrack http://www.abc.def/ghi/ -O
<output-folder>
команда, но она не работает с некоторыми сайтами.
Например, когда я пытаюсь сделать это с http://www.getsidekick.com/blog/, он ничего не загружает. Однако, если я использую http://www.getsidekick.com/blog (обратите внимание на отсутствующую последнюю косую черту), он загружает все содержимое в http://www.getsidekick.com/blog/, но в то же время даже содержание под http://www.getsidekick.com/. Я не знаю, в чем может быть проблема (возможно, тот факт, что у них нет .html
расширение?? например, http://www.getsidekick.com/blog/ultradian-rhythm-pomodoro-technique), и я не нашел работающего решения в руководстве или на их официальном форуме.
Кроме того, я уже знаю, как это сделать с wget
, но я хотел бы сделать то же самое с httrack
, Итак, есть ли стандартный способ сделать это?
1 ответ
Он идет по каждой ссылке на странице, и есть ссылка на верхний уровень.
Попробуйте использовать wget
с рекурсивными и не родительскими опциями.
wget -r --no-parent http://www.getsidekick.com/blog