Загрузите материал по URL-пути

Предположим, у меня есть определенные страницы, например, www.abc.def/ghi/a.html; Как я могу скачать все страницы в www.abc.def / ghi с помощью httrack? (т.е. www.abc.def/ghi/a.html, www.abc.def/ghi/b, ...)? Прямо сейчас я использую простую httrack http://www.abc.def/ghi/ -O <output-folder> команда, но она не работает с некоторыми сайтами.

Например, когда я пытаюсь сделать это с http://www.getsidekick.com/blog/, он ничего не загружает. Однако, если я использую http://www.getsidekick.com/blog (обратите внимание на отсутствующую последнюю косую черту), он загружает все содержимое в http://www.getsidekick.com/blog/, но в то же время даже содержание под http://www.getsidekick.com/. Я не знаю, в чем может быть проблема (возможно, тот факт, что у них нет .html расширение?? например, http://www.getsidekick.com/blog/ultradian-rhythm-pomodoro-technique), и я не нашел работающего решения в руководстве или на их официальном форуме.

Кроме того, я уже знаю, как это сделать с wget, но я хотел бы сделать то же самое с httrack, Итак, есть ли стандартный способ сделать это?

1 ответ

Он идет по каждой ссылке на странице, и есть ссылка на верхний уровень.

Попробуйте использовать wget с рекурсивными и не родительскими опциями.

wget -r  --no-parent http://www.getsidekick.com/blog
Другие вопросы по тегам