Массовая загрузка изображений из веб-галереи на основе piwigo

Я хотел бы загрузить изображения оригинального размера с этого сайта, созданные на основе piwigo CM http://mermaid.pink/

Разрешается загрузка одного изображения, но на это уйдет много времени. Не могли бы вы предложить мне программное обеспечение, расширение, скрипт или что-нибудь еще, способное выполнить эту задачу?

2 ответа

Решение

Ты можешь использовать wget как показано здесь:

Загрузка всего веб-сайта с помощью wget

05 сентября 2008 Дашамир Ходжа в HOW-TOs

Если вам когда-либо понадобится загрузить весь веб-сайт, возможно, для просмотра в автономном режиме, wget может выполнить эту работу, например:

$ wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains website.org \
     --no-parent \
         www.website.org/tutorials/html/

Эта команда загружает веб-сайт http://www.website.org/tutorials/html/.

Варианты:

  • --recursive: скачать весь веб-сайт.
  • --domains website.org: не переходите по ссылкам за пределами website.org.
  • --no-parent: не переходите по ссылкам за пределами каталога tutorials / html /.
  • --page-requisites: получить все элементы, составляющие страницу (изображения, CSS и т. д.).
  • --html-extension: сохранять файлы с расширением.html.
  • --convert-links: конвертировать ссылки, чтобы они работали локально, автономно.
  • --restrict-file-names=windows: измените имена файлов, чтобы они работали и в Windows.
  • --no-clobber: не перезаписывать существующие файлы (используется, если загрузка прервана и возобновлена).

Из этих --page-requisites & --recursive вероятно, понадобится, хотя --convert-links или же --no-clobber может быть полезным Для получения дополнительной информации об использовании wget бежать man wget (или посмотрите здесь).

Это мое решение для этого, так как ваш вопрос получить изображения

Поэтому сначала создайте папку для сохранения изображений, затем перейдите в нее

#terminal
mkdir imagesFolder
cd imagesFolder/

# this one will take a long time but will download 
# every single image related to this website
wget -r -nd -H -p -A '*.jpg','*.jpeg','*.png' -e robots=off http://mermaid.pink/

#I recomend to use this one better as the images in this site are all jpg
# And recursion level is set to 1
wget -r -l 1 -nd -H -p -A '*.jpg' -e robots=off http://mermaid.pink/

Аргументы wget объяснили:

  • -r | --recursive:

    • Включите рекурсивный поиск. Максимальная глубина по умолчанию - 5.
  • -l глубина | --level = глубина:

    • Укажите максимальную глубину уровня рекурсии.
  • -й | --no-справочники:

    • Не создавайте иерархию каталогов при рекурсивном извлечении. Если эта опция включена, все файлы будут сохранены в текущем каталоге без дублирования (если имя появляется более одного раза, имена файлов получат расширения.n).
  • -H | --span-хосты:

    • Включите охват хостов при выполнении рекурсивного поиска.
  • -p | --page-реквизиты:

    • Эта опция заставляет Wget загружать все файлы, необходимые для правильного отображения заданной HTML-страницы. Это включает в себя такие вещи, как встроенные изображения, звуки и ссылки на таблицы стилей...
  • -А | --accept:

    • Укажите разделенные запятыми списки суффиксов или шаблонов имен файлов для принятия. Обратите внимание, что если в элементе acclist появятся какие-либо символы подстановки ,?, [Или], они будут рассматриваться как шаблон, а не как суффикс. В этом случае вы должны заключить шаблон в кавычки, чтобы ваша оболочка не раскрыла его, как в -A ".mp3" или -A '*.mp3'.
  • -е | --execute:

    • Выполните команду, как если бы она была частью.wgetrc. Вызванная таким образом команда будет выполнена после команд в.wgetrc, что будет иметь приоритет над ними. Если вам нужно указать более одной команды wgetrc, используйте несколько экземпляров -e.
    • В этом случае robots=off является аргументом -e

Для получения дополнительной информации в Wget введите в терминале

man wget

ИЛИ проверьте это

Спасибо T04435

Другие вопросы по тегам