Использование wget с Streamcloud и страницами, где вам приходится ждать

Я новичок в bash-скриптинге и, когда услышал о "wget", я решил написать скрипт для загрузки только файла.mp4 по ссылке streamcloud (или любой другой).

Я использую это как обычно:

wget -q -O - http://somelink.com | grep keyword

Но проблема, с которой я сталкиваюсь, заключается в том, что я получаю исходный код с сайта, на котором мне нужно подождать несколько секунд, пока я не "пойду на видео", и это, очевидно, не то, где я могу найти ссылку на файл mp4. Поэтому я хотел бы знать, как я могу получить источник страницы, на которую вы попадаете после ожидания, где вы действительно можете посмотреть видео и чей источник содержит ссылку на mp4 (тогда я смогу найти ее).

Я на самом деле могу получить ссылку на mp4 вручную, но я просто хотел бы автоматизировать ее с помощью сценария оболочки.

Большое спасибо! Любая помощь будет оценена!

1 ответ

Вам нужно сохранить вывод wget в файл и посмотреть html, чтобы увидеть, как они реализуют тайм-аут и перенаправление. Есть несколько методов, которые могут быть использованы. Например, самая простая строка в заголовке HTML выглядит следующим образом:

<meta http-equiv="refresh" content="2;url=http://newurl/"> 

Это заставляет браузер переходить на новый URL через 2 секунды. Вам нужно использовать инструмент вроде sed, чтобы извлечь URL, а затем снова запустить wget для нового URL.

Более сложные решения включают в себя JavaScript.

Другие вопросы по тегам