Использование wget с Streamcloud и страницами, где вам приходится ждать
Я новичок в bash-скриптинге и, когда услышал о "wget", я решил написать скрипт для загрузки только файла.mp4 по ссылке streamcloud (или любой другой).
Я использую это как обычно:
wget -q -O - http://somelink.com | grep keyword
Но проблема, с которой я сталкиваюсь, заключается в том, что я получаю исходный код с сайта, на котором мне нужно подождать несколько секунд, пока я не "пойду на видео", и это, очевидно, не то, где я могу найти ссылку на файл mp4. Поэтому я хотел бы знать, как я могу получить источник страницы, на которую вы попадаете после ожидания, где вы действительно можете посмотреть видео и чей источник содержит ссылку на mp4 (тогда я смогу найти ее).
Я на самом деле могу получить ссылку на mp4 вручную, но я просто хотел бы автоматизировать ее с помощью сценария оболочки.
Большое спасибо! Любая помощь будет оценена!
1 ответ
Вам нужно сохранить вывод wget в файл и посмотреть html, чтобы увидеть, как они реализуют тайм-аут и перенаправление. Есть несколько методов, которые могут быть использованы. Например, самая простая строка в заголовке HTML выглядит следующим образом:
<meta http-equiv="refresh" content="2;url=http://newurl/">
Это заставляет браузер переходить на новый URL через 2 секунды. Вам нужно использовать инструмент вроде sed, чтобы извлечь URL, а затем снова запустить wget для нового URL.
Более сложные решения включают в себя JavaScript.