Всем привет!
Есть такая страница сайта
Нужно скачать, чтобы на локалке открывалась и на хостинг можно было закинуть.
Пробовал все различные команды wget , но качает что-то не то. Видимо страница по хитрому формируется.
Какими еще способами можно скачать ?
Дополнительно:
Содержание
Ответы:
гугли offline explorer или offline browser (там много разного софта было)
когда то это был единственный способ бакапить сайты со скриптами.
если сделать самому - то пишешь или ищешь примитивный http-сервер или прокси, собирающий все запросы, гарантированно их кеширующий, игнорируя настройки, и соответственно отдавай в следующий раз только закешированную версию
p.s. содержимое сайта с вероятность 99.(9) скам, будь осторожен
Я сохранил страницу в браузере и удалил из HTML все скрипты (<script>...</script>) и все заработало нормально.
- хм, можете архив куда нибудь залить, я удалил все скрипты у пеня вобще белая страница стала
Для решения данной проблемы вы можете воспользоваться услугами фрилансеров. Мы выполним необходимую работу быстро и качественно.
Оставить комментарий Отменить
Ответы
- Есть ответ! к записи Как уменьшить масштаб меньше 100% в Windows 10 (22H2)
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Как называется человек, который дизайн придумает для сайта и сверстает его?
- Есть ответ! к записи Можно ли установить Яндекс.Диск на АльтЛинукс?
- Есть ответ! к записи Картинки мутные только на сафари, есть выход?
- Есть ответ! к записи Keenetic. Как настроить SSTP клиент с сертификатом?
- Есть ответ! к записи Чем заменить executor в aiogram 3?
Для скачивания страницы сайта кроме использования утилиты wget, можно воспользоваться другими способами, такими как:
1. Использование curl:
где
- адрес страницы, которую вы хотите скачать. Curl является мощным инструментом командной строки для работы с URL-адресами, который поддерживает множество протоколов.2. Использование браузера:
Откройте браузер, перейдите на нужную страницу, затем нажмите правой кнопкой мыши на странице и выберите "Сохранить как" или "Сохранить страницу как". Этот способ позволяет сохранить страницу с изображениями и стилями.
3. Использование Python:
Если у вас установлен Python, вы можете воспользоваться следующим скриптом для скачивания страницы:
где
- адрес страницы, аpage.html- имя файла, в который будет сохранена страница.4. Использование PHP:
Если вы хотите скачать страницу с помощью PHP, вы можете воспользоваться следующим кодом:
где
- адрес страницы, аpage.html- имя файла, в который будет сохранена страница.Эти способы позволят вам скачать страницу сайта без использования wget.
Для скачивания страницы сайта, помимо утилиты wget, существует несколько альтернативных способов. Вот некоторые из них:
1. **curl**: Это другая популярная утилита командной строки, которая позволяет скачивать файлы из сети. Для скачивания страницы сайта с помощью curl, вы можете использовать следующую команду:
2. **PHP**: Вы также можете написать скрипт на PHP, который будет скачивать страницу сайта. Пример такого скрипта:
3. **Python**: Если у вас установлен Python, вы можете использовать библиотеку requests для скачивания страницы сайта. Вот пример кода на Python:
4. **GUI приложения**: Существуют также различные программы с графическим интерфейсом, которые позволяют скачивать страницы сайтов, например, HTTrack или Teleport Pro.
5. **Браузерные расширения**: Некоторые браузеры имеют расширения, которые позволяют скачивать страницы целиком, например, Save Page WE для Firefox.
Надеюсь, что один из этих способов поможет вам скачать страницу сайта без использования wget.