В общем скачал этот сайт клик через приложение WinHTTrack Website Copier, но контента нету на сайте, как обойти эту защиту и скачать весь сайт целеком? Вот скрин что вышло
Если кто знает как скачать то буду рад помощи, через WebCopy тоже самое вышло
Дополнительно:
Наверное, нет прав доступа на чтение для файлов и каталогов сайта (хостинг). Защита, так сказать, от копирования. И от доступа посторонних, любопытных глаз. Сейчас не времена простых HTML-страниц и сайтов по типу "народа" (раньше был такой бесплатный хостинг). Где просто зашел в каталог, да качнул что интересно.
Контент, судя по всему, выдается неким хитрым образом (через основное приложение сайта, через скрипты?). А не напрямую, как было когда-то. Да и хранится, он, вероятно, не в сверстанных html-файлах, а в базе данных.
Защиту от копирования контента, порой нынче, можно наблюдать и на самих страницах: толи функция выделения текста, толи функция копирования выделенного текста - может быть запрещена.
Нет там никакой "защиты" - фронт сайта просто написан на vue.
https://vuejs.org/
Локально вы замучаетесь его подымать в виде статики.
В основных js скриптах - дизайн и вся логика (клиент сайт рендеринг - отрисовка сайта на стороне клиента )
бакенд содержимое нужных страниц отдает как json
- Хз, искать лень, но точно должны быть инструменты для этого: не такие уж проблемы сграбить весь сетевой трафик, подменить адрес и сделать чтоб сборка работала на локальном сервакеэлектронеещё как. Запросы редко прям рандомные.
...upd
В принципе даже особо напрягаться не придётся - серьёзную часть работы на себя возьмёт механизм PWA встроенный в браузеры.Конечно как обычный html-файл такой скачанный сайт уже не откроешь, но это уже давно не вариант.:)
Сайт полностью сгенерирован Javascript уже в браузере после загрузки страницы. В самом исходном коде html никаких данных нет. Поэтому скачать обычным образом его не получится.
Хорошо, что прекрасные люди придумали для этой задачи расширения для браузера. Например, вот такое https://chromewebstore.google.com/detail/save-page...
Нажав на кнопку расширения, будет скачана вся страничка полностью вместе со всеми текстами, стилями и изображениями в формате base64
- Хорошо, попробую
- Работает, но нельзя редактировать и вообще почти не работает страника
- ElezthemDev, Как это нельзя редактировать? Открываете html файл и редактируете, что душе угодно.
- Виктор Кожухарь, там симфолы не понятные и не всё работает
- ElezthemDev, квакозябры вместо символов? Значит кодировка файла неправильная.
- Иван, русскую поставить?
- Иван,
Вот так выглядит и вообще не понятно что написано, как сделать чтобы был нормальный html код?
- ElezthemDev, Это нормальный html-код. Просто изображения встроены прямо в этот html файл в виде base64. Там есть и тексты и всё остальное
Есть старая, но надежная программа TeleportPro называется. Создают полностью локальную сайта. Имеет кучу настроек, включая глубину загрузки и выборки что качать, можно ли переходить на другие сайты. Правит ссылки на локальные.
- Ну даже не знаю, просто уже как другой пишу а так попробую 🙂
Для решения данной проблемы вы можете воспользоваться услугами фрилансеров. Мы выполним необходимую работу быстро и качественно.
Оставить комментарий Отменить
Ответы
- Есть ответ! к записи Как уменьшить масштаб меньше 100% в Windows 10 (22H2)
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Как называется человек, который дизайн придумает для сайта и сверстает его?
- Есть ответ! к записи Можно ли установить Яндекс.Диск на АльтЛинукс?
- Есть ответ! к записи Картинки мутные только на сафари, есть выход?
- Есть ответ! к записи Keenetic. Как настроить SSTP клиент с сертификатом?
- Есть ответ! к записи Чем заменить executor в aiogram 3?



Для скачивания всего контента с сайта можно воспользоваться различными инструментами и методами, в зависимости от того, какой именно контент вы хотите скачать.
Если вам нужно скачать только текстовый контент (например, статьи, блоги, новости), вы можете воспользоваться программами для парсинга веб-страниц, такими как Beautiful Soup для Python или DOMDocument для PHP. С помощью этих инструментов вы сможете извлечь текстовый контент из HTML-страниц и сохранить его на вашем компьютере.
Если вы хотите скачать мультимедийный контент (например, изображения, видео), вам придется использовать специализированные программы для загрузки файлов из интернета, такие как wget или curl. Вы можете указать URL-адрес файла, который вы хотите скачать, и эти инструменты помогут вам скачать его на ваш компьютер.
Если вы хотите скачать весь контент с сайта целиком (включая HTML-код, изображения, CSS-стили и другие ресурсы), вам придется использовать инструменты для скачивания целых веб-сайтов, такие как HTTrack или WebCopy. Эти программы позволяют вам создать копию всего сайта на вашем компьютере, чтобы вы могли просматривать его офлайн.
Не забывайте, что скачивание контента с сайта может быть запрещено правилами использования сайта или законодательством вашей страны. Убедитесь, что вы имеете право скачивать контент с сайта, прежде чем приступать к этому процессу.