Скачивание страниц на сайте, вместо открытия?
Друзья, уже целый день бьюсь и не могу понять на сайте при клике на внутреннюю страницу сайта происходит не переход, а скачивание, уже заново залил проект на хостинг, почистил все в стандартных файлах хостинга. Скачивание происходит именно определенных 2х страниц проекта, так же и с телефона такая же проблема но пока с одной странице. Ранее ссылки на проекте открывались нормально, а сейчас усе.
Пробовал в .htaccess внедрять разную защиту, но не помогло
Вот код .htaccess
|
1 |
Header set Strict-Transport-Security "max-age=31536000; includeSubDomains; preload" env=HTTPS AddDefaultCharset utf-8 RewriteEngine On RewriteBase / RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^(.*)$ index.php [L,QSA] RewriteCond %{HTTP_REFERER} !^$ RewriteCond %{HTTP_REFERER} !^http(s)?://(www.)?site.ru [NC] RewriteCond %{HTTP_REFERER} !^http(s)?://(www.)?site [NC] RewriteRule .(jpg|jpeg|png|gif)$ - [NC,F,L] <IfModule mod_headers.c> Header set X-XSS-Protection "1; mode=block" Header set X-Content-Type-Options "nosniff" Header always set Strict-Transport-Security "max-age=63072000; includeSubDomains" Header set Referrer-Policy "same-origin" </IfModule> <IfModule mod_expires.c> ExpiresActive On ExpiresByType image/jpg "access 1 year" ExpiresByType image/jpeg "access 1 year" ExpiresByType image/gif "access 1 year" ExpiresByType image/png "access 1 year" ExpiresByType text/css "access 1 day" ExpiresByType text/html "access 1 month" ExpiresByType application/pdf "access 1 month" ExpiresByType text/x-javascript "access 1 month" ExpiresByType application/x-shockwave-flash "access 1 month" ExpiresByType image/x-icon "access 1 year" ExpiresDefault "access 1 month" </IfModule> BrowserMatchNoCase "Baiduspider" bots BrowserMatchNoCase "SemrushBot" bots BrowserMatchNoCase "Yandex" bots BrowserMatchNoCase "BLEXBot" bots BrowserMatchNoCase "AhrefsBot" bots BrowserMatchNoCase "DotBot" bots BrowserMatchNoCase "Exabot" bots BrowserMatchNoCase "SeznamBot" bots BrowserMatchNoCase "aiHitBot" bots BrowserMatchNoCase "spbot" bots BrowserMatchNoCase "MJ12bot" bots BrowserMatchNoCase "oBot" bots BrowserMatchNoCase "DeuSu" bots BrowserMatchNoCase "ia_archiver" bots BrowserMatchNoCase "MetaURI" bots BrowserMatchNoCase "FlipboardProxy" bots Order Allow,Deny Allow from ALL Deny from env=bots |
Так же есть JS код который касается по работе над тегом
|
1 |
setTimeout(function () { $('a[href]').each(function () { var href = this.href; $(this).removeAttr('href').css('cursor', 'pointer').click(function () { if (href.toLowerCase().indexOf("#") >= 0) {} else {window.location.href = href;} }); }); }, 500); |
Пробовал его комментировать и без него совершать переход по проблемным ссылкам но бесполезно. Подскажите пожалуйста, в чем может быть проблема и как ее решить?
Дополнительно:
Нажать в браузере F12 и посмотреть, с какими заголовками возвращаются проблемные страницы.
Либо настройки сервера, либо код самих страниц.
Request Method: GET
Когда на них нажимаешь отображаются они вот так без разрешения .php как файл
Самая верхняя страница нормально открывается, а вот последние 2 скачиваются
P.S. Последние две не скачиваются, а берутся прямо из кэша браузера, не видите что-ли?
|
1 |
<IfModule mod_expires.c> ExpiresActive On ExpiresByType image/jpg "access 1 year" ExpiresByType image/jpeg "access 1 year" ExpiresByType image/gif "access 1 year" ExpiresByType image/png "access 1 year" ExpiresByType text/css "access 1 day" ExpiresByType text/html "access 1 month" ExpiresByType application/pdf "access 1 month" ExpiresByType text/x-javascript "access 1 month" ExpiresByType application/x-shockwave-flash "access 1 month" ExpiresByType image/x-icon "access 1 year" ExpiresDefault "access 1 month" </IfModule> |
Пробовал удалять эту часть кода, тоже ноль реакции
Кстати, даже если вы выкинете этот кусок - кэширование не исчезнет. Оно будет определяться настройками по умолчанию (точнее, теми, которые прописаны у вас в конфигурации сервера).
Для решения данной проблемы вы можете воспользоваться услугами фрилансеров. Мы выполним необходимую работу быстро и качественно.
Оставить комментарий Отменить
Ответы
- Есть ответ! к записи Как уменьшить масштаб меньше 100% в Windows 10 (22H2)
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Аналоги CloudFlare в России?
- Есть ответ! к записи Как называется человек, который дизайн придумает для сайта и сверстает его?
- Есть ответ! к записи Можно ли установить Яндекс.Диск на АльтЛинукс?
- Есть ответ! к записи Картинки мутные только на сафари, есть выход?
- Есть ответ! к записи Keenetic. Как настроить SSTP клиент с сертификатом?
- Есть ответ! к записи Чем заменить executor в aiogram 3?


Для того чтобы скачивать страницы с сайта вместо их открытия в браузере, можно воспользоваться различными инструментами и техниками.
Один из способов - использовать утилиту wget в командной строке. Например, чтобы скачать страницу с сайта, можно выполнить следующую команду:
Если необходимо скачать все страницы с определенного сайта, можно использовать опцию -r (рекурсивно):
Также можно использовать специализированные программы для скачивания контента с веб-сайтов, например, программу HTTrack. Она позволяет скачивать целые сайты целиком, сохраняя структуру и ссылки между страницами.
Если вы предпочитаете использовать браузер для скачивания страниц, то большинство современных браузеров имеют функцию сохранения страницы как файла. Обычно это можно сделать через меню браузера или используя комбинацию клавиш Ctrl+S.
Таким образом, выберите удобный для вас способ скачивания страниц с сайта вместо их открытия в браузере и используйте его в зависимости от ваших потребностей.