Вопрос по запрету сканирования таких ссыок

Л1
На сайте с 27.12.2016
Offline
160
437

Добрый день. Сайт на вордпресс. В статистике обхода гугла вижу что обрабатывает урлы /style.min.css?ver=2.4.1

На начальном этапе я не замечал таких проблем, потом когда начал копать обнаружил и поставил плагин который скрывает из кода всякий мусор, теперь код чист и таких ссылок там нет но бот гугла все равно теперь ходит по ним и получает код 200, в роботс стоит Disallow: /*?   но это тоже не помогает запретить ему туда лезть, моете подсказать как в роботс прописать запрет ?

Mik Foxi
На сайте с 02.03.2011
Offline
1076
#1
рел каноникал тег должен быть, который полностью решит проблему таких посторонних урлов.
Антибот, антиспам, веб файрвол, защита от накрутки поведенческих: https://antibot.cloud/ + партнерка, до 40$ с продажи.
Л1
На сайте с 27.12.2016
Offline
160
#2
Mik Foxi #:
рел каноникал тег должен быть, который полностью решит проблему таких посторонних урлов.
причем тут каноникал? эти страницы не находятся в поиске... гугл бот обрабатывает ссылки в коде и так /style.min.css?ver=2.4.1   и вот так /style.min.css  поставив плагин который помогает решать проблемы подобного мусора от вордпресс из кода он убрал добавление  ?ver=2.4.1   к ссылкам стилей и прочего, но гуглбот помнит их и обрабатывает все равно и первый и второй вариант, нужно решение чтобы закрыть доступ с добавлением ?ver=2.4.1 
Mik Foxi
На сайте с 02.03.2011
Offline
1076
#3
леонид1161 #:
причем тут каноникал? эти страницы не находятся в поиске... гугл бот обрабатывает ссылки в коде и так /style.min.css?ver=2.4.1   и вот так /style.min.css  поставив плагин который помогает решать проблемы подобного мусора от вордпресс из кода он убрал добавление  ?ver=2.4.1   к ссылкам стилей и прочего, но гуглбот помнит их и обрабатывает все равно и первый и второй вариант, нужно решение чтобы закрыть доступ с добавлением ?ver=2.4.1 

а вы про ссылки на статику. так не нужно их убирать. чтоб потом при обновлении шаблона небыло проблем , их же не для красоты добавили. 

а то что гугл помнит старые адреса стилей это ни на что не влияет.

Vladimir
На сайте с 07.06.2004
Offline
536
#4
леонид1161 :
?ver=2.4.1
если вас это волнует, поставьте запрет, редирект в htaccess  для \?
не забыть поставить разрешения, чтобы админка работала

Аэройога ( https://vk.com/aeroyogadom ) Йога в гамаках ( https://vk.com/aero_yoga ) Аэройога обучение ( https://aeroyoga.ru ) и просто фото ( https://weandworld.com )
Л1
На сайте с 27.12.2016
Offline
160
#5
Mik Foxi #:

а вы про ссылки на статику. так не нужно их убирать. чтоб потом при обновлении шаблона небыло проблем , их же не для красоты добавили. 

а то что гугл помнит старые адреса стилей это ни на что не влияет.

ясно... багодарю
totamon
На сайте с 12.05.2007
Offline
437
#6
леонид1161 #:
эти страницы не находятся в поиске...
значит это не проблема и не стоит ломать голову
Домены и хостинг https://8fn.ru/regru | Дедик от 3000р https://8fn.ru/73 | VPS в Москве https://8fn.ru/72 | Лучшие ВПС, ТП огонь, все страны! https://8fn.ru/inferno | ХОСТИНГ №1 РОССИИ https://8fn.ru/beget
А
На сайте с 09.10.2013
Offline
102
#7
леонид1161 :

Добрый день. Сайт на вордпресс. В статистике обхода гугла вижу что обрабатывает урлы /style.min.css?ver=2.4.1

На начальном этапе я не замечал таких проблем, потом когда начал копать обнаружил и поставил плагин который скрывает из кода всякий мусор, теперь код чист и таких ссылок там нет но бот гугла все равно теперь ходит по ним и получает код 200, в роботс стоит Disallow: /*?   но это тоже не помогает запретить ему туда лезть, моете подсказать как в роботс прописать запрет ?

Вроде так должно быть - Disallow: /*?*

Л1
На сайте с 27.12.2016
Offline
160
#8
Албена #:

Вроде так должно быть - Disallow: /*?*

у меня это есть в роботс, но не работает ни в яндекс ни в гугл.... да ладно, пофиг, выше коллеги говорят что никак в плохую сторону не влияет поэтому не буду забивать голову
Антоний Казанский
На сайте с 12.04.2007
Online
626
#9
леонид1161 :
Добрый день. Сайт на вордпресс. В статистике обхода гугла вижу что обрабатывает урлы /style.min.css?ver=2.4.1

Это адреса статических CSS файлов. Они не индексируются это адреса файлов, определяющих правила визуального оформления. 

Это служебные файлы.


леонид1161 :
На начальном этапе я не замечал таких проблем, потом когда начал копать обнаружил и поставил плагин который скрывает из кода всякий мусор, теперь код чист и таких ссылок там нет но бот гугла все равно теперь ходит по ним и получает код 200

Значит в код есть ссылки на эти адреса. Скорее всего эти ссылки на версии CSS файлов и они наверняка определяются в функциональных шаблонах.


леонид1161 :
в роботс стоит Disallow: /*?   но это тоже не помогает запретить ему туда лезть, моете подсказать как в роботс прописать запрет ?

Вам не нужно по этому поводу беспокоиться вообще. Поисковая система не рассматривает их как объект для индексации и ранжирования.

√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
Антоний Казанский
На сайте с 12.04.2007
Online
626
#10
леонид1161 #:
у меня это есть в роботс, но не работает ни в яндекс ни в гугл....

Да, это конструкция запрета чаще всего игнорируется.


леонид1161 #:
выше коллеги говорят что никак в плохую сторону не влияет поэтому не буду забивать голову

Слушайте коллег :) 

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий