Перейти к содержанию

Помогите с robots.txt (Clean-param)


iDreaMs

Рекомендуемые сообщения

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Ссылка на комментарий
Поделиться на другие сайты

Так а чего эти сектанты сами примеры не выложили, которые их устроят от нового адепта? Несерьезный подход, и щитаю:af:

Изменено пользователем Zero108
Ссылка на комментарий
Поделиться на другие сайты

ваще болт забил на яндекс и гугл и роботс. ваще по кую
и нах оно ваще нужно? и этот яндекс мастер или гугл?
у вас чё проблем больше нет? чем этим говном занимать.

Ссылка на комментарий
Поделиться на другие сайты

1 час назад, iDreaMs сказал:

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Без гет блокни в роботс и все

С гет вернее

Ссылка на комментарий
Поделиться на другие сайты

Ссылка на комментарий
Поделиться на другие сайты

  • 2 недели спустя...

Всем привет! 

Подскажите, как запретить роботу лезть дальше определенных параметров

Есть ссылка, ее хотелось бы разрешить индексировать 

https://сайт.ru/index.php?mode=info&player=123456 (123456 - айди пользователя разный)

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее, и переходит по ним, создавая доп. нагрузку и запросы к АПИ (которые лимитированы)

https://сайт.ru/index.php?mode=info&player=123456&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40

Как настроить robots.txt так, чтобы робот дальше параметра &player=123456 не ходил ?

Ссылка на комментарий
Поделиться на другие сайты

А чего через Cloudflare не забанить по URI containts = guests_page?

Ссылка на комментарий
Поделиться на другие сайты

1 час назад, Zero108 сказал:

А чего через Cloudflare не забанить по URI containts = guests_page?

Есть пример как это сделать? Скриншотом желательно 

Ссылка на комментарий
Поделиться на другие сайты

HooLIGUN скорее всего верхняя строчка (URI query string), но можно обе попробовать.

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.d19156116a2303a1d1563cc8e08f7fd0.jpg

 

Изменено пользователем Zero108
Ссылка на комментарий
Поделиться на другие сайты

Соответственно, если известен user-agent, то нужно его добавить через AND:

L21O75zIVKzwbr.thumb.jpg.c5327c68debca04651def7d2b8e02097.jpg

Примечение: без понятия, какой у яндекс-браузер user-agent, но бота яндекса должно забанить.

Если нужно совсем по фен-шую, регистронезависимо так сказать, то нужно добавлять через редактирование правила такое условие:

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.6725da94b9710bb1a85091cb7f5f3983.jpg

Убрал лишнюю скобку. Вот так:

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex")

 

Изменено пользователем Zero108
Ссылка на комментарий
Поделиться на другие сайты

"guests_page" - не константа, там куча разных переменных может быть, нужно заблокировать всё что после &player=123456 

Ссылка на комментарий
Поделиться на другие сайты

HooLIGUN значит перебирайте в правиле все варианты, которые нужны. 

Что-то отсюда, что-то еще, что может быть:

&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40 

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex") or (http.request.uri.query contains "player_sortorder" and lower(http.user_agent) contains "yandex") or ...

 

 

Изменено пользователем Zero108
Ссылка на комментарий
Поделиться на другие сайты

7 часов назад, HooLIGUN сказал:

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее

на ссылки нужно добавить атрибуты запрета перехода по ним для роботов

Изменено пользователем Exception
Ссылка на комментарий
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.
Примечание: Ваш пост будет проверен модератором, прежде чем станет видимым.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

  • Последние посетители   0 пользователей онлайн

    • Ни одного зарегистрированного пользователя не просматривает данную страницу
×
×
  • Создать...