Jump to content

Помогите с robots.txt (Clean-param)


Recommended Posts

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Link to comment
Share on other sites

Так а чего эти сектанты сами примеры не выложили, которые их устроят от нового адепта? Несерьезный подход, и щитаю:af:

Edited by Zero108
Link to comment
Share on other sites

ваще болт забил на яндекс и гугл и роботс. ваще по кую
и нах оно ваще нужно? и этот яндекс мастер или гугл?
у вас чё проблем больше нет? чем этим говном занимать.

Link to comment
Share on other sites

1 час назад, iDreaMs сказал:

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Без гет блокни в роботс и все

С гет вернее

Link to comment
Share on other sites

  • 2 weeks later...

Всем привет! 

Подскажите, как запретить роботу лезть дальше определенных параметров

Есть ссылка, ее хотелось бы разрешить индексировать 

https://сайт.ru/index.php?mode=info&player=123456 (123456 - айди пользователя разный)

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее, и переходит по ним, создавая доп. нагрузку и запросы к АПИ (которые лимитированы)

https://сайт.ru/index.php?mode=info&player=123456&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40

Как настроить robots.txt так, чтобы робот дальше параметра &player=123456 не ходил ?

Link to comment
Share on other sites

1 час назад, Zero108 сказал:

А чего через Cloudflare не забанить по URI containts = guests_page?

Есть пример как это сделать? Скриншотом желательно 

Link to comment
Share on other sites

HooLIGUN скорее всего верхняя строчка (URI query string), но можно обе попробовать.

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.d19156116a2303a1d1563cc8e08f7fd0.jpg

 

Edited by Zero108
Link to comment
Share on other sites

Соответственно, если известен user-agent, то нужно его добавить через AND:

L21O75zIVKzwbr.thumb.jpg.c5327c68debca04651def7d2b8e02097.jpg

Примечение: без понятия, какой у яндекс-браузер user-agent, но бота яндекса должно забанить.

Если нужно совсем по фен-шую, регистронезависимо так сказать, то нужно добавлять через редактирование правила такое условие:

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.6725da94b9710bb1a85091cb7f5f3983.jpg

Убрал лишнюю скобку. Вот так:

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex")

 

Edited by Zero108
Link to comment
Share on other sites

"guests_page" - не константа, там куча разных переменных может быть, нужно заблокировать всё что после &player=123456 

Link to comment
Share on other sites

HooLIGUN значит перебирайте в правиле все варианты, которые нужны. 

Что-то отсюда, что-то еще, что может быть:

&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40 

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex") or (http.request.uri.query contains "player_sortorder" and lower(http.user_agent) contains "yandex") or ...

 

 

Edited by Zero108
Link to comment
Share on other sites

7 часов назад, HooLIGUN сказал:

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее

на ссылки нужно добавить атрибуты запрета перехода по ним для роботов

Edited by Exception
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Ваша ссылка была автоматически строена.   Отображать как обычную ссылку

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...