Jump to content

Помогите с robots.txt (Clean-param)

Featured Replies

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/
Share on other sites

Так а чего эти сектанты сами примеры не выложили, которые их устроят от нового адепта? Несерьезный подход, и щитаю:af:

Edited by Zero108

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196168
Share on other sites

ваще болт забил на яндекс и гугл и роботс. ваще по кую
и нах оно ваще нужно? и этот яндекс мастер или гугл?
у вас чё проблем больше нет? чем этим говном занимать.

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196169
Share on other sites
1 час назад, iDreaMs сказал:

Доброго дня, в Yandex Webmaster'e появилась 1 критическая ошибка

image.thumb.png.b2d3ed3ccabe6d0c6aef34278e45ccf4.png

Вот примеры страниц с ошибками (дублями)
image.thumb.png.82847860e7f7ca128a5725503c9a50bd.png

Насколько я понял, в robots.txt нужно прописать для membershop Clean-param, вроде и инструкция есть, но на 100% не уверен как правильно нужно прописать

https://yandex.ru/support/webmaster/robot-workings/clean-param.html

Без гет блокни в роботс и все

С гет вернее

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196171
Share on other sites
  • 2 недели спустя...

Всем привет! 

Подскажите, как запретить роботу лезть дальше определенных параметров

Есть ссылка, ее хотелось бы разрешить индексировать 

https://сайт.ru/index.php?mode=info&player=123456 (123456 - айди пользователя разный)

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее, и переходит по ним, создавая доп. нагрузку и запросы к АПИ (которые лимитированы)

https://сайт.ru/index.php?mode=info&player=123456&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40

Как настроить robots.txt так, чтобы робот дальше параметра &player=123456 не ходил ?

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196496
Share on other sites

А чего через Cloudflare не забанить по URI containts = guests_page?

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196502
Share on other sites
1 час назад, Zero108 сказал:

А чего через Cloudflare не забанить по URI containts = guests_page?

Есть пример как это сделать? Скриншотом желательно 

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196503
Share on other sites

HooLIGUN скорее всего верхняя строчка (URI query string), но можно обе попробовать.

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.d19156116a2303a1d1563cc8e08f7fd0.jpg

 

Edited by Zero108

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196505
Share on other sites

Соответственно, если известен user-agent, то нужно его добавить через AND:

L21O75zIVKzwbr.thumb.jpg.c5327c68debca04651def7d2b8e02097.jpg

Примечение: без понятия, какой у яндекс-браузер user-agent, но бота яндекса должно забанить.

Если нужно совсем по фен-шую, регистронезависимо так сказать, то нужно добавлять через редактирование правила такое условие:

WAFa108.netIvangorshkovgmail.comsAccountCloudflareBrave.thumb.jpg.6725da94b9710bb1a85091cb7f5f3983.jpg

Убрал лишнюю скобку. Вот так:

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex")

 

Edited by Zero108

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196506
Share on other sites

"guests_page" - не константа, там куча разных переменных может быть, нужно заблокировать всё что после &player=123456 

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196507
Share on other sites

HooLIGUN значит перебирайте в правиле все варианты, которые нужны. 

Что-то отсюда, что-то еще, что может быть:

&guests_page=1&player_page=2&aliases_sort=111&aliases_sortorder=desc&playerk_sort=head&player_sortorder=asc&weap_sort=smkdr&weap_sortorder=desc&maps_sort=map&maps_sortorder=desc&mix_page=40 

(http.request.uri.query contains "guests_page" and lower(http.user_agent) contains "yandex") or (http.request.uri.query contains "player_sortorder" and lower(http.user_agent) contains "yandex") or ...

 

 

Edited by Zero108

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196508
Share on other sites
7 часов назад, HooLIGUN сказал:

Но робот находит на этой странице дополнительные ссылки с параметрами сортировки и прочее

на ссылки нужно добавить атрибуты запрета перехода по ним для роботов

Edited by Exception

Link to comment
https://ipbmafia.ru/topic/25979-pomogite-s-robotstxt-clean-param/?&do=findComment&comment=196509
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.


Guest
Ответить в этой теме...

Последние посетители 0

  • No registered users viewing this page.