Posted 30 мая, 20177 yr comment_129609 Доброе время суток! Поделитесь своим опытом раскрутку форума. Прочитал много по раскрутки форума или сайта, делал, как люди советовали в интернете. потратился , но результата , которого я ожидал практически нету. Заранее огромное спасибо
30 мая, 20177 yr comment_129610 попробуй тут https://ipbdesign.com/site-promotion/ ето полезний скрипт
30 мая, 20177 yr comment_129612 18 минут назад, Silence сказал: попробуй тут https://ipbdesign.com/site-promotion/ ето полезний скрипт Супер! Раскрутил свой сайт быстро и качественно! Всем советую!!! @lovemenow ну а если без шуток, то процесс раскрутки сугубо индивидуален и нигде не продается. Сейчас объясню почему. SEO инструменты, возможности и способы продвижения, у нормального сеошника - подчеркиваю НОРМАЛЬНОГО сеошника - индивидуальны и в едином экземпляре. Если к примеру, о способе которым продвигаю допустим я, узнает еще 10 SEO-шников, то мой метод станет неактуальным, по той причине, что они будут действовать так же как и я, что создаст мне конкуренцию. Т.е. говоря простыми словами, если кому-то слил свой секрет - то можно сказать потерял эффективность своего способа, а следовательно и работу. Поэтому, в Интернете нет и никогда не будет эффективных методов продвижения (а все что есть - это на лоха). Да, безусловно, есть рекомендации, но - это РЕКОМЕНДАЦИИ, но никак не способы продвижения. Согласно рекомендаций, ты сможешь только сделать так, чтобы твой форум/сайт получил статус от поиска СДЛ (Сайт Для Людей), а не ГС (Говно Сайт). Имея статус СДЛ, уменьшается процент отказов и пользователи начинают задерживаться на сайте. Поисковые роботы сегодня довольно грамотные и анализируют все действия совершаемые пользователем на сайте (поведенческий фактор - ПФ), и если ПФ имеет минимальный процент отказов и максимальный процент продолжительности сессии - то все это остается замеченным поиском и он старается твой сайт/форум впихнуть повыше. Даже одна позиция вверх по каким-либо запросам - дает существенный поток уникальных посетителей. Рекомендаций вообще есть масса, но я бы сказал, что они тоже сугубо индивидуальны в зависимости от тематики вашего сайта/форума. Те рекомендации что подойдут для продвижения форума на тему фильмов, к примеру - никак не сойдутся с рекомендациями для форума по играм. Основные "вредные" советы можешь почитать в теме ниже, делай все вплоть до наоборот и будет немного счастья.
30 мая, 20177 yr comment_129615 Могу показать как проходит процесс у меня и эффективность моей методы, может что подчерпеншь для себя. Посмотрим на мою статистику с Яши за месяц: Сразу скажу, у меня узкоспециализированный проект, поэтому наплыв не обширный будет на финише. Используя я свой метод пошагово, а не сразу луплю все ресурсы в проект. Под цифрой 1 идет небольшой скачек - это сработала запущена мной SEO компания, после ее запуска, моя цель - УДЕРЖАНИЕ посетителей. Само удержание длится вплоть до стабилизации на моем проекте не менее 70% привлеченных пользователей. Т.е. в промежутке между цифрой 1 и 2, я прилагаю все усилия чтобы удержать каждого посетителя, и добиться как минимум 70% удержания аудитории. итак, это я сделал, теперь я перехожу ко второй фазе (цифра 2) - опять запуск SEO-компании, опять скачек. Удерживаю процент посетителей. Удержание есть, отлично, запуск третей фазы... И так далее... Т.е. смысл понятен я думаю моей схемы. Но вот инструменты и возможности, которыми ты будешь проводить это самое удержание - это уже табу. Так же как и методики привлечения новых посетителей. Тут уже нужно думать своей головой или платить (платить не за советы, а за результаты!!!). Как вариант привлечения - ЯндексДирект (ЯД) или ГуглАдвордс (ГА) в помощь, но помни - это только будет СКАЧЕК, если нет удержания - ЯД и ГА - бесполезен!!! Так же, этих два сервиса требуют хорошей настройки, дабы твои бабки не спускались как вода в бездну Интернета.
30 мая, 20177 yr comment_129616 51 минуту назад, Megalex сказал: Как вариант привлечения - ЯндексДирект (ЯД) или ГуглАдвордс (ГА) в помощь, но помни - это только будет СКАЧЕК, если нет удержания - ЯД и ГА - бесполезен!!! Так же, этих два сервиса требуют хорошей настройки, дабы твои бабки не спускались как вода в бездну Интернета. Вот именно поэтому большинство сливают бабки на контекст в промышленных масштабах, так что это сложно отнести к "продвижению":) От себя могу добавить, что узкоспециализированные статьи, написанные с любовью для людей (а не для роботов) дают хороший прирост. Например, сайт по статье одной вышел в топ 3 за месяц. И до сих пор там болтается, хотя на сайте нет посетителей почти.
30 мая, 20177 yr comment_129617 15 минут назад, Axeland сказал: Вот именно поэтому большинство сливают бабки на контекст в промышленных масштабах, так что это сложно отнести к "продвижению":) От себя могу добавить, что узкоспециализированные статьи, написанные с любовью для людей (а не для роботов) дают хороший прирост. Например, сайт по статье одной вышел в топ 3 за месяц. И до сих пор там болтается, хотя на сайте нет посетителей почти. Полностью соглашусь. Уникальность текста и грамотный копирайт, без воды и кучи стоп-слов (даже не SEO-копирайт) - очень благородно влияет на позицию в поиске. Но увы, одного уникального текста не достаточно. В твоем случае, мог сработать такой фактор как "менее-популярные запросы", т.е. ключи которые мало используются в поиске, или вообще никогда. Для наглядности, допустим у нас имеется форум о еде, возьмем такой запрос в ключе как "лучшие рестораны Москвы" как бы уникально и красиво не была бы написана статья, в топ-5 она не влетит исключительно из-за красоты.
30 мая, 20177 yr Author comment_129618 Спасибо Вам огромное, а такой вопрос через соц сети(smm) эффективный способ раскрутки ?!
30 мая, 20177 yr comment_129619 40 минут назад, lovemenow сказал: Спасибо Вам огромное, а такой вопрос через соц сети(smm) эффективный способ раскрутки ?! Практически нулевой. Нет, конечно порог вовлечения там присутствует (если схожесть тематики группы ВК и форума), но он такой минимальный что я могу его отнести к пустому вливанию денег. Те деньги которые просят за рекламу паблики ВКонтакте, можно в 10 раз эффективней прокрутить для реализации задуманных идей. Нужно всегда анализировать не только вхождение, но и финальную степень продвижения. Максимум что можно получить - это 0,1-1% вовлеченных посетителей. К примеру, паблик с 1 000 000 участников, после запуска рекламной компании - на выходе в лучшем случае ты получишь 100-1000 постоянных хостов, Почему так мало? Вот небольшой просчет. От 1 000 000 отнимаем 50% - это несуществующие люди/фейки. Остается 500 000, от этой цифры, нам интересно только 20% - это именно та аудитория которая увидит твою рекламу. 20% от 500 000 = 100 000. И вот тут уже от этих 100 000 ты получаешь выхлоп 0,1-1% на удержание. Опять же, это может быть не целевая аудитория, что в разы затрудняет процесс удержания. Поэтому, моя формула - чисто как наглядный пример, но никак не метода о том, что SMM сейчас не торт. Ну и чтобы не дай боше тут задеть чувства SMMщиков, скажу сразу - да, есть исключения, есть и толковое SMM, есть и успешное, давайте только познакомимся, а то ей боху ни разу не видел вас. UPD. Как второстепенное продвижение, SMM можно использовать, но не как основное. Под второстепенным, я имею ввиду то, чтобы оно просто работало параллельно с основным. Это когда уже бабок два вагона и один вагон некуда ставить.
30 мая, 20177 yr comment_129622 @lovemenow Вот тебе навскидку БЕСПЛАТНО рекомендации оп твоему форуму (konigen - если я правильно понял). Включи сжатие! Если хостер не предоставляет такую услугу - можно попробовать включить посредством правки htaccess. Большинство массивных элементов не кэшируется! Исправляется внесением правок в htaccess. JS Скрипты тормозят загрузку. Малость нужно подлатать и добавить их в кэш, дабы не прогружались постоянно. Вот тут ХОТЯ БЫ оценку 70 получи - https://developers.google.com/speed/pagespeed/insights/ Ключи заданны не верно, вернее заданны они так, но не айс сами ключи. Проанализируй поисковые запросы. На хостинге hostland надеюсь у тебя не "Старт" тарифный план. Заголовки вообще атас:[H1] Добро Пожаловать [H1] Добро Пожаловать [H1] Добро Пожаловать [H1] Форумы [H2] Последние темы [H2] Коммерция и Реклама Банальный оригинальный favicon и тот отсутствует. Задан ENG язык в локале, если у тебя форум для русских (а он на русском как я заметил) - то нужно сменить на RU Не нашел XML карту - это вообще #рукалицо. Если она присутствует - то хотя бы включи к ней доступ... Если ее нет - продвижение любого рода - равно НУЛЮ. http было бы не плохо перевести на https, c платным ssl сетификатом. Я в курсе что у тебя установлен сертификат от Let's Encrypt, но это не выход. Увы не буду тут объяснять почему. Но раз уж Let's Encrypt тебе выдал бесплатный SSL и ты его используешь - настрой подабающим образом и включи редирект. На сегодня хватит доброты душевной. Это так, на скорую руку, за минут 30)
30 мая, 20177 yr comment_129623 4 часа назад, Megalex сказал: Полностью соглашусь. Уникальность текста и грамотный копирайт, без воды и кучи стоп-слов (даже не SEO-копирайт) - очень благородно влияет на позицию в поиске. Но увы, одного уникального текста не достаточно. В твоем случае, мог сработать такой фактор как "менее-популярные запросы", т.е. ключи которые мало используются в поиске, или вообще никогда. Для наглядности, допустим у нас имеется форум о еде, возьмем такой запрос в ключе как "лучшие рестораны Москвы" как бы уникально и красиво не была бы написана статья, в топ-5 она не влетит исключительно из-за красоты. Верно) То, что уже занято толстыми сайтами, сложно подвинуть) Так что если коммерческий проект на популярную тематику, то на СЕО (именно продвижение, с его безумными бюджетами по 100-200к в мес) лучше забить, и слить всё на грамотный контекст, и просто уделять контенту/юзабилити сайта должное внимание. По поводу соцсетей у меня двоякое впечатление, щитаю, что (как и высказался @Megalex) реклама в пабликах/контекст бесполезен, но вот крутить группу с постоянным контентом и какими-нибудь АКЦЫЯМИ по репостам/вступлениям в группу может дать прирост в обозримом будущем. Ну и нельзя уже сегодня более-менее уважающему себя проекту без группы вконтаче с его удобной формой общения)
30 мая, 20177 yr comment_129625 7 минут назад, Axeland сказал: но вот крутить группу с постоянным контентом Ну я думал что в априори группа сегодня должна быть, но к SMM она не имеет никакого отношения. По группам я могу целую лекцию зачитать. К примеру, у меня группа под конкретно мою организацию, в ней великодушно просто засирается лента благодаря RSS импорту с сайта/форума на IPS, комментирование и прочая туфта - отключена. Только дублирование информации. Статистика не то что ВАУ, но все же: Благородная администрация ВКонтача, была тронута моими словами и подрубили возможность RSS в группе. Если надо кому, обращайтесь) Организуем и вам RSS в паблик) Я уже добрый прям делюсь всем что есть))) Ну и в группу люди попадают непосредственно с сайта, а не в ВК находят. Так в принципе и должно быть. Это и есть правильно. Группа - это просто инструмент для получения информации в режиме реального времени, и не более. Но опять же, под разную тематику - своя программа настройки таких групп. Тут нельзя принимать мои наработки как мануал по своему продвижению, каждый сайт/форум - это индивидуальный подход. Если он схож с другими сайтам - это ГС.
31 мая, 20177 yr Author comment_129632 Можете с тремя пунктами помочь, а то я немного накосячил форум начал ошибки выдавать )) Использование robots.txt Что такое файл robots.txt Как создать robots.txt Директива User-agent Директивы Disallow и Allow Использование спецсимволов * и $ Директива sitemap Директива Host Директива Crawl-delay Директива Clean-param Дополнительная информация Исключения Что такое файл robots.txt Robots.txt — текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем. Также рекомендуем просмотреть урок Как управлять индексированием сайта. Как создать robots.txt В текстовом редакторе создайте файл с именем robots.txt и заполните его в соответствии с представленными ниже правилами. Проверьте файл в сервисе Яндекс.Вебмастер (пункт меню Анализ robots.txt). Загрузите файл в корневую директорию вашего сайта. Директива User-agent Робот Яндекса поддерживает стандарт исключений для роботов с расширенными возможностями, которые описаны ниже. В роботе Яндекса используется сессионный принцип работы, на каждую сессию формируется определенный пул страниц, которые планирует загрузить робот. Сессия начинается с загрузки файла robots.txt. Если файл отсутствует, не является текстовым или на запрос робота возвращается HTTP-статус отличный от 200 OK, робот считает, что доступ к документам не ограничен. В файле robots.txt робот проверяет наличие записей, начинающихся с User-agent:, в них учитываются подстроки Yandex (регистр значения не имеет) или * . Если обнаружена строка User-agent: Yandex, директивы для User-agent: * не учитываются. Если строки User-agent: Yandex и User-agent: * отсутствуют, считается, что доступ роботу не ограничен. Следующим роботам Яндекса можно указать отдельные директивы: 'YandexBot' — основной индексирующий робот; 'YandexDirect' — скачивает информацию о контенте сайтов-партнеров Рекламной сети, чтобы уточнить их тематику для подбора релевантной рекламы, интерпретирует robots.txt особым образом; 'YandexDirectDyn' — робот генерации динамических баннеров, интерпретирует robots.txt особым образом; 'YandexMedia' — робот, индексирующий мультимедийные данные; 'YandexImages' — индексатор Яндекс.Картинок; 'YaDirectFetcher' — робот Яндекс.Директа, интерпретирует robots.txt особым образом; 'YandexBlogs'поиска по блогам — робот , индексирующий посты и комментарии; 'YandexNews' — робот Яндекс.Новостей; 'YandexPagechecker' — валидатор микроразметки; ‘YandexMetrika’ — робот Яндекс.Метрики; ‘YandexMarket’— робот Яндекс.Маркета; ‘YandexCalendar’ — робот Яндекс.Календаря. Если обнаружены директивы для конкретного робота, директивы User-agent: Yandex и User-agent: * не используются. Пример: User-agent: YandexBot # будет использоваться только основным индексирующим роботом Disallow: /*id= User-agent: Yandex # будет использована всеми роботами Яндекса Disallow: /*sid= # кроме основного индексирующего User-agent: * # не будет использована роботами Яндекса Disallow: /cgi-bin Директивы Disallow и Allow Чтобы запретить доступ робота к сайту или некоторым его разделам, используйте директиву Disallow. Примеры: User-agent: Yandex Disallow: / # блокирует доступ ко всему сайту User-agent: Yandex Disallow: /cgi-bin # блокирует доступ к страницам, # начинающимся с '/cgi-bin' В соответствии со стандартом перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки. Символ # предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается. Чтобы разрешить доступ робота к сайту или некоторым его разделам, используйте директиву Allow Примеры: User-agent: Yandex Allow: /cgi-bin Disallow: / # запрещает скачивать все, кроме страниц # начинающихся с '/cgi-bin' Примечание. Недопустимо наличие пустых переводов строки между директивами User-agent, Disallow и Allow. Совместное использование директив Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом. Примеры: # Исходный robots.txt: User-agent: Yandex Allow: /catalog Disallow: / # Сортированный robots.txt: User-agent: Yandex Disallow: / Allow: /catalog # разрешает скачивать только страницы, # начинающиеся с '/catalog' # Исходный robots.txt: User-agent: Yandex Allow: / Allow: /catalog/auto Disallow: /catalog # Сортированный robots.txt: User-agent: Yandex Allow: / Disallow: /catalog Allow: /catalog/auto # запрещает скачивать страницы, начинающиеся с '/catalog', # но разрешает скачивать страницы, начинающиеся с '/catalog/auto'. Примечание. При конфликте между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow. Директивы Allow и Disallow без параметров Если директивы не содержат параметры, учитывает данные следующим образом: User-agent: Yandex Disallow: # то же, что и Allow: / User-agent: Yandex Allow: # не учитывается роботом Использование спецсимволов * и $ При указании путей директив Allow и Disallow можно использовать спецсимволы * и $, задавая, таким образом, определенные регулярные выражения. Спецсимвол * означает любую (в том числе пустую) последовательность символов. Примеры: User-agent: Yandex Disallow: /cgi-bin/*.aspx # запрещает '/cgi-bin/example.aspx' # и '/cgi-bin/private/test.aspx' Disallow: /*private # запрещает не только '/private', # но и '/cgi-bin/private' Спецсимвол $ По умолчанию к концу каждого правила, описанного в файле robots.txt, приписывается спецсимвол *. Пример: User-agent: Yandex Disallow: /cgi-bin* # блокирует доступ к страницам # начинающимся с '/cgi-bin' Disallow: /cgi-bin # то же самое Чтобы отменить * на конце правила, можно использовать спецсимвол $, например: User-agent: Yandex Disallow: /example$ # запрещает '/example', # но не запрещает '/example.html' User-agent: Yandex Disallow: /example # запрещает и '/example', # и '/example.html' Спецсимвол $ не запрещает указанный * на конце, то есть: User-agent: Yandex Disallow: /example$ # запрещает только '/example' Disallow: /example*$ # так же, как 'Disallow: /example' # запрещает и /example.html и /example Директива sitemap Если вы используете описание структуры сайта с помощью файла sitemap, укажите путь к файлу в качестве параметра директивы sitemap (если файлов несколько, укажите все). Пример: User-agent: Yandex Allow: / sitemap: http://example.com/site_structure/my_sitemaps1.xml sitemap: http://example.com/site_structure/my_sitemaps2.xml Робот запомнит путь к файлу, обработает данные и будет использовать результаты при последующем формировании сессий загрузки. директива вот так включается?
31 мая, 20177 yr comment_129634 10 часов назад, Megalex сказал: Вот тут ХОТЯ БЫ оценку 70 получи - https://developers.google.com/speed/pagespeed/insights/ Подскажи как добиться таких цифр? у меня в стоке мобильник 38, комп 45 на изменённой теме со всеми плагинами 26 и 32 соотвтетсвенно. в момент проверки на форуме 15 пользователей, 0 анонимных, 155 гостей по железу сам форум на ssd, база на sas Сервер CPU RAM HDD NET Стоимость # Ubuntu 16.04 x64 2 / 100% 2054 Мб
31 мая, 20177 yr comment_129639 @lovemenow Нахрена ты скинул копипасту сюда с яндекса? Директива (для) чего включается? Ты как бы поподробней сформулируй вопрос. А то я не уловил суть. В робтс.тхт дохрена что нужно кофигурировать особенно в плане движка IPS. В твоем случае в нем дохрена чего не хватает. @Ректор Ну так PageSpeed указывает на косяки. Исправляй их) оценка 100 там не нужна (ибо угандошишь сайт), но вот хотя бы 70 - будет весьма полезно. Как для самого поиска, так и для получения СДЛ. В идеале добиться что то в промежутке 80-90. Зашел к тебе - прогруз конечно у тебя дикий, оптимизации ноль. К сожалению нет времени, чтобы хотябы проанализировать что первоначально нужно сделать на твоем ресурсе. Форум довольно развернутый уже, тут уже надо аккуратней и дотошней подходить к анализу. Учитывая особенно что форум ориентирован на Беларусь, в которой не у всех есть оптоволокно - оптимизацию надо завозить однозначно. Какой процент отказа у тебя сейчас? В личку можете скайп свой скинуть, на выходных будет время - помогу чем смогу (на что хватит время).
31 мая, 20177 yr Author comment_129693 В 30.05.2017 в 22:41, Megalex сказал: JS Скрипты тормозят загрузку. Малость нужно подлатать и добавить их в кэш, дабы не прогружались постоянно. Добрый ночи! подскажите как можно их подлатать и добавить в кэш!? Уже перегуглил пол интернета, а ответа полного не нашёл - некоторые что-то пишут заумное, как вроди все профессионалы и всё понимают. Помогите, как их исправить - поподробнее.
31 мая, 20177 yr Author comment_129696 function footer_enqueue_scripts() { # Удаляем JavaScript из заголовка remove_action('wp_head', 'wp_print_scripts'); remove_action('wp_head', 'wp_print_head_scripts', 9); remove_action('wp_head', 'wp_enqueue_scripts', 1); # Выводим в footer add_action('wp_footer', 'wp_print_scripts', 5); add_action('wp_footer', 'wp_enqueue_scripts', 5); add_action('wp_footer', 'wp_print_head_scripts', 5); } add_action('after_setup_theme', 'footer_enqueue_scripts'); Для ipb нет такой альтернативы?!
1 июня, 20177 yr Author comment_129765 22 часа назад, lovemenow сказал: Добрый ночи! подскажите как можно их подлатать и добавить в кэш!? Уже перегуглил пол интернета, а ответа полного не нашёл - некоторые что-то пишут заумное, как вроди все профессионалы и всё понимают. Помогите, как их исправить - поподробнее. Крутил вертел))) Для мобильных 65, для пк 85. Внимания вопрос это нормально, что такой результат?! ExpiresActive On ExpiresDefault A0 # 1 YEAR <FilesMatch "\.(flv|ico|pdf|avi|mov|ppt|doc|mp3|wmv|wav)$"> ExpiresDefault A29030400 </FilesMatch> # 1 WEEK <FilesMatch "\.(jpg|jpeg|png|gif|swf)$"> ExpiresDefault A604800 </FilesMatch> # 3 HOUR <FilesMatch "\.(txt|xml|js|css)$"> ExpiresDefault A10800" </FilesMatch> # BEGIN Compress text files AddOutputFilterByType DEFLATE text/html text/plain text/xml application/xml application/xhtml+xml text/css text/javascript application/javascript application/x-javascript # END Compress text files # BEGIN Expire headers ExpiresActive On ExpiresDefault "access plus 5 seconds" ExpiresByType image/x-icon "access plus 2592000 seconds" ExpiresByType image/jpeg "access plus 2592000 seconds" ExpiresByType image/png "access plus 2592000 seconds" ExpiresByType image/gif "access plus 2592000 seconds" ExpiresByType application/x-shockwave-flash "access plus 2592000 seconds" ExpiresByType text/css "access plus 604800 seconds" ExpiresByType text/javascript "access plus 216000 seconds" ExpiresByType application/javascript "access plus 216000 seconds" ExpiresByType application/x-javascript "access plus 216000 seconds" ExpiresByType text/html "access plus 600 seconds" ExpiresByType application/xhtml+xml "access plus 600 seconds" # END Expire headers # BEGIN Cache-Control Headers Header set Cache-Control "public" Header set Cache-Control "public" Header set Cache-Control "private" Header set Cache-Control "private, must-revalidate" Header append Vary: Accept-Encoding Header set Cache-Control "max-age=43200" Header set Cache-Control "max-age=604800" Header set Cache-Control "max-age=2592000" Header unset Cache-Control # END Cache-Control Headers # BEGIN Turn ETags Off FileETag None # END Turn ETags Off #Gzip сжатие с помощью модуля mod_deflate - начало <ifModule mod_deflate.c> AddOutputFilterByType DEFLATE text/html text/plain text/xml application/xml application/xhtml+xml text/css text/javascript application/javascript application/x-javascript </ifModule> ##Gzip сжатие с помощью модуля mod_deflate - конец ##Gzip сжатие с помощью модуля mod_gzip - начало <IfModule mod_gzip.c> mod_gzip_on Yes mod_gzip_dechunk Yes mod_gzip_item_include file \.(html?|txt|css|js|php|pl)$ mod_gzip_item_include mime ^text\.* mod_gzip_item_include mime ^application/x-javascript.* mod_gzip_item_include mime ^application/x-font-woff.* mod_gzip_item_exclude rspheader ^Content-Encoding:.*gzip.* </IfModule> ##Gzip сжатие с помощью модуля mod_gzip - конец ##Кэширование с помощью модуля mod_headers - начало <ifModule mod_headers.c> #кэшировать HTML и htm файлы на один день <FilesMatch "\.(html|htm)$"> Header set Cache-Control "max-age=43200" </FilesMatch> #кэшировать CSS, javascript и текстовые файлы на одну неделю <FilesMatch "\.(js|css|txt)$"> Header set Cache-Control "max-age=604800" </FilesMatch> #кэшировать Flash и изображения на месяц <FilesMatch "\.(flv|swf|ico|gif|jpg|jpeg|png)$"> Header set Cache-Control "max-age=2592000" </FilesMatch> #отключить кэширование <FilesMatch "\.(pl|php|cgi|spl|scgi|fcgi)$"> Header unset Cache-Control </FilesMatch> </IfModule> ##Кэширование с помощью модуля mod_headers - конец ##Кэширование с помощью модуля mod_expires - начало <ifModule mod_expires.c> ExpiresActive On #по умолчанию кеш в 5 секунд ExpiresDefault "access plus 5 seconds" #кэшировать Flash и изображения на месяц ExpiresByType image/x-icon "access plus 2592000 seconds" ExpiresByType image/jpeg "access plus 2592000 seconds" ExpiresByType image/png "access plus 2592000 seconds" ExpiresByType image/gif "access plus 2592000 seconds" ExpiresByType application/x-shockwave-flash "access plus 2592000 seconds" #кэшировать CSS, javascript и текстовые файлы на одну неделю ExpiresByType text/css "access plus 604800 seconds" ExpiresByType text/javascript "access plus 604800 seconds" ExpiresByType application/javascript "access plus 604800 seconds" ExpiresByType application/x-javascript "access plus 604800 seconds" #кэшировать HTML и htm файлы на один день ExpiresByType text/html "access plus 43200 seconds" #кэшировать XML файлы на десять минут ExpiresByType application/xhtml+xml "access plus 600 seconds" </ifModule> ##Кэширование с помощью модуля mod_expires - конец
1 июня, 20177 yr comment_129769 6 минут назад, lovemenow сказал: Для мобильных 65, для пк 85. Внимания вопрос это нормально, что такой результат?! вполне нормальный, будете и дальше в таком темпе будет под 100 , но этого добиться будет сложновато
1 июня, 20177 yr Author comment_129770 Только что, WOLF сказал: вполне нормальный, будете и дальше в таком темпе будет под 100 , но этого добиться будет сложновато Спасибо Вам огромное, душу успокоили)
1 июня, 20177 yr comment_129774 1 минуту назад, lovemenow сказал: Спасибо Вам огромное, душу успокоили) дак, самое главное это уникальный контент, будете пилить их каждый день и грамотно описывать все, вас полюбят и поисковики и сам народ а оптимизация до полного совершенства - ни к чему не приведет, если нет с чем конкурировать на рынке)
4 июня, 20177 yr comment_129882 платформа IPS - это форум. К сожалению, любой маломальский wordpress будет быстрее и лучше индексирован, чем неповоротливый и большой форум. И вообще...берите пример с FB.ru - как пример идеально сделанного SEO
4 июня, 20177 yr comment_129885 21 минуту назад, sergey81 сказал: платформа IPS - это форум. К сожалению, любой маломальский wordpress будет быстрее и лучше индексирован, чем неповоротливый и большой форум. И вообще...берите пример с FB.ru - как пример идеально сделанного SEO Могу поспорить и даже предположить тот факт, что ты вообще ничего не знаешь о том, как работает поисковая выдача. Но делать это я конечно не буду.
4 июня, 20177 yr comment_129891 В 01.06.2017 в 23:26, lovemenow сказал: Спасибо Вам огромное, душу успокоили) Смотри, объясняю тебе на пальцах. Гуглспидтест - это условная оптимизация твоего форума. На нее опираться целиком НЕЛЬЗЯ! 100% соответствием - ты можешь наоборот только ухудшить ситуацию. Да, не спорю, грузиться будет допустим быстрей на 0,2 секунды, но пострадает движок, из-за чего на нет сойдет юзабилити сайта. ЗАПОМНИ! У тебя форум для ЛЮДЕЙ, а не для РОБОТОВ. Соответственно, открывая сайт если тебя все устраивает на нем (в плане все работает шустро и т.д.) - то значит ты добился результата. Для закрепления результата советую дать ссылку незнакомым людям, которые общаются по тематике твоего форума и отследить что будет происходить. К примеру как это выглядит: открываем Яндекс-вебмастер, запускаем вебвизор (мониторинг за посетителями). Смотрим на время на своих часах, ага, 13:00... Публикуем ссылку на свой форум в каком нить тематическом паблике ВК с ФЕЙК-АКА (желательно покрупней выбирать, для ускорения результата). Ага, смотрим - сообщение с твоей ссылкой модератор удалил допустим в 13:10 и поместил тебя в бан за рекламу. ТЕПЕРЬ: Смотрим в вебвизор, что делали пользователи которые пришли в этот промежуток времени с 13:00 до 13:10. Если тупо открывали главную страницу и закрывали через 5-10 секунд - сайт г*вно, нужно поработать над ним еще. Если хотябы 20 человек из 100, прошли по двум страницам - почти успех. Если 20 человек из 100 до сих пор сидят на твоем форуме (после 13:10) и активно его листают - молоток! Это 10 оптимизаций из 10, Т.е. вебвизор - это ТВОИ глаза, но со стороны посетителя. Постарайся понять почему покинул человек сайт, что ему не понравилось и т.д. Тут можно сказать, своего рода психология, тоже играет немалую роль.
7 июня, 20177 yr Author comment_130222 В 04.06.2017 в 12:10, Megalex сказал: Смотри, объясняю тебе на пальцах. Гуглспидтест - это условная оптимизация твоего форума. На нее опираться целиком НЕЛЬЗЯ! 100% соответствием - ты можешь наоборот только ухудшить ситуацию. Да, не спорю, грузиться будет допустим быстрей на 0,2 секунды, но пострадает движок, из-за чего на нет сойдет юзабилити сайта. ЗАПОМНИ! У тебя форум для ЛЮДЕЙ, а не для РОБОТОВ. Соответственно, открывая сайт если тебя все устраивает на нем (в плане все работает шустро и т.д.) - то значит ты добился результата. Для закрепления результата советую дать ссылку незнакомым людям, которые общаются по тематике твоего форума и отследить что будет происходить. К примеру как это выглядит: открываем Яндекс-вебмастер, запускаем вебвизор (мониторинг за посетителями). Смотрим на время на своих часах, ага, 13:00... Публикуем ссылку на свой форум в каком нить тематическом паблике ВК с ФЕЙК-АКА (желательно покрупней выбирать, для ускорения результата). Ага, смотрим - сообщение с твоей ссылкой модератор удалил допустим в 13:10 и поместил тебя в бан за рекламу. ТЕПЕРЬ: Смотрим в вебвизор, что делали пользователи которые пришли в этот промежуток времени с 13:00 до 13:10. Если тупо открывали главную страницу и закрывали через 5-10 секунд - сайт г*вно, нужно поработать над ним еще. Если хотябы 20 человек из 100, прошли по двум страницам - почти успех. Если 20 человек из 100 до сих пор сидят на твоем форуме (после 13:10) и активно его листают - молоток! Это 10 оптимизаций из 10, Т.е. вебвизор - это ТВОИ глаза, но со стороны посетителя. Постарайся понять почему покинул человек сайт, что ему не понравилось и т.д. Тут можно сказать, своего рода психология, тоже играет немалую роль. Все есть посетители заходят, глубина просмотров нормально! даже с гугла и я с яндекса начали приходить! Понт в том что люди не задерживаются!. Как можно их задержать!? Какие можно я книги прочел по сео, ролики просмотрел ?)). Все по им советам делаю! Но результат есть, но не такой какой хочется))
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.