Как выйти из-под фильтра Гугл Панда

panda

Статья о практических мерах по выводу сайта из-под фильтра Гугл, касающихся внутренней оптимизации. Я не буду описывать все фильтры этого поисковика: приведу только хронологию и конкретные шаги, которые помогли выйти из-под санкций. Уверен, если вы столкнулись с резким падением трафика с Гугл, то прочитали уже массу манускриптов на эту тему.

7 фев. 2014 года резко обвалился трафик из поисковой системы Google и, в считанные дни, сошёл до нуля. Мои позиции из Топ-20 упали на 200 пунктов и ниже. Если вы столкнулись с такой ситуацией и хотите вывести ресурс из-под действия фильтра, то читайте дальше - будет полезно и поучительно:

падение трафика с Гугл

Честно сказать, первую неделю я бездействовал - думал, что это какая-то ошибка. Надеялся, что само пройдёт, ругал Гугл, да и не только его. Но сознание постепенно прояснилось: прежде всего, во всех неудачах надо винить себя, и нельзя «опускать руки». Стал читать в Интернете информацию про фильтры и случаи, схожие с моим, при которых резко упал трафик с Google.

Главными подозреваемыми стали Панда и Пингвин, менее значимые фильтры я отмёл, как не подходящие. Определить какой из двух фильтров стал причиной наложения санкций можно, используя ресурс: barracuda-digital.co.uk. Потребуется предоставить доступ к своему аккаунту Analytics, лучше частичный - создать гостевой аккаунт, особенно если зарабатываете в Adsense.

Мне это не потребовалось - Пингвина я отбросил, потому что webmastersam.ru имел бэклинки всего с нескольких десятков доноров.

фильтр Панда

Из прочитанного мною о фильтре Панда я понял, что борьба с ним отнимает долгие месяцы. Один блогер писал, что вывел сайт из-под фильтра за 1 месяц - я не поверил, конечно. Оставалось сменить домен, что исходя из моей практики, не раз помогало. Вопреки всему я решил принять новые обстоятельства и бороться, отслеживая результаты - и не ошибся.

Если бы это были «меры, принятые вручную» в Google Webmasters, то, по крайней мере, было бы понятна причина санкций. А автоматически наложенные фильтры распознать трудно и писать по поводу них в Службу поддержки этой поисковой системы бесполезно. Я решил продвигать сайт в Яндексе, там требования жёстче - тогда со временем и санкции от Гугл могут быть сняты.

До сих пор я полагал, что имею хорошее представление о внутренней оптимизации сайта. Пришлось «освежать» знания и проводить доскональный аудит своего ресурса. Нашлись грубейшие ошибки, как и небольшие дефекты, после исправления которых, посещаемость проекта стала восстанавливаться.

Потребовался 1 месяц до начала возврата позиций. Мне повезло, что сайт молодой, имеет мало страниц и на его исправление ушло только 3-4 полноценных «рабочих» дня, с перерывами. Обратимся к такой seo-схеме и на её примере проведём «разбор полётов»:

внутренняя оптимизация

Внутренняя оптимизация сайта

1. Уникальность текстов - этот пункт я пропускаю, так как пишу тексты сам.

2. Плотность KC - нашёл несколько страниц с явной «тошнотой» и переработал тексты. Необходимо довести плотность ключевых слов до вменяемого состояния в 2-4%, делая упор на читабельность. Важный момент: кроме основного контента (самой статьи), необходимо учитывать количество КС на всей странице - в шапке, колонках, футере. Это меню, блоки ссылок c атрибутами Alt, Title - часто именно неучтённые КС являются причиной их избыточности, особенно когда объём статьи небольшой.

3. Title - важные теги для каждой страницы, с точки зрения seo. Оставил без изменения, посчитав их удовлетворительными. Правильное составление Title играет чрезвычайную роль для внутренней оптимизации сайта. Избегайте повтора ключей в теге. Хорошим подспорьем при его составлении будет анализ титлов конкурентов и оценка их привлекательности.

4. Заголовки - посчитал, что это главная причина попадания под фильтр. Незадолго до наложения на сайт санкций я провёл небольшую реконструкцию: чуть-чуть изменил структуру и дизайн, добавив элементы оформления. В том числе: на страницах подразделов в заголовки H поместил теги Strong, чтобы «выделить дополнительно» - ничего глупее придумать нельзя.

Ясно как день, что для оформления нужно использовать CSS, и ни в коем случае не помещать теги Strong, B, Em в тег H. Далее обнаружил в статьях чрезмерное употребление заголовков H и их неправильный порядок.

Отмечу два важных момента. Первый, не стоит ими злоупотреблять: если после заголовка идут всего 2-3 предложения, а потом снова заголовок - то это неправильно. Второй момент, заголовки должны строго отображать логическую иерархию страницы, придерживайтесь их правильной очередности: H1 — H2 — H3 — H3. Нужно соблюдать несколько правил при использовании заголовков H1-H3 на странице — читайте об этом подробнее.

5. Description - не изменял. Они прописаны вручную, к их составлению отношусь очень внимательно. Основной задачей мета-тега является привлечение дополнительного внимания пользователей, т.е. увеличение кликабельности ресурса в поисковой выдаче. Если Description прописан правильно, то ПС формируют из него сниппет - чего и надо добиваться. Старайтесь избегать повтора ключей или используйте морфологию.

6. Alt - по моему мнению, это вторая основная причина наложения фильтра. Думаю, что это распространённая ошибка, если изображений на странице много. Сколько там оказалось повторений - сам бы расценил это как спам! На одной странице вообще все атрибуты Alt оказались одинаковые - оплошность при вёрстке. Хорошо ещё, что я не использовал атрибут Title.

Рекомендация: сокращайте длину атрибута и не используйте более 1-2 ключей в «суммарном Alt» на странице. Делайте описание именно самой картинки, исключив из соображения общую тему статьи.

Оговорюсь, что это касается только текстов с приличным количеством картинок. Ещё одно соображение: если вы используете подпись под иллюстрацией, Figcaption или другой тег, - не повторяйте в нём содержимое Alt. К этому и Яндекс относится недоброжелательно.

Что ещё не упомянул? Не надо злоупотреблять тегами акцентирования Strong, Em - их присутствие желательно, но умеренное. А у Яндекса так же повышенное внимание к тегу B. Не выделяйте этими тегами маловажные, с точки зрения SEO, слова. Обратите внимание на перелинковку, её не учитывал, она у меня крайне умеренная. Остальные процедуры, которые я совершил, для выхода из-под действия Панды считаю менее важными: ускорение загрузки сайта, страница 404. Улучшением внешних факторов в течение «чёрного» месяца не занимался.

Для проведения seo анализа лучше воспользоваться специализированными сервисами, где можно исследовать структуру и контент сайта, плотность ключевых слов, узнать о недочётах внутренней оптимизации и отслеживать позиции в ПС.

Как ускорить переиндексацию сайта

После серьёзных изменений сайта необходимо добавить его на переиндексацию в Инструменты для-вебмастеров Google: «Сканирование - Просмотреть как Googlebot», что существенно ускорит дело и выход из-под санкций. Это можно проделать до 10 раз - не расходуйте запросы зря. Аналогичный инструмент для ускорения переиндексации в Яндекс Вебмастер - «Проверить URL»:

переиндексировать

Гугл отреагирует довольно быстро, он «лёгок на подъём». Что касается его оппонента - потребуется набраться терпения. О результатах дальнейшей seo раскрутки сайта в Яндексе написал отдельно. Это инструкция по улучшению позиций сайта в более «строгой» и требовательной поисковой системе.

Не могу утверждать: Панда это была или нет - да и разницы никакой. Главное, что преодоление трудных обстоятельств даёт знания и бесценный опыт. Надеюсь, что статья поможет вам найти действенные решения по внутренней оптимизации сайта для его вывода из-под фильтра Google и придаст необходимый оптимизм.