Новый алгоритм Google.

Полная расшифровка алгоритма Google заняла бы более 100-тни печатных страниц. Но поскольку большинство его пунктов настолько второстепенны, то мы их можем опустить. Кроме того для более удобной работы, его изначально сразу расчленить на 2 части:

Первая – для старых сайтов и блогов.

Вторая – для молодых ресурсов.

Сегодня Google четко разделяет их, делая все, чтобы комфортно было обеим категориям ресурсов, все же делая пометку на возраст. А потому:

10. Возраст сайта/ресурса. Он имеет огромное значение, так как чем старше ресурс, тем лучше он чувствует себя и в индексации и в выдачах. Так G. не отправляет в ВЧ-выдачи (а сразу скажу, что мы говорим только о белых методах продвижения, без закупки ссылок и т.д.), молодые сайты.

Возраст, когда ресурс начинает заслуживать внимания/доверия поисковика – 2 года с момента публикации на нем первой статьи. Однако сразу заметим, что одного возраста не достаточно. Должны соблюдаться все остальные 9-ть условий, которые мы перечислим в этой статье.

9. Наличие в каталоге DMOZ. Туда принимают только ресурсы:
- старше 2-х лет;
- не нарушающие правила Google;
- постоянно обновляющиеся;
- качественные;
- на много страниц.

8. Количество страниц, попавших в индекс (лучше основной) G.. Новый алгоритм Гугла в этом не оригинален. Потому, как и прежде, многостраничными, а значит – заслуживающие максимальной поддержки считаются сайты и блоги, на которых опубликовано 10.000 и более уникальных страниц.

Это – чудовищно много. Но поскольку Google прекрасно индексирует страницы и на 500 знаков и на 800, подобная задача вполне по плечу даже веб-издателю одиночке.

7. Региональная принадлежность. В этом новый алгоритм неумолим:
Чем более плотно населен и коммерчески развит регион, тем труднее пробиться в построенные для него выдачи. Потому если вы продвигаете сайта по региону «Москва», то выходить туда ваш ресурс будет долгие годы. Если ему уже не исполнилось несколько лет.

На этом все преимущества, даваемые новым алгоритмом Гугле старым сайтам, заканчиваются. Потому остальные пункты применимы как к старым, так и к молодым ресурсам.


6. Уникальность. Не смотря на то, что новый алгоритм Google подразумевает индексацию любых неуникальных страниц, это не означает, что он отправит их в выдачи. Как раз напротив, даже появляюсь в выдачах, они всегда будут ниже первоисточника. А, во-вторых, именно копипаст может загнать сайт под Панду – бан, из-под которого можно выходить всю свою жизнь.

5. Методы оптимизации. А они должны быть только белыми. Потому если вы и закупаете ссылки, то делайте это хотя бы так, чтобы полностью повторять поведенческий факто. А согласно ему (и новый алгоритм Гугла заявляет об этом однозначно) ссылки появляются согласно следующему алгоритму:
1 ссылка на 150-450 посещений конкретной страницы;
Из них:
22-35 ссылок в социальных сетях и соц.закладах;
4-5 на блогах и сайтах с нулевым PR;
И только одна, а точнее 0.7 ссылки на 100-тню может появиться на большом ресурсе. И то вопрос: будет ли она закрыта от индексации или нет?

4. Удобство для ботов. Этот пункт новый алгоритм Google «заточил» под себя. Точнее – под своих ботов. Сайтов в Интернете так много, что алгоритм сделал все, чтобы выбирать из них только те, что не задают ботам лишней работы:
- быстро (до 3-4-х секунд) загружаются;
- расположили на главной ссылку;
- прошли через профессиональную перелинковку.

Так сегодня все трудней и трудней выйти в ТОП Google ресурсам, чьи шаблоны и движки сделаны до 2002-го года, в силу чего и загружаются более 50-10 секунд.

3. Частота обновления контентом. Для того чтобы соответствовать стандарту «профессиональный ресурс», сайт или блог доложен обновлять контент не реже 1-го раза в 24 часа. При этом выставлять статьи лучше в одно и то же время (к примеру – в 18:00). Тогда боты Google будут появляться там именно в этом время, чтобы почти мгновенно индексировать новый контент.

Для того чтобы отучить их от этого, достаточно не обновлять блог или сайт ровно 1-ну неделю.
Для того чтобы тот был зачислен в заброшенные, срок не обновления должен достигать 4-6 недель.

2. Наличие ключей. Теперь, согласно новым алгоритмам Гугл, тексты без ключей рискуют не то, что не появится в выдачах, но и никогда не попасть в основной индекс. Безусловно, все статьи SEO-оптимизировать невозможно. Но если вы планируете собирать трафик, никогда не забывайте про ключи:
НЧ – для молодых сайтов и блогов;
СЧ – от ресурсов старше 1-го года;
ВЧ – для ресурсов, старше 2-х.
И ВВЧ для площадок старше 3-4 лет.

1. Процент отказов. А сегодня это – Самое главное условие успешного существования сайта в Сети. Почти не учитывая PR и почти не обращая внимания на ссылки (по крайней мере, так, как раньше) новый алгоритм Google говорит нам:

Именно минимальный показатель процентов отказов служит сигналом, что на странице ресурса опубликован настолько интересный пользователям материал, что он заслуживает того, чтобы быть поднятым в ТОП 1-3, или, хотя бы 10.

А так как для этого Google пришлось расчленить все ресурсы на отдельные страницы, и продвигать теперь именно их, а не весь ресурс целиком, то показатель отказов важен для каждой отдельной странице. При этом показатель показателю рознь.

По ВЧ-запросам время пребывание пользователя на странице должно составлять 1.5 и больше
По СЧ-запросам – от 30 до 60 секунд.
По НЧ-запросам – минимум 15 секунд.

Вот и все, пожалуй, что хотелось рассказать про новый гугловской алгоритм. Хотя и этого вполне достаточно для того, чтобы понять, почему ваш сайт до сих пор ни попал в ТОП ни по одному из ключевых запросов.


Ссылка при перепечатке обязательна. А лучше перехолодите на ТекстСейл и заказывайте у меня статьи о SEO.


Похожие посты:
free counters
 

© 2011-2017 - Efrem2Efrem