История алгоритма Google.

Начиная как университетский виртуальный библиотечный каталог, Google изначально строил свой алгоритм всего на 1-м критерии, применявшемся при идентификации значимых научных трудов – на подсчете ссылок на них в других печатных научных работах. В этом он не был оригинален, так как последние 400 лет именно так ученные посчитывали значимость и вес своих трудов – по количество упоминаний о них в работах друзей, последователей и конкурентов ■.

Логично ли это – трудно сказать, так как ссылка «а вот плохая работа» дает точно такой же вес, как «работа отличная». Главная, чтобы она была индексированной. Потому до сего дня Google и не учитывает отношение ссылки к ссылаемому ресурсу. Главное – чтобы она была.
  

1995 год.


Но никого в те дни, когда начиналась история алгоритма Google, это никого особо не волновало. Ведь ни Брин ни Пейдж подумать тогда не могли, во что выльется уже через пару лет их проект.

А он, получив многомиллионные инвестиции, выступил войну с тогда единовластным правителем Интернета Yahoo!. Только речь не о самой войне, в которой в итоге победил G., а о том, что победил он в ней только потому, что отказался в построении своих алгоритмов от высокоинтеллектуального подхода Yahoo!, правильно решив, что Интернет создан не для людей с зашкаливающим IQ, а для всех.

Но как отобрать сайты, которые будут интересны всем? Сперва только за счет внешних ссылок . А потом (история алгоритма Гугл в свои первые годы развивалась стремительно), когда Интернет стал коммерчески-привлекательным и первые позиции в его выдачах стали равны сперва многотысячным, а затем и многомиллионным доходам, пришлось расширять, перекраивать и переделывать алгоритм .

Сама интересное, что с первых дней своего коммерческого существования алгоритм был построен на поведенческом факторе . Конечно, история алгоритма Google знает массу ошибок и откровенных провалов. Но идея всегда была одной – люди к новым ресурсам относятся одинаково:
- кто-то случайно натыкается на них;
- затем рассказывает знакомым;
- те, чтоб не забыть, отмечают ссылками рекомендованный ресурс;
- за день это не происходит, а потому…

1997 год.


Так появилась песочница , согласно которой для того, чтобы о сайте стало известно, должно пройти от 3-х 6-ти месяцев . Если это происходит раньше, то владельца сайта можно обвинить в искусственном продвижении, так как появление ссылок на его ресурс носит искусственный (читай – покупной) характер .

Сегодня песочница Google больше напоминает карантин, отсеивающий некачественные ресурсы (отсев идет благодаря подсчету процентов отказов), а также синонимайзинг, не регулярно пополняемые ресурсы, копипаст, и сайты, закрашиваемые после пары недель после их запуска. И это работает. По крайней мере, отсеивая уже за первые полгода порядка 89%-тов не настроенных на серьезную работу новичков.

Но вернемся к гугловскому алгоритму, тем более что история алгоритма Гугле начала развиваться стремительно. Ведь после падения Yahoo! у поисковика появились куда более хитрые, алчные и непримиримые враги – веб-издатели и веб-мастер.

1999 год.


Именно их активность и умение подминать пункты алгоритма под себя и вынудили G. развиваться. А точнее – усложнять свой алогизм. В нем появились:
- количество страниц – от 10.000 – только такой сайт или блог считается значимым ;
- возраст от 2-х лет с момент написания статьи (не путать с возрастом домена – сегодня тот не актуален) ;
- качество обновления – минимум 1 пост в сутки, максимум – 49 в 24 часа ;
- наличие в DMOZ – как знак качества на товаре ;
- количество внешних ссылок на ресурсе – до 100-та, если они не закрыты от индексации .

Многое из этого актуально и поныне.

2001 год.


Но были слагаемые (а мы говорили, что история алгоритма Google знает много провальных моментов), которые были настолько неудачны, что отпали сразу, после их появления. И это:
- наличие ссылок на сайт на правительственных ресурсах
- ссылки на трастовые ресурсы ;
- наличие в каталогах ;
- упоминания в социальных сетях, на смену которым чуть позже пришел Facebook, больше уже не дающий ничего для наращивания PR.
  

2004 год.


Но что б ни придумывали в гугловской штаб-квартире, веб-мастера всегда находили противодействие:
- ссылки – мы будем комментировать правительственные ресурсы ;
- наличие в каталогах – мы напишем делающий это на автомате софт ;
- PR – известная вам Сапа – жалкое подобие буржуйских бирж в лучшие свои времена продававших по 15.000.000 ссылок в течение дня .

Теперь понятно, почему история алгоритма Гугла – вечная война между Google и веб-мастерами, пытающиеся (и очень часто удачно) быть немного умнее его.

2009 год. 


Но война войной – она шла своим ходом. Google же тем временем стал вводить в алгоритм составляющие, направленные на облегчение работы поисковика:
- скорость загрузки ;
- карта сайта ;
- перелинковка ;
- наличие ключей в тексте ;
- деятельная прописка тегов .
- верность одной изначально заявленной теме ;
- прочее.

И это он сделал из-за все начавшего расти в геометрической прогрессии количества новых блогов и сайтов, которые в один период (как Яндекс сегодня) G. оказался просто не в состоянии обрабатывать – индексировать, банить, присваивать PR.

Но война продолжалась, и знаете, нам кажется, что Google все же выиграл в ней...

………..


2013 год.


Сегодняшний алгоритм – лучший из всех, что был создан с момента открытия поисковика. Конечно, история алгоритма Google на нем не заканчивается. Но радует то, что поисковик впервые более чем за 20-ть лет двинулся в сторону качественных ресурсов, сделав все, чтобы деньги и знание SEO при продвижении решали далеко не все.

О новом алгоритме на этом блоге есть большая и максимально развернутая статья. Потому будем заканчивать. Осталось только расшифровать значки, сопровождавшиеся в этой статье, а смысла их таков:
- все еще актуально.
- не актуально.

Ссылка при перепечатке обязательна.

Похожие посты:
free counters
 

© 2011-2017 - Efrem2Efrem