Начиная как университетский виртуальный библиотечный
каталог, Google изначально строил свой алгоритм всего на 1-м критерии,
применявшемся при идентификации значимых научных трудов – на подсчете ссылок на
них в других печатных научных работах. В этом он не был оригинален, так как
последние 400 лет именно так ученные посчитывали значимость и вес своих трудов
– по количество упоминаний о них в работах друзей, последователей и конкурентов ■.
Логично ли это – трудно сказать, так как ссылка «а вот
плохая работа» дает точно такой же вес, как «работа отличная». Главная, чтобы
она была индексированной. Потому до сего дня Google и не учитывает отношение
ссылки к ссылаемому ресурсу. Главное – чтобы она была.
1995 год.
Но никого в те дни, когда начиналась история алгоритма
Google, это никого особо не волновало. Ведь ни Брин ни Пейдж подумать тогда не
могли, во что выльется уже через пару лет их проект.
А он, получив многомиллионные инвестиции, выступил войну с
тогда единовластным правителем Интернета Yahoo!. Только речь не о самой войне,
в которой в итоге победил G., а о том, что победил он в ней только потому, что
отказался в построении своих алгоритмов от высокоинтеллектуального ■ подхода
Yahoo!, правильно решив, что Интернет создан не для людей с зашкаливающим IQ, а
для всех.
Но как отобрать сайты, которые будут интересны всем? Сперва
только за счет внешних ссылок ■. А потом (история алгоритма Гугл в свои первые годы
развивалась стремительно), когда Интернет стал коммерчески-привлекательным и
первые позиции в его выдачах стали равны сперва многотысячным, а затем и
многомиллионным доходам, пришлось расширять, перекраивать и переделывать
алгоритм ■.
Сама интересное, что с первых дней своего коммерческого
существования алгоритм был построен на поведенческом факторе ■. Конечно,
история алгоритма Google знает массу ошибок и откровенных провалов. Но идея
всегда была одной – люди к новым ресурсам относятся одинаково:
- кто-то случайно натыкается на них;
- затем рассказывает знакомым;
- те, чтоб не забыть, отмечают ссылками рекомендованный
ресурс;
- за день это не происходит, а потому…
1997 год.
Так появилась песочница ■, согласно которой для того, чтобы о сайте стало
известно, должно пройти от 3-х 6-ти месяцев ■. Если это происходит раньше, то владельца сайта можно
обвинить в искусственном продвижении, так как появление ссылок на его ресурс
носит искусственный (читай – покупной) характер ■.
Сегодня песочница Google больше напоминает карантин,
отсеивающий некачественные ресурсы (отсев идет благодаря подсчету процентов
отказов), а также синонимайзинг, не регулярно пополняемые ресурсы, копипаст, и
сайты, закрашиваемые после пары недель после их запуска. И это работает. По
крайней мере, отсеивая уже за первые полгода порядка 89%-тов не настроенных на
серьезную работу новичков.
Но вернемся к гугловскому алгоритму, тем более что история
алгоритма Гугле начала развиваться стремительно. Ведь после падения Yahoo! у
поисковика появились куда более хитрые, алчные и непримиримые враги –
веб-издатели и веб-мастер.
1999 год.
Именно их активность и умение подминать пункты алгоритма под
себя и вынудили G. развиваться.
А точнее – усложнять свой алогизм. В нем появились:
- количество страниц – от 10.000 – только такой сайт или
блог считается значимым ■;
- возраст от 2-х лет с момент написания статьи (не путать с
возрастом домена – сегодня тот не актуален) ■;
- качество обновления – минимум 1 пост в сутки, максимум –
49 в 24 часа ■;
- наличие в DMOZ – как знак качества на товаре ■;
- количество внешних ссылок на ресурсе – до 100-та, если они
не закрыты от индексации ■.
Многое из этого актуально и поныне.
2001 год.
Но были слагаемые (а мы говорили, что история алгоритма
Google знает много провальных моментов), которые были настолько неудачны, что
отпали сразу, после их появления. И это:
- наличие ссылок на сайт на правительственных ресурсах■■
- ссылки на трастовые ресурсы ■;
- наличие в каталогах ■;
- упоминания в социальных сетях, на смену которым чуть позже
пришел Facebook, больше уже не дающий ничего для наращивания PR.
2004 год.
Но что б ни придумывали в гугловской штаб-квартире,
веб-мастера всегда находили противодействие:
- ссылки – мы будем комментировать правительственные ресурсы ■;
- наличие в каталогах – мы напишем делающий это на автомате
софт ■;
- PR – известная вам Сапа – жалкое подобие буржуйских бирж в
лучшие свои времена продававших по 15.000.000 ссылок в течение дня ■.
Теперь понятно, почему история алгоритма Гугла – вечная
война между Google и веб-мастерами, пытающиеся (и очень часто удачно) быть
немного умнее его.
2009 год.
Но война войной – она шла своим ходом. Google же тем
временем стал вводить в алгоритм составляющие, направленные на облегчение
работы поисковика:
- скорость загрузки ■;
- карта сайта ■;
- перелинковка ■;
- наличие ключей в тексте ■;
- деятельная прописка тегов ■.
- верность одной изначально заявленной теме ■;
- прочее.
И это он сделал из-за все начавшего расти в геометрической
прогрессии количества новых блогов и сайтов, которые в один период (как Яндекс
сегодня) G. оказался просто не в состоянии обрабатывать – индексировать,
банить, присваивать PR.
Но война продолжалась, и знаете, нам кажется, что Google все
же выиграл в ней...
………..
2013 год.
Сегодняшний алгоритм – лучший из всех, что был создан с момента
открытия поисковика. Конечно, история алгоритма Google на нем не заканчивается.
Но радует то, что поисковик впервые более чем за 20-ть лет двинулся в сторону
качественных ресурсов, сделав все, чтобы деньги и знание SEO при продвижении
решали далеко не все.
О новом алгоритме на этом блоге есть большая и максимально
развернутая статья. Потому будем заканчивать. Осталось только расшифровать
значки, сопровождавшиеся в этой статье, а смысла их таков:
■ - все еще актуально.
■ - не актуально.
Ссылка при перепечатке обязательна.