антивирусные программы

Анатомия поисковой машины

Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянного появляются новые вирусы, потому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично идет дело и с поисковиками: все на этом свете быстро меняется, а интернет-сфера еще быстрее.

Однако, существует определенный набор правил, по какие поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, не есть 100% гарантий, что все это работает в настоящий момент или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.

Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стремиться знать хитрости работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую достаточно просто вычислить, что и является их недостатком.

Так что же в действительности необходимо?

Для достижения высоких позиций в рейтинге (да еще на длительное время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Однако их поведение и способы работы во многом похожи на работу этого самого мозга.

А теперь остановимся на рассмотрении некоторых функций их мозга. В целом можно сказать, что им свойственна такая специфика, как (если принять интернет за мир с множественным числом дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Потом они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.

По каким принципам работают эти алгоритмы? Сначала они создаются людьми, которые замечательно знают принципы работы интернета и информации, которая в нем содержится. А поскольку всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, хранит ее, а затем сортирует исходя из ее важности и с большим удовольствием отсевает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.

Поприсмотримся ближе

Понимание того, что из себя представляет поисковая машина в действительности, попробуем выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много похожего, что необходимо ей для ее виртуальной жизни. А заключается она из следующего:

Легкие: Дан орган у поисковой машины, как и большинство, жизненно важных органов, расположенные внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, однако понимаем, что без них не обойтись и нужно поддерживать их здоровыми.

Руки и ноги: Представим себе, что руки и ноги поисковой машины не что другое, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека сначала было создано для движения и исследования окружающего мира, аналогично и поисковые машины сначала запрограммированы исследовать всемирную паутину.

Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют работами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексованих. В данном случае пауки ползают по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множественное число дорогой для своего передвижения. К счастью для нас, поисковые работы двигаются по оптико-волоконным проводам, потому-то они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.

Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Потому-то поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить на этом враждебном мире (пусть в чем-то и виртуальному).

Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просмотр сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.

Знание: Поисковые машины замечательно осведомленные обо всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и приемов.

Пока поисковый робот путешествует по интернету и индексирует веб-сервера-сториночки, параллельно он посылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а фильтры спама отсевают ненужное.

Подобно тому, как мы анализируем информацию из статьи в газете согласно своему виденью мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.

Изучение: Поскольку поисковая машина ранжирует веб-сервера-сториночки согласно своему виденью и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.

В то же время, наряду в способностях просматривать странички, поисковые работы должны уметь определять и карать попытки запрещенного раскручивания сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторов.

Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:

Определение релевантности контента того сайта, на который она нашла ссылку;

Способность обнаруживать информацию, которая содержится в новых типах данных, например, базы данных, flash и тому подобное

Понимание нечестных методов раскручивания сайтов, таких как размещение невидимого текста, ссылок, и тому подобное Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый черный список

Изучение полученных данных, выявления недостатков, в индексации, которая приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.

Способность к изучению и адаптации к окружающему интернет-пространству сначала закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной к следующему обновлению алгоритма.

От теории к практике

Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскручивания сайта? Все дело в том, что для правильного выбора стратегии раскручивания необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и так далее

В свое время, когда одним из основных методов раскручивания было размещение большого количества ключевых слов на страницах сайта, много вебмастера создавали целые содружества из сайтов, чтобы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот или работает эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.

<Ведь p> поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскручивания часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. Ведь при постоянно растущей конкуренции эволюционировать очень необходимо.

Для примера, пользователю значительно удобнее и проще найти сайт с множественным числом контента, который ему необходимый. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.

Важным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и совсем малоэффективный. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.

Дана стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.

И в конце.

Сам собой напрашивается вывод делать пруду на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то накормите ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимные сайты они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отлична.

Источник: Codeguru. Com. Ua "Сайт о программировании и веб-сервер-дизайн"


 

 
антивирус | dr. web | ошибки | касперский | бесплатные