Опубликован: 04.05.2010 | Доступ: свободный | Студентов: 4036 / 456 | Оценка: 4.64 / 4.44 | Длительность: 41:24:00
Лекция 15:

Семантический веб и микроформаты

20.4. Дополнительная тема: раскрутка сайтов

20.4.1. Общие сведения

Для некоторых типов сайтов поисковики приносят до половины и больше всех посетителей (то есть, потенциальных клиентов). Необходимым условием этого является присутствие ссылки в первых строках результатов поиска по наиболее популярным запросам. Поскольку результаты поиска обычно отсортированы по релевантности, перед оптимизатором стоит задача повысить релевантность кода веб-страниц к наиболее распространенным поисковым запросам.

Поисковая оптимизация (Search Engine Optimization, SEO ) – комплекс мер для поднятия позиций сайта в результатах выдачи поисковых систем по определенным запросам пользователей [32]. Обычно, чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учетом времени вывода сайта на указанные позиции и Конверсия сайта (отношение, в числителе которого – число посетителей сайта, выполнивших полезные действия (заполнивших анкету, форму заявки, позвонивших в компанию), в знаменателе – общее количество посетителей сайта), на который привлекаются целевые посетители.

Поисковая система учитывает следующие параметры сайта при вычислении его релевантности (степени соответствия введенному запросу):

  • плотность ключевых слов, сложные алгоритмы современных поисковиков позволяют производить семантический анализ текста, чтобы отсеять поисковый спам, когда ключевое слово встречается слишком часто.
  • индекс цитирования сайта, зависящий от количества и авторитетности веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга). Зачастую также важно, чтобы ссылки были с сайтов схожей тематики, что и оптимизируемый сайт.

Соответственно, все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Работа по оптимизации включает в себя работу с внутренними факторами (находятся под контролем владельца веб-сайта) – приведение текста и разметки страниц в соответствие с выбранными запросами, улучшение качества и количества текста на сайте, стилистическое оформление текста (заголовки, жирный шрифт), улучшение структуры и навигации, использование внутренних ссылок, а также внешними факторами – обмен ссылками, регистрация в каталогах и прочие мероприятия для повышения и стимулирования ссылаемости на ресурс.

Методы оптимизации можно разделить на три класса, однако последние события в мире поисковых систем дают понять, что это разделение весьма условно – любая манипуляция определенными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, любая попытка манипулирования поисковыми результатами прямо запрещена в лицензии на использование поисковой системы "Яндекс".

20.4.2. Белая оптимизация

Белой оптимизацией, или естественной оптимизацией, называется оптимизаторская работа над ресурсом без применения официально запрещенных каждой поисковой системой методов раскрутки ресурса – без прямых попыток влияния на поисковые алгоритмы сайтов, или, проще говоря, естественным путем. Это включает в себя работу над самим сайтом, а именно над внутренней навигацией и контентом, и работу с внешней средой сайта, то есть продвижением оптимизируемого сайта путем обзоров, пресс-релизов, регистрации в социальных закладках, партнерских программ и т. п. с указанием ссылок на сайт. Следует отметить, что "Яндекс" предупреждает о том, что если какой-либо метод оптимизации не является официально запрещенным, это не значит, что его можно применять.

Естественная оптимизация позволяет естественным путем, анализируя поведение потребителей, добиться максимальной отдачи от сайта, а именно возрастания целевой посещаемости, популярности ресурса среди пользователей Интернет и рейтинга поисковых систем. Естественная оптимизация исключает любые "допинговые" методы оптимизации – рассылку спама, накручивание баннерных показов, и другие методы черной оптимизации.

Комплекс мероприятий для проведения белой оптимизации заключается обычно в следующем [32, 33]:

  • улучшение видимости сайта роботами поисковых систем ;
  • совершенствование удобства сайта для посетителей – юзабилити;
  • совершенствование текстов на сайте – контента;
  • анализ запросов, связанных с продвигаемым продуктом;
  • поиск сайтов родственной тематики для создания партнерских программ;
  • создание своей рассылки, позволяющей получить дополнительный приток посетителей;
  • использование контекстной рекламы в Интернете для получения целевых посетителей.

Благодаря грамотной корректировке контента сайта, его настройке под поисковые системы, улучшению навигации сайта и постоянному анализу пользовательских запросов – веб-сайт становится более посещаемым, интересным и удобным для пользователя. В естественной оптимизации ключевую роль играет развитие функционала ресурса (то есть увеличение сложности системы) и удобства пользователей (юзабилити).

Способы белой оптимизации можно разделить на внутренние и внешние:

  • Внутренние. Подбор и размещение в коде сайта META-тегов: ключевых слов, краткого описания. Делается это с учетом слов и словосочетаний, по которым сайт должен находиться в поисковых системах. Оптимизация текстов сайта, то есть обеспечение соответствия текстов META-тегам. Возможно также увеличение "веса" слова в тексте за счет выделения его жирным шрифтом.
  • Внешние. Добавление сайта в базы поисковых систем. Регистрация сайта в авторитетных каталогах сайтов (DMOZ, Yandex Каталог). Размещение пресс-релизов в интернете со ссылкой на продвигаемый сайт.

20.4.3. Серая оптимизация

Серые методы можно трактовать как что-то среднее между черными и белыми методами продвижения. В сущности, эти способы продвижения сайта являются полулегальными и поэтому не лишены риска, что продвигаемый сайт не забанят. К ним относятся [33]:

  • неоправданное использование тэгов <strong><b> и других, позволяющих воздействовать на алгоритм ранжирования в поисковых системах и хоть немного поднять позиции сайта в поисковиках;
  • нетематический обмен ссылками и статьями;
  • покупка ссылок на других сайтах;
  • использование сервисов автоматического обмена статьями;
  • ссылки с несуществующих страниц;
  • покупка мест под статьи на других ресурсах или размещение за плату статей со ссылками на свой сайт на других сайтах.

20.4.4. Черная оптимизация

Черная оптимизацияпоисковая оптимизация (подстройка кода, текста и других параметров сайта под алгоритмы поисковых систем с целью поднятия его позиций в выдаче) с применением запрещенных и недобросовестных методов, в частности, нарушающие лицензию Яндекса; а также нарушающие правила участия в рейтинге сайтов.

К методам черной оптимизации относятся [32, 33]:

  • использование невидимого текста, совпадающего с цветом фона или очень близкого к нему;
  • использование невидимых пользователю ( width="1", height="1" ) графических изображений, равно как и невидимых фреймов и чрезмерно маленького шрифта size="1" ;
  • создание дорвея, т.е. сайта, который может состоять из одной, максимум из 2-3 страниц, назначение которого – привлечь посетителей и перенаправить их на основной сайт;
  • клоакинг, т.е. выдача текстового содержания сайта (страницы) поисковому роботу отличного от того, которое видит пользователь;
  • злоупотребление в тексте ключевыми словами и словосочетаниями;
  • использование линкаторов (программ автоматического обмена ссылками);
  • накрутка счетчиков в рейтингах сайтов (top100.rambler и др.) с использованием специальных сервисов;
  • спам по почте, т.е. беспорядочная отправка с помощью специальных программ непрошеных сообщений с просьбой посетить сайт тысячам и миллионам Интернет-пользователям.

20.4.5. Несколько рецептов по раскрутке сайта

Начать следует с оптимизации текста, который является самой важной составляющей, и его разметки [34].

  • текст должен быть уникальным и читабельным для человека;
  • в <head> должен присутствовать тег <title> </title> c заголовком страницы;
  • в тег <description> помещается более пространное описание страницы;
  • в тег <keywords> помещаются ключевые слова для этой страницы;
  • главный заголовок помещается в тег <h1> заголовки более низких логических уровней в теги соответственно <h2>, <h3> ;
  • картинки подписываются тегом "alt" с описанием содержимого;
  • ссылки подписываются тегом "title" с описанием того, куда они ведут;
  • делается навигационные панели на страницы сайта;
  • в статьях ставятся ссылки на важные страницы с ключевым словом;
  • делается карта сайта – страница, на которой содержится полный или частичный список страниц сайта, доступных с главной или всех страниц;
  • создается файл robots.txt:

    robots.txt – файл ограничения доступа к содержимому роботам на http -сервере. Файл должен находиться в корне сайта (то есть иметь путь относительно имени сайта / robots.txt ). Данный файл дополняет стандарт Sitemaps, который служит прямо противоположной цели: облегчать роботам доступ к содержимому.

    Файл robots.txt используется для частичного управления индексированием сайта поисковыми роботами. Этот файл состоит из набора инструкций для поисковых машин, при помощи которых можно задать файлы, страницы или каталоги сайта, которые не должны индексироваться.

    Файл состоит из записей. Записи разделяются одной или более пустыми строками. Каждая запись содержит непустые строки следующего вида:

    <поле>:<необязательный пробел><значение><необязательный пробел>

    где поле – это либо User-agent, либо Disallow.

    Примером robots.txt может служить следующий текст:

    User-agent: *  //для всех агентов
    Disallow: /images/ //не индексируем содержимое папки images
    Disallow: /*.css$ //не индексируем файлы с расширением css во всех подпапках сайта
    Sitemap: http://example.com/sitemap.xml //указываем расположение файла sitemap.xml
  • создается файл sitemap.xml .

    Sitemaps – это XML -файл с информацией для поисковых систем (таких как Google, Yahoo, Ask.com, MSN, Яндекс) о страницах веб-сайта, которые подлежат индексации. Sitemaps может помочь поисковикам определить местонахождение страниц сайта, время их последнего обновления, частоту обновления и важность относительно других страниц сайта для того, чтобы поисковая машина смогла более разумно индексировать сайт.

    Ниже приведен пример файла Sitemap, в котором содержится только один URL-адрес и использованы все необязательные теги.

    <?xml version="1.0" encoding="UTF-8"?>
    <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
       <url>
          <loc>http://example.com/</loc> // местонахождение страницы
          <lastmod>2005-01-01</lastmod> // время последнего обновления
          <changefreq>monthly</changefreq> // частота обновления
          <priority>0.8</priority> // важность относительно других страниц
       </url>
    </urlset>

    Рекомендуется располагать файл Sitemap в корневой директории сервера

    После оптимизации текста и его разметки следует приступить к использованию белых механизмов раскрутки [35]:

    • регистрация в каталогах сайтов и каталогах пресс-релизов;
    • регистрация в каталогах статей или обмен статьями;
    • размещение объявлений на досках объявлений;
    • обмен ссылками (приемлем только с тематическими ресурсами);
    • размещение новостей на новостных порталах;
    • создание RSS-ленты и регистрация в RSS-каталогах;
    • создание и ведение рассылок на своем и/или специализированных ресурсах;
    • создание конкурсов и акций на сайте;
    • создание и ведение групп в социальных сетях.

20.4.6. Ключевые термины

Поисковая оптимизация, SEO, Плотность ключевых слов, Индекс цитирования сайта, Белая оптимизация, Серая оптимизация, Черная оптимизация.