Блог

Самостоятельный SEO-аудит сайта

Угнаться за всеми современными алгоритмами ранжирования поисковых систем вряд ли удастся – их тысячи. Но среди них можно выделить основные и уделить им максимум взимания. Такой SEO-аудит позволит понять степень готовности сайт к продвижению. Даже при «вылизанном» интерфейсе ресурс может иметь критические ошибки в структуре, из-за которых добиться большого успеха будет крайне трудно.

Разберем наиболее популярные и типичные ошибки, допускаемые разработчиками при создании сайта и методы их устранения.

Некорректные Title, Description и Keywords

Title или заголовок должен быть уникальным и обозначать содержание страницы. При его автоматическом генерировании, что часто делают CMS, поисковики могут склеивать некоторые страницы, тем самым исключая их из выдачи. Не нужно делать тайтл слишком длинным и неудобным для чтения. Начинаться он должен с ключевого слова для целевой страницы и грамотно описывать ее содержание. Текст из поля Title является очень важным для поисковых систем, поэтому нужно обращать внимание, в нем содержались ключевые слова, которые продвигаются на страницу. При этом желательно сделать его читаемым, не стоит просто перечислять ключевые слова через запятую или другой разделить. Если ключевых слов получается слишком много, нужно подумать над распределением части из них на другие страницы.

Тэг Description не учитывается в ранжировании, в том плане, что наличие или отсутствие ключевых слов в нем никак не влияет на позиции документа. Но текст из этого поля может попадать в сниппет поисковой выдачи. Google очень охотно берет текст из Description для формирования сниппета, Яндекс - менее. Keywords уже давно не перестали влиять на ранжирование, поэтому заполнять данное поле не имеет никакого смысла. Хотя некоторые вебмастера и seo-оптимизаторы продолжают это делать.

Неуникальность контента

По этому поводу уже сказано столько, что и добавить собственно нечего. Неуникальный контент – одна из основных ошибок, препятствующих выводу сайта в ТОП. Проверку можно осуществить при помощи сервиса Copyscape.

Дублирование страниц

Беда многих систем управления контентом – это создание открытых для индексации дублей страниц. Сюда относят версии для печати с приставкой www и без нее, с закрывающим слэшем и без него, результаты поиска и др. На первый взгляд для обычно посетителя разница не заметна, но для поисковых систем это все разные страницы. Дублирующие страницы следует подклеивать к основным при помощи 301-редиректа, а также закрывать от индексации в файле robots.txt.

Спам

Необходимо защитить от назойливых ссылок и прочего мусора наиболее уязвимые области сайта – форумы, гостевые книги, страницы отзывов. Для этого подойдет капча или премодерация. Также не стоит самому злоупотреблять на страницах частыми повторениями ключевых слов – это может сказаться на понижении позиций сайта в выдаче.

Битые ссылки

Существуют различные сервисы по проверки сайтов на биты ссылки. Можно воспользоваться, например, программой Sreaming SEO Spider или Netpeak Spider.

Хотлинкинг

Не рекомендуется размещать прямые ссылки на изображения с других ресурсов. При необходимости их можно скопировать к себе на сервер. Иначе здесь встает проблема заимствования графического контента. Конечно, лучше делать свои фото и картинки. Исключение – изображения без логотипов, например, с сайта производителя. Допускается размещение ссылок и плееров роликов с крупных видеохостингов.

Кривая верстка

Есть несколько основных правил, которых следует придерживаться:

  • На одной странице не должно быть более одного заголовка H1, содержащего ключевое словосочетание. Внутри этого тега нельзя вставлять ссылки. Теги заголовков должны использоваться исключительно для разметки контента.
  • Все теги должны закрываться. Проще всего это проверить специальными веб-инструментами и сервисами.
  • По возможности HTML-код необходимо поддерживать валидным, что гарантирует полноценное отображение содержимого страниц во всех браузерах и обеспечит безпроблемную индексацию. Для проверки подойдет сервис validator.w3.org.

Медленная загрузка страниц

Ни Google, ни Яндекс не любят медленные сайты, и это факт. Поэтому к настройке CMS и веб-сервера следует отнестись с максимальной ответственностью. В противном случае вы не только потеряете добрую часть посетителей, но и утратите позиции в поисковой выдаче. Для проверки скорости загрузки сайта хорошо подойдет Google Analytics или панель вебмастера Google.

Robots.txt

Это файл, содержащий указания для поисковых систем. В нем следует разрешить индексировать все нужные материалы и, соответственно, запретить все ненужные. Также здесь указывается путь к карте сайта и ссылку на главное зеркало ресурса (c www или без).

Делаем страницу ошибки 404

При настройке сайта не забываем про пользователей, запросивших несуществующую страницу. Они должны перенаправляться на страницу 404, которую также необходимо правильно оформить. Здесь лучше поместить ссылку на главную страницу, основные разделы, привести поясняющий текст и вставить логотип сайта.

Внутренняя перелинковка

Ссылки внутри сайта помогают перенести вес со страниц с менее важных на более авторитетные. Например, на главную. Таким образом, можно улучшить позиции страниц-реципиентов в поисковых выдачах по соответствующим ключевым словам.

Вывод

Анализируя все вышеизложенное можно прийти к выводу, что успешное будущее сайта без грамотного SEO-аудита практически невозможно. Ну а каким образом он будет осуществляться – самостоятельно (если есть для этого все необходимые знания и навыки), либо при помощи услуг сторонних специалистов, решать уже только вам.

Поделиться