• Телефон: +7(3462) 330-200
  • Email site-surgut@mail.ru

Блог

1. Аудит внутри сайта

1.1. Проверка уникальности каждого title, description и keywords 
Каждая страница на сайте должна иметь свой уникальный title, description и keywords. Это нужно как для поисковой машины, так и для пользователя. Как правило, почти на любом сайте найдутся страницы с дублями этих параметров, а это создает вопрос: какая страница релеванта ключевому слову. Плюс, даже если на сайте есть много информации по этой теме, но все они озаглавлены одинаково, то поисковая машина скорее понизить позиции сайта, чем повысить их.

Как можно найти дубли title, description и keywords? 
Для небольшого сайта (например, до 100 страниц) это можно сделать и вручную, а для большего сайта лучше использовать специальные программы и сервисы. Например, сервис MEGAINDEX бесплатно сможет найти все страницы с одинаковыми тайтлами, дескрипшанами и кейвордами. В ближайшее время я постараюсь подготовить обзоры бесплатных программ для такого поиска.

1.2. Дубли на сайте 
В аудите должны быть представлены все ссылки на страницы сайта, которые дублируют контент. Ситуация с дублями страниц на сайте почти всегда встречается на каждом сайте работающем на движке (CMS). Например, в WordPress одна и та жа запись может быть доступна по адресам: 
/category/nazvanie-stati.html и /category/?p=40

Это очень негативно влияет на доверие к сайту, а значит и на его позиции, поэтому рекомендуется отнестись к таким мелочам очень серьезно.

Не стоит также забывать о дублях вида: /category/nazvanie и/category/nazvanie/ - то есть наличие и отсутствие слэша на конце. Вроде бы почти один и тот же URL, но для поисковой машины это будут абсолютно разные адреса. Поэтому в данном случае надо либо все страницы привезти к виду со слэшом в конце, либо без него. Для этого надо правильно настроить 301 редирект).

Вообще найти все дубли на сайте - задача не из простых. Зачастую они могут быть вида: /category/statya.html/blabla и т.п. Вариантов когда сервер может отдать верную страницу вместо редиректа 301 или 404 ошибки много. На популярных движках все немного проще, т.к. обычно все такие проблемы уже найдены и все примерно знают как это решить. А вот на сырых движках нужно проводить множество тестов, чтобы избавиться хотя бы от самых простых дублей.

Поиск дублей на сайте можно осуществить с помощью автоматизированных бесплатных сервисов, например, с помощью все того же MEGAINDEX. Также существуют бесплатные и платные программы.

1.3. Настройка 404 ошибки 
Наличие страницы для 404 ошибки на сайте стало одним из факторов ранжирования. Сделать обработку для 404 ошибки очень просто, поэтому не стоит этим пренебрегать. Ведь это делается для посетителей, а заодно и для поисковых машин.

Проверить наличие на сайте страницы 404 ошибки просто: просто вбейте в адресе вашего сайта белеберду (site/blablasdffhg) и посмотрите что вы увидите в ответ.

1.4. Оптимизация текста 
Под оптимизацией текста я понимаю то, что текст должен быть написан для людей с наличием ключевых слов в нем. Причем ключевые слова должны быть аккуратно вписаны и не привлекать особого внимания. Сервисы не в состоянии автоматом проверить такую тонкость. Это только ручная и очень трудная работа, от неё многое зависит. Причем такую работу должен выполнять маркетолог или грамотный копирайтер.

Автоматизированные сервисы могут только сказать о том, какие ключевые словосочетания встречаются в тексте чаще всего. Зачастую может возникнуть следующая ситуация: статья была написано про одно (по-крайней мере так думал автор), а за счет большого употребления какой-то другой фразы поисковик решил, что статья вообще про другую тему. А это означает, что и высоко ранжироваться она будет совсем по другому запросу.

1.5. Наличие заголовочных тегов 
На каждой странице сайта должен быть заголовочный тег <h1>. В принципе автоматизированные аудиты в состоянии отследить это, но не в состоянии дать правильной рекомендации по его использованию на сайте.

1.6. Оптимизация сниппетов 
Об оптимизации сниппетов и их важности знают уже все оптимизаторы, я даже подробно написал большую статью на эту тему. Это действительно очень важный фактор, о котором не стоит забывать. Автоматизировано проверить его качество - невозможно. Это долгая ручная работа оптимизатора.

1.7. Битые ссылки 
Все битые и нерабочие ссылки должны быть удалены, т.к. это мешает процессу продвижения сайта. Эту информацию можно получить бесплатно с помощью специальных программ.

1.8. Настройка robots.txt 
У каждого сайта должен быть robots.txt. Подробнее о том, что это такое и как его настроить можно ознакомиться здесь. Автоматизировано можно получить лишь информацию о том, насколько файл robots.txt корректен и какие разделы он скрывает.

2. Общая информация о сайте

Как правило, эту информацию можно получить автоматизировано. Огромной ценности она не представляет, ну, пожалуй, кроме времени загрузки сайта и пузомерок. Обычно она содержит следующие данные:

  • Возраст домена;
  • Хостинг;
  • Кодировку сайта;
  • Время загрузки сайта (пожалуй единственное, что важно);
  • Пузомерки (тИЦ и PageRank);
  • Индексация в Яндексе и Google (также важная информация, в идеале количество проиндексированных страниц должно совпадать);

3. Анализ статистики сайта

Должны быть проанализированы данные по статистике посещаемости. Что именно сюда входит?

  • анализ времени проведения на сайте (если оно маленькое, то нужно понять почему);
  • изучить поведение пользователей на страницах сайта (проанализировать вебизор);
  • поиск страниц, которые привлекают больше всего целевых посетителей (ценная информация для любого сайта, надо знать что развивать и улучшать в первую очередь);
  • карта кликов по сайту;
  • и т.д.;

Этот важнейший пункт никакая система автоматически не в состоянии сделать. Как правило, это ручная работа и её в состоянии сделать только опытный оптимизатор. Стоимость данной услуги в отдельности колеблется очень сильно: от нескольких сотен и до десятков тысяч рублей.

Результатом анализа должны быть конкретные советы, что необходимо улучшить. В некоторых случаях можно достичь большого улучшения даже если поменять в некоторых местах шрифт (размер, цвет), сделать некоторые элементы более заметными, добавить какие-то элементарные вещи, которых не хватало. Улучшать тексты на тех страницах, которые приносят наибольшее количество целевых посетителей и т.п.

Советую ознакомиться со статьями: поведенческие факторы в Яндексе и накрутка поведенческих факторов.

4. Анализ позиций сайта

Сюда входит определение всех позиций сайта, которые находятся в топ-50. Далее отбираются все страницы, которые соответствуют параметрам и проводится тщательный анализ, что мешает подняться этой странице выше. Это уже чистая работа обыкновенного оптимизатора. Найти все позиции сайта можно и на автомате (видимость сайта), но вот дать дельные советы по улучшению позиций никакая система не сможет. Здесь нужен человек с опытом.

Кстати, в анализ позиций сайта обычно включается пункт с рекомендациями о включении новых ключевых слов для привлечения ещё большой аудитории. Связано это с тем, что составить полное семантическое ядро сайта очень сложная задача, которую даже опытный seoшник не сможет сделать всегда верно на все 100%. Скорее всего, парочка отличных запросов вы упустили, а это дополнительные потенциальные посетители, которые можно получить в некоторых случаях довольно просто и дешево.

5. Анализ входящих ссылок

Ссылки все меньше влияют на позиции сайта, но их анализ все равно рекомендуется сделать, причем на автомате. Разные сервисы предоставляют различную информацию по входящим ссылкам. Связано это с тем, что они берут информацию из разных источников. Конечно, самую точную и полезную информацию о ссылках можно получить в Яндекс Вебмастерс и Google Вебмастерс. Однако рекомендуется ещё смотреть и сторонние сервисы, например, через ahrefs.

Что же сюда должно войти?

  • страницы на которые наиболее часто ссылаются;
  • анкоры наиболее часто встречающихся ссылок;

На самом деле обычному владельцу сайта, который плохо разбирается с продвижением эта информация почти ничего не даст. Ну какая ему разница ссылается на него 500 или 600 доменов? Его интересует вопросы как увеличить количество целевых посетителей и улучшить конверсию сайта. Поэтому анализ входящих ссылок нужен только для SEOшников с целью роста позиций сайта.

6. Сравнение сайта с конкурентами и рекомендации

В хороших аудитах также проводится небольшой анализ сайта по сравнению с конкурентами. Просматриваются сайты, которые занимают первые места, ищут интересные идеи, которые можно было бы применить и на анализируемом сайте. Также должны быть просто рекомендации по улучшению дизайна и сайта. Возможно на сайте не хватает каких-то важных элементов (такое встречается на каждом сайте), которые мешают перейти сайту на новый уровень развития. Все эти нюансы необходимо отобразить в рекомендациях.

Итогом аудита должно стать 
Полная картина о текущем состоянии сайта на данный момент, а также рекомендации по его улучшению/развитию. Автоматический аудит не в состоянии сделать такую работу. Стоимость аудита у разных людей сильно отличается. Я бы не рекомендовал заказывать аудит за 100 рублей, поскольку за такие деньги уважающий себя оптимизатор работать не станет. Минимальная стоимость более-менее стоящего аудита 1000 рублей, но опять-таки он будет сделан так себе, но есть вероятность, что за такую сумму у вас появятся новые идеи, которых ранее не было. Мое мнение, что адекватная стоимость хорошего аудита 15000-40000 рублей.

Сайты Сургута

 

 Все права защищены. 2015. Копирование материалов сайта запрещено.

FLICKER GALLERY

NEWSLETTER

Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.

Search