ГлавнаяБлог

Аудит сайта перед началом продвижения

Ценность SEO-аудита сайта является бесспорной. Именно с его профессионального проведения начинается продвижение ресурса. От качества этой первой стадии работ напрямую зависит грамотное составление плана продвижения и прогнозирование того, каких результатов, и за какой период времени может достичь конкретный сайт.

Анализ получается тем точнее, чем больше параметров сайта принимается во внимание, однако бывают случаи, когда вполне достаточно будет провести не глубокий анализ, а так называемый экспресс-аудит. Этот вид анализа дает возможность при минимальных временных затратах сделать выводы о потенциале сайта и перспективах его продвижения.

  • Эксспресс-аудит оказывается незаменимым, когда необходимо выявить важные ограничения для SEO без детального изучения малозначимых факторов.
  • Базовый набор параметров, нуждающихся в первоочередной оценке, каждый SEO-специалист составляет индивидуально, но есть некоторые из них, требующие внимания в любой ситуации.

Охарактеризуем их подробнее.

Дата регистрации домена

От даты регистрации домена зависит, в первую очередь, возможность продвижения высокочастотных запросов. Если домен зарегистрирован меньше года назад, продвижение по конкурентным запросам будет весьма затруднительным. Проверить эту дату большого труда не составляет. Для этого можно использовать любую из баз данных с WHOIS-интерфейсом, находящихся в открытом доступе (например, whois.tcinet.ru).

От качества первоначального аудита напрямую зависит грамотное составление плана продвижения и прогнозирование того, каких результатов, и за какой период времени может достичь конкретный сайт

Это, пожалуй, единственный из названных выше параметров, который SEO-специалист никак не может скорректировать. Тем не менее, его нельзя убирать из списка, поскольку без этого можно несколько месяцев впустую тратить бюджет, если в семантическом ядре нужны высококонкурентные запросы, либо придется изменить согласовать семантическое ядро.

Наличие аффилиатов

Если сайт имеет аффилиаты, то есть иные ресурсы, которые принадлежат той же компании и ориентированы на продажу тех же продуктов или услуг, риск попадания под фильтр становится очень большим. Итогом становится то, что сайт либо существенно «проседает» по важным позициям, либо вообще отсутствует в выдаче поисковой системы.

Стопроцентно надежного метода выявления аффилиатов не существует, что можт создавать существенные сложности. Лучший метод - прямо спросить у клиентов об их наличии, но он может и не разбираться в понятиях SEO, либо просто захочет скрыть от специалистов часть информации.

От даты регистрации домена зависит, в первую очередь, возможность продвижения высокочастотных запросов

Выявлению аффилиатов также могут помочь такие ресурсы, как copyscape.com, либо tools.promosite.ru. Одним из простых, но эффективных методов является ручное «пробивание» через поисковую систему контактов, имеющихся на сайте. Если они имеются на подобном ресурсе, скорее всего он является аффилиатом.

Зеркала сайта

Под зеркалом понимается дубликат сайта с иными доменным именем, который создается с целью предотвращения базового ресурса от перегруженности. Зеркала, которые настроены некорректно, либо не настроены вообще, существенно влияют на продвижение ресурса. Это воздействие может быть разным: от неверного распределения ссылочного веса до полного выпадения ресурса из индекса поисковой системы.

Нередко поисковики и сами могут определить главное зеркало, но далеко не всегда они делают выбор, необходимый клиентам, либо SEO-специалистам. Самой частой ошибкой является отсутствие указания на то, какое из зеркал сайта главное - с www или без этих знаков.

Указание директивы host в файле robots.txt

Указание директивы host в файле robots.txt

Самый простой способ - проверка настройки зеркала в документе robots.txt, где должна быть директива host. Если такая информация на нем отсутствует, необходимо произвести склейку зеркал посредством 301-го редиректа. Делается это довольно-таки просто. Необходимо ввести в адресную строку любого браузера адрес, начинающийся с www, после чего проверить, видны ли значки www в URL после того, как открылся сайт. Если www не отображается, значит, редирект не настроен, и поисковая система не знает, какой из ресурсов стоит считать основным.

А что в robots.txt?

Файл robots.txt - это текстовый документ, указывающий поисковым роботам параметры индексации. Если его нет, это означает, что поисковым продвижением ресурса до сих пор никто не занимался. Этот файл нужен для обеспечения запрета на индексацию тех страниц, которые роботу лучше не видеть, и для обеспечения быстрой индексации необходимых страниц, что возможно, если в нем прописан sitemap.xml. Текстовый документ robots.txt нужен также для указания на основное зеркало.

Провести проверку имеющегося robots.txt можно посредством Яндекс.Вебмастер. Он, помимо всего прочего, дает возможность выявить, не запрещены ли для индексации определенные страницы сайта, либо весь ресурс.

Карта сайта в sitemap.xml

Sitemap.xml - файл, в котором содержатся сведения о страницах ресурса, нуждающихся в индексации, а также о том, насколько часто обновляется информация на его страницах. Притом, что наличие карты сайта XML, которая составляется специально для робота, не гарантирует стремительную и правильную индексацию, профессионалы настоятельно рекомендуют использовать ее на всех сайтах вне зависимости от их направленности и объема.

Кроме наличия sitemap.xml, важно проверить также актуальность карты сайта. Для этого у каждой SEO-компании имеется свой инструментарий, однако есть и бесплатные варианты - например, validome.org/xml/validate.

Очень важно, чтобы на сайте был уникальный контент, причем это не только уникальные тексты, но и соотношение уникальных и неуникальных страниц сайта

Специалисты также обращают внимание на такую весьма распространенную ошибку, как наличие карты сайта лишь в HTML или лишь в XML. Важно, чтобы на сайте присутствовали оба варианта.

Что в индексе твоем...

Индексация сайта - это важный процесс, в ходе которого на сайте ведут свою работу поисковые роботы, собирая с его страниц информацию, достойную того, чтобы выдаваться по запросам пользователей.

В первую очередь стоит проверить, знают ли поисковики о вашем ресурсе. С этой целью используется конструкция site:site.ru для Google, либо же url:www.site.ru* | url:site.ru* для Яндекса. Желая увидеть страницы в основном индексе Google, надо ввести site:site.ru/&.

Если сайт не в индексе или выясняется, что индексируются далеко не все страницы, это является тревожным знаком. Либо ресурс появился в Сети совсем недавно, и еще просто не успел привлечь внимание роботов, либо он сделан не самым оптимальным образом (ссылки на JavaScript, нет sitemap.xml и robots.txt, либо какие-то иные проблемы). Вполне возможно, поисковая система уже успела наложить санкции на ресурс.

Если первое и второе легко поправимо, то вытащить ресурс из-под фильтра легко и быстро не получится. Если есть подозрения в наличии санкций, экспресс-аудитом обойтись не выйдет - лучше выполнить комплексный анализ и определить возможные причины наложения фильтра.

Городской телефон

Эта проверка является очень важной, если планируется продвижение коммерческих геозависимых запросов. Такая проверка важна для ресурсов компаний, например, физически находящихся в Калининграде или Калининградской области и желающих продвигаться по своему региону.

Раздел в Яндекс.Вебмастер для присваивания региона сайту

Раздел в Яндекс.Вебмастер для присваивания региона сайту

Чтобы поисковая система определила ресурс как относящийся к конкретному региону, надо, чтобы как минимум в разделе «Контакты» были адрес и телефон, к этому региону относящиеся. В этом случае есть все шансы попасть в Яндекс.Справочник, что значительно упростит работу с ресурсом.

Важность уникальности и полезности текстов

Очень важно, чтобы на сайте был уникальный контент, причем это не только уникальные тексты, но и соотношение уникальных и неуникальных страниц сайта. Анализ точно покажет, насколько сложной станет одна из важных и трудоемких задач - доведение текстов до уникальности. Такую проверку можно произвести и с помощью бесплатных сервисов, однако, если на сайте много страниц с текстом, она затянется очень надолго.

Advego Plagiatus - программа поиска в интернете частичных или полных копий текстового документа

Advego Plagiatus - программа поиска в интернете частичных или полных копий текстового документа

Еще одним минусом применения свободного программного обеспечения, является ограниченность доступа к итогам проверки. Такие ресурсы не позволяет понять, сколько у сайта дублей, какие они, какие страницы уже вышли в «тираж». Поэтому пакетное определение уникальности профессионалы производят при помощи платных сервисов, либо с использованием специальных скриптов, созданных SEO-компанией с учетом ее нужд.

Итого

Важно отметить, что экспресс-анализ по десяти ключевым составляющим можно использовать лишь в случаях, если скорость аудита критически важна. Если же требуется анализ уже продвигаемого сайта, который никак не хочет оказываться в ТОПе, нужен более тщательный аудит, включающих исследование технических параметров, юзабилити, коммерческой составляющей и множества других параметров.

Мобильная версия 39saitov.ru

Seo-компания «39 сайтов»
(4012) 50 94 26, info@39saitov.ru
Калининград, Ленинский пр-т, 30 (Плаза), бизнес-центр, корпус А, офис 637
ПН — ПТ с 10:00 до 18:00

2005 — 2024 © «39 сайтов»