Как мы делаем SEO - ItConversion

Как мы делаем SEO

Тема этой статьи назревала давно, так как часто к нам обращаются с логичным вопросом: «Как вы делаете SEO?» Чтобы сделать жизнь проще, мы решили разобрать основные работы, проводимые в рамках услуги SEO-продвижения.

Работа SEO-специалиста начинается еще до начала разработки сайта. Составляются семантическое ядро, карта релевантности, структура сайта, общие требования к сайту и техническое задание на написание текстов для копирайтера. Разберем всё по порядку.

Работы до создания сайта

Семантическое ядро

Семантическое ядро, оно же — семантика, состоит из ряда поисковых запросов пользователей (ключей), по которым будет продвигаться наш будущий сайт. Выглядит семантика довольно просто: это таблица со списком ключевых запросов. Число запросов в семантическом ядре варьируется и зависит от ниши бизнеса, типа сайта и пожеланий заказчика. Чем больше семантическое ядро, тем лучше. С максимально большой семантикой можно охватить максимальное число пользователей. Это один из самых важных этапов продвижения сайта, не стоит его недооценивать.

Некластеризованное семантическое ядро выглядит следующим образом:

Карта релевантности

Карта релевантности — это семантическое ядро, но уже в более развернутом виде. Правильная карта не только разбивает запросы по страницам, но и содержит такую информацию как мета-теги  Title, Description, Keywords. Благодаря подобной карте программист, который будет создавать сайт, сразу сможет создать необходимые страницы и разместить нужные мета-теги. Это позволит избежать дальнейших переделок на сайте.

Выглядит она так:

Общие требования и техническое задание на статьи

После того как семантика собрана и карта релевантности построена, нам нужно написать общие требования для программиста. В общие требования могут входить различные задачи. Необходимо ли устанавливать виджеты чата и обратного звонка, какими должны быть конверсионные элементы и доверительные триггеры и другие тонкости.

Кроме того составляется техническое задание на написание текстов для сайта. Обычно в месяц пишется некоторое фиксированное количество статей, чтобы сайт входил в индекс плавно. Слишком большое количество новых страниц, появившихся в индексе, вызывает подозрение со стороны поисковых систем.

В техническое задание входят следующие пункты:

К написанию текстов привлекаются профессиональные копирайтеры и специалисты, разбирающиеся в вопросе. Так, тексты на наш флагманский сайт, stroyday.ru, были написаны инженерами. За общим качеством статей следят контент-менеджеры и редакторы.

Семантическое ядро, карта релевантности и написанные с опорой на них тексты необязательно используются для только запускающихся сайтов. Эту же работу иногда проделывают со старыми сайтами, например, для расширения семантики или при использовании инструментов контент-маркетинга.

После создания сайта

Итак, код написан, вёрстка готова, сайт создан, некоторый объём статей на нём опубликован. К слову, копирайтеры продолжают писать тексты в соответствии с семантическим ядром. Это нужно делать постоянно и не только в период продвижения.

Что ещё нужно сделать SEO-специалисту? Составить карту сайта, файл robots.txt, проверить сайт на ошибки, зарегистрировать его в системах аналитики и кабинетах вебмастеров поисковых систем.

Sitemap.xml и Robots.txt

Карта сайта, sitemap, и файл robots.txt очень важны для поисковых систем. В sitemap находится список всех страниц сайта, которые нужно индексировать, и рекомендации для поисковых систем, как часто это нужно делать. В файле robots.txt находится информация о том, какие разделы сайта стоит обходить поисковым системам, а какие не нужно. Обычно от индексации закрываются различные технические страницы, к примеру, кабинет администратора. Вряд ли нам нужно, что бы админку можно было найти с помощью Google.

От индексации стоит закрывать страницы с неуникальным контентом или страницы-дубли. Страниц, запрещенных к индексации в файле robots.txt, не должно быть в карте сайта.

Вот так выглядит файл robots.txt на сайте stroyday.ru:

Проверка сайта на ошибки — аудит

Многие всерьез удивляются, зачем нам проверять сайт на ошибки, который мы сами же и создали? Зачем делать бесполезную работу? Давайте представим, что автомобили, собираемые на заводах, перестали бы тестироваться. Ух, сколько брака и неудачных моделей выходило бы в массы! Не счесть.

С сайтом та же история. После создания нужно обязательно провести «краш-тест» и проверить сайт на ошибки. Они бывают разного характера: от ошибок оптимизации до орфографических. После проведения аудита составляется список рекомендаций, по которому оптимизируется сайт.

Часто аудит сайта — это объёмный многостраничный документ. Например, такой:

Яндекс.Метрика и Яндекс.Вебмастер

Когда мы убедились, что на сайте у нас все о’кей, контент интересен читателю и уникален, а ошибок нет, можно приглашать поисковые системы. Самый легкий способ это сделать — добавить сайт в кабинеты вебмастеров. Такие есть у каждой поисковой системы такой есть. Добавить сайт довольно просто: достаточно ввести немного информации о ресурсе и подтвердить право владения. Спустя несколько дней после добавления сайта информация о нем появится на панели кабинета вебмастера. Туда обычно входят:

Кабинет вебмастера в Яндексе выглядит вот так:

Теперь о системах аналитики. Мы пользуемся Яндекс.Метрикой — это одна из крупнейших систем. Дополнительно можно подключить Google Analytics и LiveInternet.

В Метрике о своем сайте можно узнать практически всё, например, динамику посещаемости и характеристики аудитории (географию, возраст, интересы). И ещё данные о том, как пользователи ведут себя на сайте, как долго изучают его страницы, какие целевые действия совершают и многое другое. На основе этой информации анализируется прогресс сайта.

Ссылки

После того, как мы добавили сайт в кабинеты вебмастеров, можно задуматься о работе над ссылочным профилем сайта. Индекс цитируемости — это важный показатель авторитетности сайта и ценности размещаемой на нём информации. Ведь если на сайт ссылаются — значит, он хорош. Пожалуй, это одна из самых сложных работ, так как просто взять и купить ссылки нельзя, это нарушает правила поисковых систем и может привести к попаданию сайта под фильтры — Минусинск от Яндекса и Google Penguin. Ссылки должны появляться на сайте естественным путём.

Поскольку мы не покупаем ссылки, нам приходится идти более долгим путем построения ссылочного профиля. Здесь используются публикация ссылок на статьи в соцсетях, на форумах, в каталогах и другие варианты.

Стоит помнить о таком понятии, как «ссылочный взрыв». Согласитесь, на новый сайт, который только-только появился, не могут вести тысячи ссылок. Поисковые системы тоже так считают и наказывают сайты за ссылочный спам. К слову, вывести ресурс из-под такого фильтра порой бывает сложно — не все владельцы ресурсов реагируют на просьбы удалить ссылки.

Поведенческие факторы

Когда ссылочный профиль сайта приведён в порядок, можно задуматься о поведенческих факторах. Как поисковые системы поймут, интересен наш сайт пользователям или нет? Они заглядывают к нам в системы аналитики и оценивают следующие данные:

Чем лучше три показателя описанных выше, тем выше наш сайт будет в поисковой выдаче. Работать над ними можно разными путями. Один из них — проанализировать статистику, понять, что не устраивает пользователей, и исправить ситуацию. Стоит помнить, что сайт должен быть удобен пользователю, а не владельцу, поэтому следим за качеством дизайна и юзабилити.

Что-нибудь ещё?

Скажем честно — это далеко не всё, что можно сделать для улучшения ранжирования. Описанные выше этапы — основа, без которой невозможно дальнейшее продвижение сайта. Дальше к процессу могут подключаться специалисты по SMM, контент-маркетингу, контекстной рекламе и многие другие. Есть агентства, которые предоставляют все эти услуги комплексно, например, мы.

Читайте также

Свяжитесь с нами

Нужны клиенты в бизнес? Проведем бесплатный аудит вашего интернет маркетинга. Укажем точки роста и то, как мы можем помочь. Цены тоже озвучим:)
Россия, Москва, ул. Перерва, д. 1 стр. 1, оф. 1




Нажимая на кнопку, вы даёте согласие на обработку своих персональных данных
top