Семантическое ядро сколько нужно ключевых слов. Как правильно составить семантическое ядро? Выбор тем и группировка

01.03.2024 Проблемы

Приветствую Вас уважаемый читатель блога web-revenue!

Сегодня я решил рассказать Вам про основу основ- SEO-продвижения, а именно про составление семантического ядра сайта (СЯ ).

Семантическое Ядро — это библиотека поисковых слов или словосочетаний и их морфологических форм, которые наиболее точно характеризуют деятельность сайта, а также товар или услуг, предлагаемых сайтом. Грубо говоря составление СЯ – это составление ссылочной структуры целевых запросов сайта, по которым планируется продвигать сайт!

Для чего создаётся семантическое ядро сайта

1.СЯ образует тематику сайта, которая будет учитываться поисковиками.

2. Правильно сформированное СЯ является основой для оптимальной структуры веб-ресурса.

3. Для того, чтобы привязать каждую страницу сайта со смысловой информацией к конкретной части СЯ (ключевые слова).

4. Для формирование ограниченного набора ключевых слов с целью рационального выделения ресурсов на продвижение сайта по конкретным ключевым запросам (словам).

5. Для оценки стоимости продвижения сайта в поисковиках (поисковых системах)

Основные понятия

Перед началом составления семантического ядра разберем, несколько основных понятий.

1. Все запросы, которые пользователи вводят в поисковики, можно условно разделить на:

Высоко частотные (ВЧ)

Средне частотные (СЧ)

Низко частотные (НЧ)

Как узнать к какой группе относится тот или иной запрос спросите вы. Вообще жёстких рамок и границ которые отделяют Высоко частотные от средне частотных, а средне частотные от низко частотных запросов, не существует. Это в большей степени зависит от тематики сайта. Если брать средние значения, то низко частотными мы будем считать те запросы, которые набирают до 450-700 раз в месяц; средне частотными – до 1,2 — 2 тыс. раз в месяц; высоко частотными – свыше 2 тыс. раз в месяц.

Многие веб-мастера рекомендуют, начинать продвигать сайты, сначала по низкочастотным и средне частотным запросам, это с одной стороны правильно, но есть одно но: у некоторых НЧ и СЧ, такая высокая конкуренция, что продвигать по таким запросам будет не чем не легче, чем бы вы продвигали по высокочастотным.

Так что, при составлении СЯ сайта не стоит основываться только на частотности слов, необходимо ещё определить, насколько тяжело будет конкурировать по данному запросу.

Поэтому введём еще 3 группы запросов:

Высоко конкурентные(ВК);

Средне конкурентные (СК);

Низко конкурентные (НК);

Многие считают ВК высоко конкурентными запросами, СК – средне конкурентными, а НК – низко конкурентными. Однако не всегда так бывает. Сейчас во многих тематиках НЧ запросы стали настолько востребованы, что лучше не стоит пытаться пробиться по ним в ТОП. Иногда по средне частотникам выйти в топ проще (но это тоже редкость). Иногда нужно принимать во внимание слова которые люди часто пишут с ошибками (например: Volkswagen его могу написать Volcwagen или Volswagen) или такие слова, которые человек набирает забыв сменить раскладку клавиатуры – «cjplfnm uba fybvfwb» вместо «создать гиф анимацию». На таких ошибках в словах тоже можно неплохо продвинуть сайт!

И еще три не мало важных понятия:

Первичные запросы – запросы, характеризующие ресурс «в общем», и являющиеся наиболее общими в тематике сайта. Например, первичными запросами для моего сайта являются: создание сайта, раскрутка сайта, продвижение сайта, заработок на сайте и т.д.

Основные – запросы входящие в список семантического ядра, те, по которым целесообразно продвижение. Для моего блога: как создать сайт, как раскрутить сайт, заработок на сайте и т.д.

Вспомогательные (ассоциативные) – запросы, которые также набирались людьми вводящими основные запросы. Они обычно схожи с основными запросами. Например, для запроса СЕМАНТИЧЕСКОЕ ЯДРО ассоциативными будут внутренняя оптимизация, продвижение сайта, сео.

Основную теорию я рассказал, теперь можно переходить к основам составлению семантического ядра :

1.Если вы составляете СЯ для своего сайта, то для начала сядьте и подумайте о чём Ваш сайт, по каким запросам его сможет найти человек, постарайтесь придумать как можно больше ключивых слов (предложений) под Вашу тематику и запишите их в текстовый документ. Например, если вы собрались сделать сайт о различных напитках, коктейлях и т.п., немного подумав можно выписать примерно такие слова: безалкогольные напитки, рецепты коктейлей, приготовление коктейлей, напитки из фруктов …, и т.д.

А в случае если вы делаете это для какого ни будь клиента, то выясняем у клиента список слов, по которым он хочет продвигать свой сайт.

2. Анализируем сайты конкурентов из топ 10. (смотрим по каким запросам продвигаются они, и получают большую часть трафика)

3. Используем прайс-лист клиента (наименование товаров, услуг и т.п.)

4. Стараемся подобрать синонимы ключевых слов (жесткий диск - винчестер - HDD)

5. Сбор ключевых слов, которые подходят для вашего личного блога, интернет — ресурса или бизнеса. Здесь можно использовать статистику поисковых запросов wordstat, а лучше пользоваться специальным ПО, таким как Key Collector.

6. Подсчет трафика по выбранным поисковым запросам. Для этого тоже можно использовать кей коллектор или ссылочными агрегаторами: seopult или webeffector.

7. Удаление запросов-пустышек. Это такие поисковые запросы, у которых значения показов сильно завышено или вообще накручено. Посетителей с запросов-пустышек Вы не дождётесь.

8. Удаление ключевых слов с очень высоким бюджетом на продвижение. Узнать примерный бюджет можно опять же: seopult-ом или webeffector-ом. Также можно отсеять высоко конкурентные запросы.

Потом распределяем их по сайту.

Общая схема составления СЯ выглядит примерно следующим образом:

В итоге мы получим список ключевых слов для нашего СЯ сайта. Вот в принципе и вся схема. Она не такая уж сложная, но достаточно трудоемкая и на нее уходит довольно много времени. Но как я писал выше – это основа сайта, про которую стоит обращать пристальное внимание.

Ошибки которые обычно допускают при составлении СЯ:

При подборе ключевых слов, постарайтесь, чтобы у вас не возникало ниже перечисленных проблем:

СЯ не должно состоять из общих фраз, которые плохо характеризуют Ваш сайт или наоборот – слишком узких. Например, если посетитель хочет узнать про создание вертикального выпадающего меню на wordpress, то он наберет «создание вертикального выпадающего меню на wordpress», а не «создание сайта», «создание меню сайта», «web сайт» и т.д. В общем, вы должны охватывать более конкретные запросы. И напротив, слишком узкие запросы не дадут вам достаточного количества посетителей. Постарайтесь найти золотую середину.

Если у Вас мало текста, не стоит ставить на него много ключевиков. Например, данная статья заточена под 3 ключа! Но и объем текста у нее довольно таки солидный более 6 тысяч символов. В идеале должно быть 1 ключ на 1 статью. Но вы можете использовать следующее правило: один — два ключа на 2 тыс. символов статьи.

При создании СЯ сайта не учтены слова с ошибками, которые пользователем случайно допускают при наборе. О них я говорил выше.

Ну теории я думаю вам достаточно, и в следующей статье мы поговорим о !

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее «курите» в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах SE Ranking - лучший сервис мониторинга позиций для новичков и профессионалов в SEO Сбор полного семантического ядра в Топвизоре, многообразие способов подбора ключевых слов и их группировка по страницам Практика сбора семантического ядра под SEO от профессионала - как это происходит в текущих реалиях 2018 Оптимизация поведенческих факторов без их накрутки SEO PowerSuite - программы для внутренней (WebSite Auditor, Rank Tracker) и внешней (SEO SpyGlass, LinkAssistant) оптимизации сайта Подбор ключевых слов в Яндекс Вордстате - анализ статистики вручную и с помощью программ Slovoeb или Key Collector
Serpstat - обзор инструментов "Мониторинг позиций", "Кластеризация" и "Текстовая аналитика"

Быстрая навигация по этой странице:

Как и практически все другие вебмастеры, я составляю семантическое ядро с помощью программы KeyCollector — это безусловно лучшая программа для составления семантического ядра. Как ей пользоваться — это тема для отдельной статьи, хотя и в Интернете полно информации на этот счет — рекомендую, к примеру, мануал от Дмитрия Сидаша (sidash.ru).

Поскольку поставлен вопрос о примере составления ядра — привожу пример.

Список ключей

Предположим, у нас сайт посвящен британским кошкам. Вбиваю в «Список фраз» словосочетание «британская кошка» и нажимаю на кнопку «Парсить».

Получаю длинный список фраз, который будет начинаться со следующих фраз (приведена фраза и частнотность):

Британские кошки 75553 британские кошки фото 12421 британская вислоухая кошка 7273 питомник британских кошек 5545 кошки британской породы 4763 британская короткошерстная кошка 3571 окрасы британских кошек 3474 британские кошки цена 2461 кошка голубая британская 2302 британская вислоухая кошка фото 2224 вязка британских кошек 1888 британские кошки характер 1394 куплю британскую кошку 1179 британские кошки купить 1179 длинношерстная британская кошка 1083 беременность британской кошки 974 кошка британская шиншилла 969 кошки британской породы фото 953 питомник британских кошек москва 886 окрас британских кошек фото 882 британские кошки уход 855 британская короткошерстная кошка фото 840 шотландские и британские кошки 763 имена британских кошек 762 кошка британская голубая фото 723 фото британской голубой кошки 723 британская кошка черная 699 чем кормить британских кошек 678

Сам список намного больше, я только привел его начало.

Группировка ключей

Исходя из этого списка, у меня на сайте будут статьи про разновидности кошек (вислоухая, голубая, короткошерстная, длинношерстная), будет статья про беременность этих животных, про то, чем их кормить, про имена и так далее по списку.

Под каждую статью берется один основной такой запрос (=тема статьи). Впрочем, только одним запросом статья не исчерпывается — в нее также добавляются другие подходящие по смыслу запросы, а также разные вариации и словоформы основного запроса, которые можно найти в Кей Коллекторе ниже по списку.

Например, со словом «вислоухая» имеются следующие ключи:

Британская вислоухая кошка 7273 британская вислоухая кошка фото 2224 британская вислоухая кошка цена 513 порода кошек британская вислоухая 418 британская голубая вислоухая кошка 224 шотландские вислоухие и британские кошки 190 кошки британской породы вислоухие фото 169 британская вислоухая кошка фото цена 160 британская вислоухая кошка купить 156 британская вислоухая голубая кошка фото 129 британские вислоухие кошки характер 112 британская вислоухая кошка уход 112 вязка британских вислоухих кошек 98 британская короткошерстная вислоухая кошка 83 окрас британских вислоухих кошек 79

Чтобы не было переспама (а переспам может быть и по совокупности использования слишком большого количества ключей в тексте, в заголовке, в и т.д.), я бы не стал брать их все с включением основного запроса, но отдельные слова из них имеет смысл употребить в статье (фото, купить, характер, уход и т.д.) для того, чтобы статья лучше ранжировалась по большому количеству низко-частотных запросов.

Таким образом, у нас под статью про вислоухих кошек сформируется группа ключевых слов, которые мы употребим в статье. Точно также сформируются и группы ключевиков под другие статьи — вот и ответ на вопрос о том, как создать семантическое ядро сайта.

Частотность и конкуренция

Еще есть немаловажный момент, связанный с точной частотностью и конкуренцией — их обязательно нужно собрать в Key Collector. Для этого нужно выделить все запросы галочками и на вкладке «Частотности Yandex.Wordstat» нажать кнопку «Собрать частотности «!» — будет показана точная частнотность каждой фразы (т.е. именно с таким порядком слов и в таком падеже), это намного более точный показатель, чем общая частотность.

Для проверки конкуренции в том же Key Collector нужно нажать кнопку «Получить данные для ПС Яндекс» (или для Google), далее нажать «Рассчитать KEI по имеющимся данным». В результате программа соберет, сколько главных страниц по данному запросу находится в ТОП-10 (чем больше — тем сложнее туда пробиться) и сколько страниц в ТОП-10 содержат такой title (аналогично, чем больше — тем сложнее пробиться в топ).

Дальше нужно действовать исходя из того, какая у нас стратегия. Если мы хотим создать всеобъемлющий сайт про кошек, то нам не так важна точная частотность и конкуренция. Если же нам нужно только опубликовать несколько статей — то берем запросы, у которых самая высокая частотность и при этом самая низкая конкуренция, и на их основании пишем статьи.

Учитывая постоянную борьбу поисковых систем с различными накрутками ссылочных факторов, правильная структура сайта всё больше выходит на первый план при проведении поисковой оптимизации сайта.

Один из основных ключей для грамотной проработки структуры сайта — является максимально детальная проработка семантического ядра.

На данный момент, существует достаточно большое количество общих инструкций как делать семантическое ядро, поэтому в данном материале, мы постарались дать больше деталей, как именно его делать и как это делать с минимальными затратами времени.

Мы подготовили руководство, которое отвечает пошагово на вопрос, как создать семантическое ядро сайта. С конкретными примерами и инструкциями. Применив которые, вы сможете самостоятельно создавать семантические ядра для продвигаемых проектов.

Поскольку данный пост достаточно практический, то очень много различной работы будет выполнено через Key Collector , так как он довольно много экономит времени при работе с семантическим ядром.

1. Формирование генерирующих фраз для сбора

Расширяем фразы для парсинга одной группы

Для каждой группы запросов очень желательно сразу расширить синонимами и другими формулировками.

Например, возьмем запрос “купальники для плавания” и получим еще различные переформулировки с помощью следующих сервисов.

Wordstat.Yandex — правая колонка

В итоге для заданной изначально фразы мы еще можем получить по 1-5 других различных пере формулировок по которым дальше необходимо будет собирать запросы в рамках одной группы запросов.

2. Сбор поисковых запросов из различных источников

После того как мы определили все фразы в рамках одной группы переходим к сбору данных из различных источников.

Оптимальный набор источников парсинга для получение максимально качественных данных на выходе для рунета это:

● Wordstat.Yandex — левая колонка

● Поисковые подсказки Yandex + Google (с перебором по окончаний и подстановки букв перед заданной фразой)

Подсказка : если вы не используете при своей работе прокси, то для того чтобы ваш IP не банился поисковыми системами, то желательно использовать такие задержки между запросами:

● Кроме этого, также желательно в ручном режиме импортировать данные из база данных Prodvigator’а.

Для буржунета используем тоже самое, кроме данных из Wordstat.Yandex и данных по поисковым подсказкам ПС Yandex:

● Поисковые подсказки Google (с перебором по окончаний и подстановки букв перед заданной фразой)

● SEMrush — соответствующая региональная база

● аналогично используем импорт из база данных Prodvigator’а.

Кроме этого если ваш сайт уже собирает поисковый трафик, то для общего анализа поисковых запросов в вашей теме желательно выгрузить и все фразы из Yandex.Metrika и Google Analytics:

И уже для конкретного анализа нужной группы запросов можно с помощью фильтров и регулярных выражений вычленить те запросы, которые нужны для анализа конкретной группы запросов.

3. Чистка запросов

После того как все запросы собраны нужно провести предварительную чистку полученного семантического ядра.

Чистка с готовыми списками стоп слов

Для этого желательно сразу воспользоваться готовыми списками стоп слов как общими, так и специальными по вашей тематики.

Например, для коммерческой тематики такими фразами будут:

● бесплатно, скачать, …

● рефераты, википедия, вики, …

● б/у, старые, …

● работа, профессия, вакансии, …

● сонник, сон, …

● и другие такого плана.

Кроме этого, сразу чистим от всех городов России, Украины, Белоруссии, … .

После того как мы загрузили весь список своих стоп слов, то выбираем опцию тип поиска вхождений “независимый от словоформы стоп-слова” и нажимаем “Отметить фразы в таблице”:

Таким образом мы удаляем очевидные фразы с минус словами.

После того как мы прочистили от очевидных стоп слов, дальше уже необходимо просмотреть семантическое ядро в ручном режиме.

1. Один из быстрых способов это: когда мы встречаем фразу с очевидными не подходящими для нас словами, например, бренд который мы не продаем, то мы

● напротив такой фразы нажимаем слева на указанную иконку,

● выбираем стоп слова,

● выбираем список (желательно создать отдельный список и назвать его соответственно),

● сразу, по необходимости, можно выделить все фразы которые содержат указанные стоп слова,

● добавить в список стоп-слов

2. Второй способ быстро выявить стоп-слова это воспользоваться функционалом “Анализа групп”, когда мы группируем фразы по словам которые входят в эти фразы:

В идеале, чтобы повторно не возвращаться к определенным стоп словам желательно все отмеченные слова занести в определенный список стоп слов.

в итоге, мы получим список слов для отправки в список стоп слов:

Но, желательно, данный список также быстро посмотреть, чтобы туда не попали не однозначные стоп слова.

Таким образом можно быстро пройтись по основным стоп словам и удалить фразы, которые содержат данные стоп слова.

Чистка неявных дублей

● сортируем по убыванию частоты для этой колонки

В итоге оставляем только самые частотные фразы в таких подгрупках, а всё другое удаляем.

Чистка фраз, которые не несут особой смысловой нагрузки

Кроме вышеперечисленной чистки слов, также можно удалить фразы которые не несут особой смысловой нагрузки и не особо повлияют на поиск групп фраз под создание отдельных посадочных страниц.

Например, для интернет магазинов можно удалить такие фразы, которые содержат следующие ключевые слова:

● купить,

● продажа,

● интернет магазин, … .

Для этого мы создаем еще один список в Стоп-словах и заносим данные слова в этот список, отмечаем и удаляем со списка.

4. Группировка запросов

После того как мы вычистили от самых очевидных мусорных и неподходящих фраз, дальше можно уже приступать к группировке запросов.

Это можно делать в ручном режиме, а можно воспользоваться некой помощью от поисковых систем.

Собираем выдачу по нужной поисковой системе

В теории лучше собирать по нужному региону в ПС Google

● Google достаточно хорошо понимает семантику

● его легче собирать, не так банит различные прокси

Нюансы: даже для украинских проектов лучше собирать выдачу по google.ru, так как там сайты лучше выстроены по структуре, поэтому, проработку по посадочным страницам получим значительно лучше.

Сбор таких данных можно производить

● так и с помощью других инструментов.

Если у вас достаточно много фраз, то для сбора данных выдаче поисковых систем тут уже явно понадобятся прокси. Оптимально по скорости сбора и работы показывает связка A-Parser’a + прокси (как платные, так и бесплатные).

После того как мы собрали данные выдачи, то теперь производим группировку запросов. Если вы собрали данные в Key Collector, то дальше можете произвести группировку фраз прямо в нём:

Нам не очень нравиться как это делает KC поэтому у нас свои наработки, которые позволяют получить значительно лучше результаты.

В итоге, с помощью такой группировки нам удается довольно быстро объединить запросы с разной формулировкой, но с одной проблемой пользователей:

В итоге, это приводит к хорошей экономии времени финальной обработки семантического ядра.

Если у вас нет возможности самому собирать выдачу с помощи прокси, то можно воспользоваться различными сервисами:

Они помогут вам в быстрой группировке запросов.

После такой кластеризации на основе данных выдачи в любом случае нужно проводить дальнейший детальный анализ каждой группы и объединять похожие по смыслу.

Например, такие группы запросов в итоге нужно объединить на одну страницу сайта

Самое главное: каждая отдельная страница на сайте должна соответствовать одной потребности пользователей.

После такой обработки семантики на выходы мы должны получить максимально подробную структуру сайта:

● информационные запросы

Например, в случае с купальниками мы можем сделать вот такую структуру сайта:

которые будут содержать свои title, description, текст (за надобностью) и товары/услуги/контент.

В итоге, после того как мы уже детально разгрупировали все запросы, можно уже приступить к детальному сбору всех ключевых запросов в рамках одной группы.

Для быстрого сбора фраз в Key Collector мы:

● отбираем основогенерирующие фразы для каждой группы

● заходим, например, в парсинг подсказок

● выбираем распределить по группам

● выбираем из выпадающего списка “Скопировать фразы из” Yandex.Wordstat

● нажимаем Копировать

● и начинаем сбор данных из другого уже источника, но по тем же распределенным фразам в рамках групп.

В итоге

Давайте рассмотрим теперь цифры.

Для темы “купальники” изначально из всех источников нами было собрано больше 100 000 различных запросов.

На этапе чистки запросов нам удалось сократить кол-во фраз на 40%.

После этого мы собрали частотность по Google AdWords и для анализа оставили только те которые были с частотностью больше 0.

После этого мы сделали группировку запросов на основе выдачи ПС Google и нам удалось получить около 500 групп запросов в рамках которых мы уже проводили детальный анализ.

Заключение

Надеемся, что данное руководство поможет вам значительно быстрее и качественнее собирать семантические ядра для своих сайтов и пошаговое ответит на вопрос как собрать семантическое ядро для сайта.

Удачного сбора семантических ядер, и в результате качественного трафика на ваши сайты. Если у вас остались вопросы будем рады на них ответить в комментариях.

(78 оценок, средняя: 4,90 из 5)

Семантическое ядро (СЯ) — это набор ключевых слов, запросов, поисковых фраз, по которым нужно продвигать ваш сайт, чтобы на него приходили целевые посетители с поисковых систем. Составление семантического ядра является вторым этапом, после настройки вашей площадки на хостинге. Именно от грамотно составленного СЯ зависит то, сколько качественного трафика будет на вашем сайте.

Необходимость составления семантического ядра заключается в нескольких моментах.

Во-первых, оно дает возможность разработать более эффективную стратегию поисковой раскрутки, так как у web-мастера, который составит семантическое ядро для своего проекта, будет четкое представление о том, какие методы по поисковому продвижению ему необходимо будет применять к его сайту, определиться со стоимость поискового продвижения, которая сильно зависит от уровня конкуренции ключевых фраз в выдаче поисковых сервисов.

Во-вторых, семантическое ядро дает возможность наполнять ресурс более качественным контентом, то есть контентом, который будет хорошо оптимизирован под ключевые запросы. К примеру, если вы хотите сделать сайт о натяжных потолках, то и семантическое ядро запросов стоит подбирать «отталкиваясь» от этого ключевика.

Кроме того составление семантического ядра подразумевает определение частотности использования ключевых слов пользователями поисковых систем, что дает возможность определить поисковую систему, в которой необходимо уделять большее внимание продвижению того или иного запроса.

Также необходимо отметить некоторые правила составления семантического ядра, которые необходимо соблюдать, чтобы иметь возможность составить качественное и эффективное СЯ.

Так, в состав семантического ядра необходимо включить все возможные ключевые запросы, по которым можно продвигать сайт, кроме тех запросов, которые не смогут принести ресурсу хотя бы малый объем трафика. Поэтому семантическое ядро должно включать в себя высокочастотные ключевые слова (ВЧ), средне (СЧ) и низкочастотные (НЧ) запросы.

Условно эти запросы можно разбить так: НЧ — до 1 000 запросов в месяц, СЧ — от 1 000 до 10 000 запросов в месяц, ВЧ — более 10 000 запросов в месяц. Нужно учитывать и тот факт, что в разных тематиках эти цифры могут существенно различаться (в некоторых особо узких тематиках максимальная частотность запросов не превышает 100 запросов в месяц).

Низкочастотные запросы просто таки необходимо вносить в структуру семантического ядра, потому что любой молодой ресурс имеет возможность продвигаться в поисковых системах, прежде всего, по ним (причем без какого-либо внешнего продвижения сайта — написали статью под НЧ запрос, поисковик ее проиндексировал, и ваш сайт уже через несколько недель может быть в ТОПе).

Также необходимо соблюдать правило структурирования семантического ядра, которое заключается в том, что все ключевые слова сайта необходимо объединять в группы не только по их частотности, но и степени схожести. Это даст возможность более качественно оптимизировать контент, например, оптимизировать некоторые тексты под несколько запросов.

Также в структуру семантического ядра многих сайтов целесообразно включать такие виды запросов, как синонимические запросы, сленговые запросы, слова-сокращения и так далее.

Вот наглядный пример того, как можно увеличить посещаемость сайта одним только написанием оптимизированных статей, которые включают в себя СЧ и большое количество НЧ запросов:

1. Сайт мужской тематики. Хоть он и очень редко обновляется (за все время, было опубликовано чуть больше 25 статей), но благодаря хорошо подобранным запросам он набирает все больше и больше посещаемости. На сайт вообще не производилась закупка ссылок!

На данный момент рост посещаемости приостановился, так как было опубликовано всего 3 статьи.

2. Сайт женской тематики. Первое время на нем публиковались не оптимизированные статьи. Летом было составлено семантическое ядро, которое состояло из запросов с очень низкой конкуренцией (как собирать подобные запросы, я расскажу ниже). Под эти запросы были написаны соответствующие статьи и приобретено несколько ссылок на тематических ресурсах. Результаты подобного продвижения вы можете видеть ниже:

3. Сайт медицинской тематики. Была выбрана медицинская ниша с более-менее адекватной конкуренцией и опубликовано более 200 статей под вкусные запросы с неплохими бидами (в интернете термином «бид» обозначают стоимость одного перехода пользователя по ссылке рекламного объявления). Ссылки начал покупать в феврале, когда сайту было 1.5 месяца. Пока что в основном трафик идет с Google, Яндекс еще не учел покупных ссылок.

Как видите, подбор семантического ядра играет важнейшую роль в продвижении сайта. Даже при небольшом бюджете или же вообще его отсутствии можно создать трафиковый сайт, который будет приносить вам прибыль.

Подбор поисковых запросов

Подобрать запросы для семантического ядра можно следующими способами:

С помощью бесплатных сервисов статистики поисковых запросов Google, Yandex или Рамблер

С помощью специального софта или онлайн сервиса (бесплатного или платного).

Проанализировав сайты конкурентов.

Подбор поисковых запросов с помощью сервисов статистики поисковых запросов Google, Yandex или Рамблер

Сразу хочу вас предупредить, что эти сервисы показывают не совсем точную информацию о количестве поисковых запросов в месяц.

К примеру, вы по запросу «пластиковые окна» просмотрите 4 страницы поисковой выдачи, то сервис статистики покажет вам, что данный запрос искали не 1, а 4 раза, так как за показ считается не только первая страница выдачи, а и все последующие, которые просмотрел пользователь. Поэтому, на практике, реальные цифры будут несколько ниже, чем те, что показывают различные сервисы.

Чтобы определить точное количество переходов, лучше всего, конечно же, будет подсмотреть статистику посещаемости конкурентов, которые находятся в ТОП-10 (liveinternet или мейл.ру, если она открыта). Таким образом, можно будет понять, сколько трафика принесет интересующий вас запрос.

Можно также приблизительно посчитать, сколько посетителей принесет вам данный запрос, в зависимости от позиции, которую будет занимать сайт в поисковой выдаче. Вот как будет меняться CTR (коэф. кликабельности) вашего сайта на различных позициях в ТОПе:

Давайте для примера рассмотрим запрос «!ремонт!квартиры», регион «Москва и область»:

В таком случае, если ваш сайт будет занимать 5-ю позицию в выдаче, этот запрос принесет вам около 75 посетителей в месяц (6%) , 4-е место (8%) — 100 пос./в мес., 3-е место (11%) — 135 пос./в мес., 2-е место (18%) — 223 пос./в мес. и 1-я позиция (28%) — 350 посетителей в месяц.

На CTR можно также повлиять с помощью яркого сниппета, тем самым увеличив посещаемость по данному запросу. Как улучшить сниппет и что это такое можете прочитать .

Статистика поисковых запросов Google

Раньше статистикой поисковых запросов Гугла я пользовался чаще, так как в первую очередь продвигался именно под этот поисковик. Тогда было достаточно оптимизировать статью, закупить на неё как можно больше разнообразных PR-стых ссылок (очень важно, чтобы ссылки эти были естественными и по ссылкам были переходы посетителей) и вуаля — ты в ТОПе!

Сейчас же в Google ситуация такова, что в нем продвигаться не намного легче, чем в Яндексе. Поэтому приходится уделять намного больше внимания как написанию и оформлению(!) статей, так и покупке ссылок для сайта.

Хочу также обратить Ваше внимание на следующий факт:

В России Яндекс пользуется наибольшей популярностью (Яндекс — 57.7%, Google — 30.6%, Mail.ru — 8.9%, Rambler -1.5%, Nigma/Ask.com — 0.4%), поэтому если Вы продвигаетесь в этой стране, Вам в первую очередь стоит ориентироваться на Yandex.

В Украине же ситуация выглядит по другому: Google — 70-80%, Яндекс — 20-25%. Поэтому украинские вебмастера должны ориентироваться на продвижение в Гугле.

Чтобы воспользоваться статистикой запросов Google, переходим на

Давайте рассмотрим пример подбора ключевых слов для какого-нибудь кулинарного сайта.

Первым делом, нужно ввести основной запрос, на основании которого будут подобраны варианты ключевых слов для будущего семантического ядра сайта. Я ввёл запрос «как приготовить».

Следующий шаг — выбираем тип соответствия. Всего существует 3 типа соответствия: широкое, фразовое и точное. Я советую выбрать точное, так как для этого вариант будет показана наиболее точная информация по запросу. И сейчас объясню почему.

Широкое соответствие означает, что будет показана статистика показов по всем словам, которые есть в этом запросе. К примеру, для запроса «пластиковые окна» будет показана для всех слов, в которые входит слово «пластиковые» и слово «окна» (пластиковый, окно, купить окна, купить жалюзи для окон, окна пвх цены). Одним словом, будет много «мусора».

Фразовое соответствие означает, что будет показана статистика для слов именно в том порядке, в котором они указаны. Вместе с указанным словосочетанием слов, в запросе могут присутствовать и другие слова. Для запроса «пластиковые окна» будут учтены слова «недорогие пластиковые окна», «пластиковые окна Москва», «сколько стоят пластиковые окна» и т. д.

Нас больше всего интересует показатель «Кол-во запросов в месяц (целевые регионы)» и «Приблизительная цена за клик» (если собираемся размещать на страницах сайта рекламу Adsense).

Статистика поисковых запросов Яндекс

Статистикой поисковых запросов я пользуюсь практически каждый день, так как она представлена в более удобном виде, чем её аналог в Гугле.

Единственный минус Вордстата в том, что вы не найдете в нём типы соответствия, не сохраните к себе на компьютер подобранные запросы, не сможете узнать цену клика и т. д.

Для получения более точных результатов, нужно пользоваться специальными операторами, с помощью которых можно уточнить интересующие нас запросы. Список операторов вы найдете на этой .

Если в Вордстате просто ввести запрос «как приготовить», получим следующую статистику:

Это равноценно, если бы мы выбрали в Adwords «широкое соответствие».

Если ввести этот же запрос, но уже в кавычках, получим более точную статистику (аналог фразового соответствия в Adwords):

Ну и чтобы получить статистику только для заданного запроса, нужно воспользоваться оператором «!»: «!как!приготовить»

Чтобы получить еще более точные результаты, нужно указать регион, под который продвигается сайт:

Также в верхней панели Wordstat есть инструменты, с помощью которых можно посмотреть статистику заданного запроса по регионам, по месяцам и по неделям. С помощью последних, кстати, очень удобно анализировать статистику сезонных запросов.

К примеру, проанализировав запрос «как приготовить», можно узнать, что он пользуется наибольшей популярностью в декабрьские месяца (оно то и не удивительно — все готовятся к Новому Году):

Статистика поисковых запросов Rambler

Сразу хочу предупредить Вас, что статистика запросов от Рамблера с каждым годом все больше и больше теряет свою актуальность (в первую очередь, это связано с низкой популярностью этой поисковой системы). Поэтому Вам, скорее всего, даже не придется работать с этим .

В Adstat не нужно вводить какие-либо операторы — он сразу выдает частотность запроса в том падеже, в котором его ввели. Также в нём есть отдельные статистики частотностей запросов для первой страницы результатов поиска и для всех страниц выдачи, включая первую.

Подбор поисковых запросов с помощью специального софта или онлайн сервисов

Rookee может не только продвигать ваши запросы, но и еще способен помочь в создании семантического ядра сайта.

С помощью Rookee вы запросто подберете семантическое ядро для своего сайта, сможете приблизительно спрогнозировать количество посещений по выбранным запросам и стоимость их продвижения в топ.

Подбор запросов при помощи бесплатной программы Словоёб

Если вы собираетесь составлять СЯ (семантическое ядро) на более профессиональном уровне, или же вам потребуется статистика запросов по Google.Adwords, Rambler.Adstat, социальной сети Вконтакте, различных ссылочных агрегаторов и др., советую сразу приобрести Кей Коллектор.

Если же вы хотите составить большое семантическое ядро, но при этом не желаете тратить деньги на покупку платных программ, наилучшим вариантом в этом случае будет программа Словоёб (информацию о программе читайте здесь). Она является «младшим братом» Кей Коллектора и позволяет собрать СЯ, основываясь на статистике запросов по Yandex.Wordstat.

Установка программы СловоЁБ.

Скачайте архив с программой по .

Убедитесь, что архив является разблокированным. Для этого в свойствах файла (в контекстном меню выберите пункт «Свойства») нажмите кнопку «Разблокировать» / «Unblock», если такая присутствует.

Разархивируйте содержимое архива.

Запустите исполняемый файл Slovoeb.exe

Создаем новый проект:

Выбираем нужный регион (кнопка Регионы Yandex.Wordstat):

Сохраняем изменения.

Нажимаем на кнопку «Левая колонка Yandex.Wordstat»

При необходимости задаем «Стоп-слова» (слова, которые не должны включаться в наше семантическое ядро). Стоп словами могут быть такие слова: «бесплатно» (если вы продаете что-то на своем сайте), «форум», «википедия» (если у вас свой информационный сайт, на котором нет форума), «порно», «секс» (ну тут все понятно) и т. д.

Теперь нужно задать первоначальный список слов, на основе которых будет составляться СЯ. Давайте составим ядро для фирмы, которая занимается установкой натяжных потолков (в Москве).

При подборе любого семантического ядра, первым делом, нужно сделать классификацию анализируемой тематики.

В нашем случае, натяжные потолки можно классифицировать по следующим критериям (подобные удобные интеллект-карты я делаю в программе MindJet MindManager):

Полезный совет: очень многие вебмастера почему-то забывают включать в семантическое ядро названия небольших населенных пунктов.

В нашем случае, в СЯ можно было бы включить названия интересующих нас районов Москвы и городов Подмосковья. Даже если по этим ключевикам («натяжные потолки Голицыно», «натяжные потолки Апрелевка» и т. д.) очень мало запросов в месяц, под них все равно надо написать хотя бы одну небольшую статью, в title которой входил бы нужный ключ. Подобные статьи даже продвигать не придется, ведь чаще всего, по данным запросам будет очень низкая конкуренция.

10-20 таких статей, и у вашего сайта стабильно будет несколько дополнительных заказов из этих городов.

Нажимаем кнопку «Левая колонка Yandex.Wordstat» и вводим нужные запросы:

Нажимаем на кнопку «Парсить». В итоге получаем вот такой список запросов:

Отсеиваем все ненужные запросы, которые не подходят по тематике сайта (к примеру, «натяжные потолки своими руками» — этот запрос хоть и принесет определенный трафик, но он не принесет нам клиентов, которые будут заказывать установку потолков). Выделяем эти запросы и удаляем, чтобы в будущем не тратить время на их анализ.

Теперь нужно уточнить частотность по каждому из ключей. Нажимаем на кнопку «Собрать частотности «!»»:

Теперь мы имеем следующую информацию: запрос, его общую и точную частотность.

Теперь, на основе полученных частотностей, нужно еще раз пересмотреть все запросы и удалить ненужные.

Ненужными запросами являются запросы, у которых:

Точная частотность («!») очень низкая (в выбранною мною тематике, в принципе, нужно дорожить каждым посетителем, поэтому я буду отсеивать запросы, у которых месячная частотность меньше 10). Если же была не строительная тематика, а, скажем, какая-нибудь обще тематическая, то можно спокойно отсеивать запросы, у которых частотность ниже 50-100 в месяц.

Соотношение общей и точной частотности превышает очень велико. К примеру, запрос «куплю натяжные потолки» (1335/5) можно сразу удалять, потому что он является «запросом-пустышкой».

Запросы с очень большой конкуренцией тоже нужно удалить, по ним будет тяжело продвинуться (особенно, если у вас молодой сайт и небольшой бюджет на продвижение). Таким запросом, в нашем случае, является «натяжные потолки». К тому же, чаще всего, более эффективными оказываются те запросы, которые состоят из 3,4 и больше слов — они приносят больше целевых посетителей.

Кроме Словоёба есть еще одна прекрасная программа для удобного автоматического сбора, анализа и обработки статистики показов ключевых слов Яндекс.Директа — .

Новостные поисковые запросы

СЯ в таком случае создается не так, как для обычного контентного проекта. Для новостного сайта, первым делом, нужно выделить рубрики, под которые будут публиковаться новости:

После этого, нужно подобрать запросы для каждого из разделов. Новостные запросы бывают ожидаемыми и не ожидаемыми.

У первого типа запросов информационный повод предсказуем. Чаще всего можно даже точно определить дату, когда будет всплеск популярности того или иного запроса. Это может быть какой-либо праздник (Новый Год, 9 мая, 8 марта, 23 февраля, День Независимости, День Конституции, церковные праздники), событие (музыкальные события, концерты, кинопремьеры, спортивные соревнования, выборы президента).

Заранее подготовить такие запросы и определить приблизительный объем трафика в этом случае можно с помощью

Также не забудьте посмотреть статистику посещаемости своего сайта (если вы свое время уже обозревали какое-то событие) и сайтов конкурентов (если их статистика открыта).

Второй тип запросов менее предсказуем. К ним относят экстренные новости: катаклизмы, катастрофы, какие-нибудь события в семьях известных людей (рождение/свадьба/смерть), выход не анонсированного программного продукта и т. д. В этом случае, нужно просто быть одним из первых, кто опубликует эту новость.

Чтобы это сделать, не достаточно просто мониторить новости в Google и Яндексе — в этом случае ваш сайт будет просто одним из тех, кто просто перепечатал это событие. Более эффективный метод, который позволяет сорвать большой куш — это следить за иностранными сайтами. Опубликовав эту новость одним из первых в Рунете, вы, вдобавок к тоннам трафика, который положит сервера на вашем хостинге, получите огромное количество обратных ссылок на ваш сайт.

Запросы тематики «кино» также можно отнести к первому типу (ожидаемые запросы). Ведь в этом случае заранее известна дата премьеры фильма, приблизительно известен сценарий фильма, его актеры. Поэтому, нужно заранее подготовить страницу, на которой появится фильм, добавить туда на время его трейлер. Можно также публиковать на сайте новости о фильме, его актерах. Эта тактика поможет вам заранее занять ТОПовые позиции в поисковиках и приведет посетителей на сайт еще до его премьеры.

Хотите узнать, какие запросы сейчас в тренде или же спрогнозировать актуальность вашей тематики в будущем? Тогда воспользуйтесь сервисами, которые предоставляют информацию о трендах . Он позволяет производить множество операций анализа: сравнение трендов поиска для нескольких запросов, анализ географических регионов запроса, просмотра наиболее горячих трендов на данный момент, просмотр релевантных актуальных запросов, экспорт результатов в CSV формат, возможность подписаться на RSS фид для горячих трендов и т. д.

Как ускорить сбор семантического ядра?

Думаю, что у каждого, кто сталкивался со сбором семантического ядра, появлялась мысль: «Как же долго и нудно идет парсинг, надоело перебирать и группировать тысячи этих запросов!». Это нормально. У меня тоже такое бывает иногда. Особенно, когда приходится парсить и перебирать СЯ, которое состоит из нескольких десятков тысяч запросов.

Перед тем, как приступить к парсингу, настоятельно советую вам разбить все запросы на группы. К примеру, если у вас тематика сайта «Строительство дома», разбейте её на фундамент, стены, окна, двери, крышу, проводку, отопление и т. д. Вам просто потом будет намного легче перебирать и группировать запросы, когда они будут расположены в небольшой группе и связаны между собой определенной узкой тематикой. Если же вы просто будете парсить все в одну кучу, у вас получится нереально огромный список, на обработку которого уйдет не один день. А так, обрабатывая весь список СЯ небольшими шагами, вы не только более качественно проработаете все запросы, но и сможете параллельно заказывать у копирайтеров статьи для уже собранных ключей.

Процесс сбора семантического ядра у меня практически всегда начинается с автоматического парсинга запросов (для этого я использую Кей Коллектор). Вручную тоже можно собирать, но если мы работаем с большим количеством запросов, я не вижу смысла тратить свое драгоценное время на эту рутинную работу.

Если вы работаете с другими программами, то в них, скорее всего, будет доступна функция работы с прокси-серверами. Это позволяет ускорить процесс парсинга и обезопасить свой IP от бана поисковиков. Честно говоря, не очень приятно, когда нужно срочно выполнить заказ, а твой IP из-за частого обращения к сервису статистики Гугла/Яндекса банят на сутки. Вот в этом случае и приходят на помощь платные прокси-сервера.

Лично я в данный момент не использую их по одной простой причине — их постоянно банят, найти качественные рабочие прокси не так то и легко, да и лишний раз платить за них деньги у меня нет желания. Поэтому я нашел альтернативный способ сбора СЯ, который в несколько раз ускорил этот процесс.

В противном случае придется искать другие сайты для анализа.

В большинстве случаев, сайты закрывают эту статистику, поэтому можно воспользоваться статистикой точек входа.

В итоге, мы будем иметь статистику самых посещаемых страниц сайта. Переходим на них, выписываем основные запросы, под которые она оптимизировалась, и уже на их основе собираем СЯ.

Кстати, если у сайта открыта статистика «По поисковым фразам», можно облегчить себе работу, и собрать запросы при помощи Кей Коллектора (нужно только вписать адрес сайта и нажать на кнопку «Получить данные»):

Второй способ проанализировать сайт конкурента — проанализировав его сайт.

На некоторые ресурсах есть такой виджет «Самые популярные статьи» (или что-то в этом роде). Иногда самые популярные статьи выбираются на основе количества комментариев, иногда — на основе количества просмотров.

В любом случае, имея перед своими глазами список самых популярных статей, можно сообразить, под какие запросы писалась та или иная статья.

Третий способ — использовать инструменты . Он вообще то создавался для анализа трастовости сайтов, но, если честно, трастовость он считает очень плохо. А вот что он умеет хорошо делать — так это анализировать запросы сайтов конкурентов.

Вводим адрес любого сайта (даже с закрытой статистикой!) и нажимаем кнопку проверки траста. В самом низу страницы будет отображаться статистика видимости сайта по ключевикам:

Видимость сайта в поисковых системах (по ключевикам)

Единственный минус — эти запросы нельзя экспортировать, нужно все копировать вручную.

Четвертый способ — использование сервисов и .

С его помощью можно определить все запросы, по которым сайт занимает позиции в ТОП-100 в обеих поисковых системах. Есть возможность экспорта позиций и запросов в xls формат, но я так и не смог открыть этот файл ни на одном из компьютеров.

Ну и последний способ узнать ключевые слова конкурентов — с помощью

Давайте для примера проанализируем запрос «дом из бруса». Во вкладке «Анализ конкурентов» вводим этот запрос (если вы хотите проанализировать конкретный сайт, то нужно просто ввести его url в это поле).

В результате, получаем информацию о частотности запроса, кол-ве рекламодателей в каждой из поисковых систем (а если есть рекламодатели, то в этой нише есть деньги) и средней стоимости клика в Google и Яндексе:

Также можно посмотреть все объявления в Яндекс.Директе и Google Adwords:

А вот так выглядит ТОП каждой из ПС. Можно кликнуть на любой из доменов и посмотреть все запросы, по которым он находится в ТОПе и все его контекстные объявления:

Есть еще один способ проанализировать запросы конкурентов, о котором мало кто знает — с помощью украинского сервиса

Я бы назвал его «украинской версией Spywords», так как по функционалу они очень похожи. Единственное отличие — в базе находятся ключевые фразы, которые ищут украинские пользователи. Так что если вы работаете в UA-нете, этот сервис будет вам очень кстати!

Анализ конкуренции запросов

Итак, запросы собраны. Теперь нужно проанализировать конкуренцию по каждому из них, чтобы понять, насколько тяжело будет продвигать тот или иной ключевик.

Лично я, когда делаю новый сайт, в первую очередь стараюсь писать статьи под запросы, по которым низкая конкуренция. Это позволит за короткий срок и с минимальными вложениями вывести сайт на довольно таки хорошую посещаемость. По крайней мере, в таких тематиках как стройка, медицина можно за 2,5 месяца выйти на посещаемость в 500-1000 посетителей. Про женскую тематику вообще молчу.

Давайте посмотрим, как можно анализировать конкуренцию ручным и автоматическим способом.

Ручной способ анализа конкуренции

Вводим нужное ключевое слово в поиске и смотрим Т0П-10 (а если и нужно, Т0П-20) сайтов, которые находятся в поисковой выдаче.

Самые основные параметры, на которые нужно смотреть это:

Количество главных страниц в ТОПе (если вы продвигаете внутреннюю страницу сайта, а в ТОПе у конкурентов в основном находятся главные страницы, то, скорее всего, вы не сможете их обогнать);

Количество прямых вождений ключевого слова в Title страницы.

По таким запросам как «продвижение сайтов», «как похудеть», «как построить дом» нереально высокая конкуренция (много главных страниц в ТОПе с прямым вхождением ключевика в Title), поэтому по ним не стоит продвигаться. А вот если продвигаться по запросу «как построить дом из пеноблоков своими руками с подвалом», то у вас будет больше шансов попасть в ТОП. Поэтому еще раз акцентирую свое внимание на том, что нужно продвигаться по запросам, которые состоят из 3 и больше слов.

Также, если вы анализируете выдачу в Яндексе, можете обращать внимание на тИЦ сайтов (чем выше, тем тяжелее будет их обогнать, ведь высокий тИЦ чаще всего указывает на большую ссылочную массу сайта), находятся ли они в Яндекс Каталоге (сайты с Яндекс Каталога имеют больший траст), его возраст (возрастные сайты поисковики любят больше).

Если вы анализируете ТОП сайтов в Google, обращайте внимание на те же параметры, о которых я написал выше, только в этом случае вместо Яндекс Каталога будет каталог DMOZ, а вместо показателя тИЦ будет показатель PR (если в ТОПе страницы сайтов имеют PR от 3 до 10, обогнать их будет не легко).

Советую анализировать сайты с помощью плагина . Он показывает всю информацию о сайте конкурента:

Автоматический способ анализа конкуренции запросов

Если запросов много, то можно воспользоваться программами, которые в сотни раз быстрее сделают за вас всю работу. В этом случае можно воспользоваться Словоебом или же Кей Коллектором.

Раньше, анализируя конкурентов, я пользовался показателем «KEI» (показатель конкуренции). Эта функция есть в Кей Коллекторе и Словоёбе.

В Словоёбе показатель KEI просто показывает общее количество сайтов в выдаче по тому или иному запросу.

В этом плане Кей Коллектор имеет преимущество, так как в нем есть возможность самостоятельно задавать формулу, для расчета параметра KEI. Для этого переходим в Настройки программы – KEI:

В поле «Формула расчета KEI 1» вставляем:

(KEI_YandexMainPagesCount * KEI_YandexMainPagesCount * KEI_YandexMainPagesCount) + (KEI_YandexTitlesCount * KEI_YandexTitlesCount * KEI_YandexTitlesCount)

В поле «Формула расчета KEI 2» вставляем:

(KEI_GoogleMainPagesCount * KEI_GoogleMainPagesCount * KEI_GoogleMainPagesCount) + (KEI_GoogleTitlesCount * KEI_GoogleTitlesCount * KEI_GoogleTitlesCount)

Эта формула учитывает количество главных страниц в выдаче по заданному ключевому слову и количество страниц в ТОП-10, в которых данная ключевая фраза входит в тайтл страницы. Таким образом, можно получить более-менее объективные данные конкуренции по каждому запросу.

В этом случае, чем меньше KEI запроса, тем лучше. Самые лучшие ключевые слова будут с KEI=0 (если в них, конечно же, будет хоть какой-то трафик).

Нажимаем на кнопки сбора данных для Яндекса и Google:

Затем нажимаем на эту кнопку:

В столбце KEI 1 и KEI 2 появятся данные по KEI запросов по Яндексу и Google
соответственно. Отсортируем запросы по возрастанию столбца KEI 1:

Как видите, среди подобранных запросов есть такие, продвижение по которым не должно составить особых проблем. В менее конкурентных тематиках, чтобы вывести в ТОП-10 подобный запрос, достаточно просто написать хорошую оптимизированную статью. И при этом не нужно будет покупать внешние ссылки для её продвижения!

Как я уже сказал выше, показатель KEI я использовал раньше. Сейчас же, для оценки конкуренции, мне достаточно получить количество главных страниц в ТОПе и количество вхождений ключевого слова в Title страницы. В Кей Коллекторе есть подобная функция:

После этого я сортирую запросы по столбцу «Кол-во главных страниц в ПС Яндекс» и смотрю, чтобы по этому параметру было не более 2 главных страниц в ТОПе и как можно меньше вхождений в заголовках. После того, как под все эти запросы будет составлено СЯ, я уменьшаю параметры фильтра. Таким образом, первыми на сайте будут публиковаться статьи под НК запросы, а последними — под СК и ВК запросы.

После того, как собраны и сгруппированы все наиболее интересные запросы (о группировке я расскажу ниже), нажимаем на кнопку «Экспортировать данные» и сохраняем их в файл. В файл экспорта я обычно включаю следующие параметры: частотность по Яндексу с «!» в заданном регионе, количество главных страниц сайтов и кол-во вхождений ключевика в заголовки.

Совет: Кей Коллектор иногда не совсем правильно показывает кол-во вхождений запросов в заголовки. Поэтому желательно дополнительно вводить эти запросы в Яндексе и смотреть на выдачу вручную.

Оценить конкурентность поисковых запросов также можно при помощи бесплатной

Группировка запросов

После того, как все запросы подобраны, приходит время довольно таки скучной и монотонной работы по группировке запросов. Нужно отобрать похожие запросы, которые можно объединить в одну небольшую группу и продвигать в рамках одной страницы.

К примеру, если у вас в полученном списке есть такие запросы: «как научиться отжиматься», «как научиться отжиматься в домашних условиях», «научиться отжиматься девушке». Подобные запросы можно объединить в одну группу и написать под неё одну большую оптимизированную статью.

Чтобы ускорить процесс группировки, выполняйте парсинг ключевых слов частями (к примеру, если у вас сайт о фитнесе, то во время парсинга разбейте СЯ на группы, в которые будут входить запросы, связанные с шеей, руками, спиной, грудью, прессом, ногами и т. д.). Это значительно облегчит ваш труд!

Если полученные группы будут содержать небольшое количество запросов, то можно на этом и остановиться. А когда у вас в итоге все равно получается список на несколько десятков, а то и сотен запросов, то можно попробовать следующие способы.

Работа со стоп-словами

В Кей Колекторе есть возможность указать стоп-слова, которые могут быть использованы для пометки нежелательных ключевиков в полученной таблице запросов. Такие запросы обычно удаляются из семантического ядра.

Помимо удаления нежелательных запросов, эту функцию можно использовать и для поиска всех нужных словоформ по заданному ключу.

Указываем нужный ключ:

В таблице с запросами выделятся все словоформы указанного ключа:

Переносим их в новую вкладку и уже там вручную работаем со всеми запросами.

Фильтрация для поля «Фраза»

Найти все словоформы заданного ключевика можно при помощи настройки фильтрации для поля «Фраза».

Попробуем найти все запросы, в которые входит слово «брусья»:

В итоге получаем:

Инструмент «Анализ групп»

Это наиболее удобный инструмент для группировки фраз и дальнейшей их ручной фильтрации.

Переходим во вкладку «Данные» — «Анализ групп»:

И вот что отображается, если открыть любую из этих групп:

Отметив любую группу фраз в этом окне, вы одновременно отмечаете или снимаете отметку с фразы в основной таблице со всеми запросами.

В любом случае, без ручной работы вам не обойтись. Но, благодаря Кей Коллектору, часть работы (причем не малая!) уже сделана, и это хоть немного, но облегчает процесс составления СЯ сайта.

После того, как вы вручную обработаете все запросы, у вас должно получиться приблизительно следующее:

Как найти низкоконкурентную прибыльную нишу?

Первым делом вы для себя должны решить, каким образом вы будете зарабатывать на своем сайте. Многие начинающие вебмастера делают одну и ту же глупую ошибку – они вначале делают сайты на тему, которая им нравится (к примеру, после покупки айфона или айпэда все сразу же бегут делать очередной сайт «яблочной тематики»), а потом уже начинают понимать, что конкуренция в этой нише очень высокая и пробиться на первые места их говносайтику будет практически нереально. Или же делают кулинарный сайт, потому что им нравится готовить, а потом с ужасом понимают, что они не знают, как монетизировать подобный трафик.

Перед созданием любого сайта, сразу же определитесь, как вы будете монетизировать проект. Если у вас развлекательная тематика, то, скорее всего, вам подойдет тизерная реклама. Для коммерческих ниш (в которых что-то продается) отлично подойдет контекстная и баннерная реклама.

Сразу хочу отговорить вас от создания сайтов общих тематик. Сайты, на которых пишется «все обо всем» сейчас не так легко продвинуть, ведь ТОПы уже давно заняты известными трастовыми порталами. Рентабельнее будет сделать узкотематический сайт, который за короткое время перегонит всех конкурентов и надолго закрепится в ТОПе. Это я вам говорю из личного опыта.

Мой узкотематический сайт медицинской тематики уже через 4 месяца после его создания занимает первые места в Гугле и Яндексе, обогнав при этом крупнейшие медицинские общетематические порталы.

Узкотематические сайты продвигать ЛЕГЧЕ и БЫСТРЕЕ!

Перейдем к выбору коммерческой ниши для сайта, на котором мы будем зарабатывать на контекстной рекламе. На этом этапе нужно придерживаться 3-х критериев:

Оценивая конкуренцию в определенной ниши, я использую поиск по Московскому региону, в нем конкуренция как правило выше. Для этого, укажите в настройках региона в своем аккаунте в Яндексе «Москва»:

Исключение составляют случаи, когда сайт делается под конкретный регион — тогда нужно смотреть конкурентов именно по этому региону.

Основные признаки низкой конкуренции в выдаче следующие:

Отсутствие полноценных ответов на поставленный запрос (нерелевантная выдача).

В ТОПе не более 2-3 главных страниц (их еще называют «мордами»). Большее количество «морд» означает о том, что весь сайт целенаправленно продвигается под данный запрос. Внутреннюю страницу вашего сайта в этом случае будет продвинуть намного сложнее.

Неточные фразы в сниппете говорят о том, что искомая информация на сайтах конкурентов попросту отсутствует или же их страницы вообще не оптимизированы под данный запрос.

Небольшое количество крупных тематических порталов. Если же по многим запросам из вашего будущего СЯ в ТОПе находится много крупных порталов и узкотематических сайтов, нужно понимать, что ниша уже сформирована, и конкуренция там очень высокая.

Более 10 000 запросов в месяц по базовой частотности. Этот критерий означает, что не стоит чересчур «сужать» тематику сайта. В нише должно быть достаточное количество трафика, на котором можно зарабатывать в контексте. Поэтому, у основного запроса в выбранной тематике должно быть не менее 10 000 запросов в месяц по вордстату (без кавычек и учета региона!). В противном случае вам нужно будет немного расширить тематику.

Также приблизительно оценить количество трафика в нише можно при помощи статистики посещаемости сайтов, которые занимают первые позиции в ТОПе. Если же эта статистика закрыта у них, то воспользуйтесь

Большинство бывалых MFA-шников ищут ниши для своих сайтов не таким способом, а при помощи сервиса или программы Micro Niche Finder.

Последняя, кстати, показывает параметр SOC (0-100 — запрос выйдет в ТОП только на внутренней оптимизации, 100-2000 — средняя конкуренция). Спокойно можно выбирать запросы с SOC менее 300.

На скрине ниже можно увидеть не только частотность запросов, но и среднюю стоимость клика, позиции сайта по запросам:

Есть также полезная фишка как «Потенциальные покупатели рекламы»:

Можно также просто ввести интересующий вас запрос и проанализировать его и схожие с ним запросы:

Как видите, вся картина у вас перед лицом, остается только проверить конкуренцию по каждому из запросов и выбрать наиболее интересные из них.

Оцениваем стоимость бидов для РСЯ сайтов

Теперь давайте рассмотрим, каким образом нужно анализировать стоимость бидов для РСЯ сайтов.

Переходим по вводим интересующие нас запросы:

В итоге получаем:

Внимание! Смотрим на показатель гарантированных показов! Реальная приблизительная цена клика будет в 4 раза меньше той, которая показывается сервисом.

Получается, если вы выведете в ТОП страницу про лечение гайморита и посетители будут кликать по рекламе, то стоимость 1 клика по рекламе РСЯ будет равняться 12 рублям (1,55/4=0,39$).

Если выбрать регион «Москва и область» то биды будут еще выше.

Вот почему так важно занять первые места в ТОПе именно в этом регионе.

Обратите внимание на то, что при анализе запросов, не нужно учитывать коммерческие запросы (например, «купить стол»). Для контентных проектов нужно анализировать и продвигать информационные запросы («как сделать стол своими руками», «как выбрать стол для офиса», «где купить стол» и т. д.).

Где искать запросы для выбора ниши?

1. Включите мозговой штурм, выпишите все свои интересы.

2. Напишите, что вас вдохновляет в жизни (это может быть какая-нибудь мечта, или же отношения, стиль жизни и т.д).

3. Посмотрите вокруг и выпишите все вещи, которые вас окружают (заносите в блокнот в буквальном смысле все: ручку, лампочку, обои, диван, кресло, картины).

4. Какой у вас род деятельности? Может вы работаете на заводе за станком или же в больнице ЛОР-врачом? Занесите в блокнот все вещи, которыми вы пользуетесь на работе.

5. В чем вы хорошо разбираетесь? Запишите и это.

6. Просмотрите объявления в газетах, журналах, объявлениях на сайтах, спаме на почте. Возможно, там предлагают что-то интересное, о чем вы бы могли сделать сайт.

Найдите там сайты с посещаемостью 1000-3000 человек в сутки. Посмотрите, на тематику этих сайтов и выпишите наиболее частотные запросы, которые приносят им трафик. Возможно, там есть что-то интересное.

Я приведу подбор одной узкотематической ниши.

Итак, меня заинтересовала такое заболевание, как «пяточная шпора». Это очень узкая микрониша, под которую можно будет сделать небольшой сайт на 30 страниц. В идеале же, советую вам искать более широкие ниши, под которые можно было бы сделать сайт на 100 и более страниц.

Открываем и проверяем частотность этого запроса (в настройках региона ничего указывать не будем!):

Отлично! Частотность основного запроса более 10 000. Трафик в этой нише есть.

Теперь я хочу проверить конкуренцию по запросам, по которым будет продвигаться сайт («пяточная шпора лечение», «лечение пяточной шпори», «пяточная шпора как лечить»)

Перехожу на Яндекс, указываю в настройках регион «Москва» и вот что я получаю:

В ТОПе есть много внутренних страниц обще тематических медицинских сайтов, обогнать которые нам не составит труда (правда это произойдет, не раньше, чем через 3-4 месяца) и есть морда 1 сайта, который заточен под тематику лечения пяточной шпоры.

Сайт wnopa представляет из себя 10-страничный говносайтик (у которого, правда PR=3) с посещаемостью в 500 посетителей. Подобный сайт тоже можно будет обогнать, если сделать более качественный сайт и продвигать главную страницу по этому запросу.

Проанализировав таким образом ТОП по каждому из запросов, можно прийти к выводу, что данная микрониша еще не занята.

Теперь остался последний этап — проверка бидов.

Переходим по и вводим туда наши запросы (при этом регион выбирать не нужно, так как наш сайт будут посещать русскоязычные люди со всего мира)

Теперь я нахожу среднее арифметическое всех показателей гарантированных показов. Получается 0,812$. Этот показатель делим на 4, выходит в среднем 0,2$ (6 рублей) за 1 клик. Для медицинской тематики это в принципе нормальный показатель, но при желании можно найти тематики и с лучшими бидами.

Стоит ли выбирать подобную нишу для сайта? Это решать вам. Я бы поискал более широкие ниши, в которых бы было больше трафика и лучшая стоимость клика.

Если вы действительно хотите найти хорошую тематику, настоятельно советую вам выполнить следующий шаг!

Сделайте табличку со следующими столбцами (данные я указал приблизительно):

В день вы должны таким образом выписать не менее 25 запросов! Потратьте на поиски ниши от 2 до 5 дней и у вас, в итоге, будет из чего выбрать!

Выбор ниши это один из наиболее важных шагов в создании сайта и если вы халатно к нему отнесетесь, то можете считать, что в будущем вы просто выбросите на ветер свое время и деньги.

Как написать правильную оптимизированную статью

Когда я пишу оптимизированную под какой-либо запрос статью, я в первую очередь думаю о том, чтобы она была полезной и интересной посетителям сайта. Плюс к этому, стараюсь оформить текст так, чтобы его было приятно читать. В моем понимании идеально оформленный текст должен содержать:

1. Яркий эффектный заголовок. Именно заголовок первую очередь привлекает пользователя, когда он просматривает страницу поисковой выдачи. Обратите внимание на то, что заголовок должен быть полностью релевантным тому, что написано в тексте!

2. Отсутствие «воды» в тексте. Думаю, что мало кто любит, когда то, что можно было написать в 2-х словах, излагается на несколько листов текста.

3. Упростите абзацы и предложения. Чтобы текст читался легче, обязательно разбейте большие предложения на короткие, которые помещаются на одной строке. Упростите сложные обороты. Не зря же во всех газетах и журналах текст публикуется небольшими предложениями в столбиках. Таким образом, читатель будет лучше воспринимать текст, а его глаза не так быстро устанут.

Абзацы в тексте также должны быть не большими. Лучше всего будет восприниматься текст, в котором идет чередование маленьких и средних абзацев. Идеальным будет абзац, который состоит из 4-5 строк.

4. Используйте в тексте подзаголовки (h2, h3, h4). Человеку нужно 2 секунды, чтобы «просканировать» открытую страницу и решить — читать её или нет. За это время он пробегает глазами по странице и выделяет для себя наиболее важные элементы, которые помогают ему понять, о чем идет речь в тексте. Подзаголовки как раз и являются тем инструментом, с помощью которого можно зацепить внимание посетителя.

Чтобы текст был структурированным, более легким в восприятии, используйте на каждые 2-3 абзаца один подзаголовок.

Обратите внимание на то, что эти тэги нужно использовать по порядку (от h2 до h4). К примеру:

Вот так делать не нужно:

<И3>Подзаголовок<И3>

<И3>Подзаголовок<И3>

<И2>Подзаголовок<И2>

А вот так можно:

<И2>Подзаголовок<И2>

<И3>Подзаголовок<И3>

<И4>Подзаголовок<И4>

Также можно делать следующим образом:

<И2>Как накачать пресс<И2>

<И3>Как накачать пресс в домашних условиях<И3> <И3>Как накачать пресс на турнике<И3> <И2>Как накачать бицепс<И2> <И3>Как накачать бицепс без тренажеров<И3>

В текстах следует по минимуму употреблять ключевые слова (не более 2-3 раз, в зависимости от размера статьи). Текст должен быть максимально естественным!

Забудьте о выделение ключевых слов жирным и курсивом. Это явный признак переоптимизации и Яндексу он очень не нравится. Выделяйте подобным образом только важные предложения, мысли, идеи (при этом, старайтесь, чтобы в них не попали ключевики).

5. Используйте во всех своих текстах маркированные и нумерованные списки, цитаты (не путайте с цитатами и афоризми известных людей! В них заносим только важные мысли, идеи, советы), картинки (с заполненными атрибутами alt, title и подписью). Вставляйте интересные тематические видео в статьи, это очень хорошо сказывается на длительности пребывания посетителей на сайте.

6. Если статья очень большая, то имеет смысл при помощи содержания и ссылок-якорей сделать навигацию по тексту.

После того, как вы сделали все нужные изменения в тексте, пробегитесь по нему глазами еще раз. Не тяжело ли его читать? Может быть, некоторые предложения нужно сделать еще меньше? Или же нужно поменять шрифт на более читабельный?

Только после того, как вы будете удовлетворены всеми изменениями в тексте, можете заполнять title, description и keywords и отправлять его на публикацию.

Требования к Title

Title (тайтл) — это заголовок в сниппете, который отображается в поисковой выдаче. Заголовок в тайтле и заголовок в статье (тот, который выделяется тэгом

) должны отличаться друг от друга и в то же время, в них должно встречаться основное ключевое слово (или несколько ключей).

Требования к Description

Описание должно быть ярким, интересным. В нем нужно вкратце передать смысл статьи и не забыть упомянуть нужные ключевики.

Требования к Keywords

Вписываем сюда продвигаемые ключевые слова через пробел. Не более 10 штук.

Итак, как я пишу оптимизированные статьи.

Первым делом выбираю запросы, которые буду использовать в статье. Для примера, возьму основным запрос «как научиться отжиматься». Вбиваем его в wordstat.yandex.ru


Вордстат вывел 14 запросов. Я постараюсь по возможности использовать в статье большинство из них (достаточно по 1-му разу упомянуть каждый ключевик). Ключевые слова можно и нужно склонять, переставлять местами, заменять синонимами, делать как можно разнообразнее. Поисковики, понимающие русский язык (особенно Яндекс), отлично распознают синонимы и учитывают их при ранжировании.

Размер статьи я стараюсь определять по среднему размеру статей из ТОПа.

К примеру, если в ТОП-10 в выдаче находятся 7 сайтов, размер текстов у которых в основном составляет 4 000-7 000 символов, и 3 сайта, у которых этот показатель очень низкий (или высокий), последние 3 я просто не беру во внимание.

Вот приблизительная html-структура статьи, оптимизированной под запрос «как научиться отжиматься»:

Как девушке с нуля научиться отжиматься от пола и на брусьях?


……………………………

Как девушке научиться отжиматься 100 и более раз за 2 месяца


……………………………

Каким должно быть правильно питание?


……………………………

Режим дня


……………………………
……………………………

Программа тренировки

Некоторые оптимизаторы советуют в обязательном порядке вписывать основной ключ в первый абзац. В принципе, это действенный метод, но если у вас на сайте будет 100 статей, в каждой из которых в первом абзаце будет встречаться продвигаемый запрос, это может иметь неприятные последствия.

В любом случае, советую вам не зацикливаться на одной определенной схеме, экспериментировать, экспериментировать и еще раз экспериментировать. И помните, если вы хотите сделать сайт, который полюбят поисковые роботы, сделайте так, чтобы его полюбили настоящие люди!

Как увеличить посещаемость сайта при помощи несложной манипуляции с перелинковкой?

Я думаю, что каждый из вас видел множество разнообразных схем перелинковки на сайтах, и я более чем уверен, что вы не придавали особого значения этим схемам. А зря. Давайте рассмотрим первую схему перелинковки, которая есть на большей части сайтов. На ней, правда, еще не хватает ссылок с внутренних страниц на главную, но это не столь важно. Важно то, что в этом случае на сайте наибольший вес будут иметь страницы рубрик (которые чаще всего не продвигаются и закрыты от индексации в robots.txt!) и главная страница сайта. Страницы с записями в таком случае имеют наименьший вес:

А теперь давайте подумаем логически: оптимизаторы, которые занимаются продвижением контентных проектов, продвигают в первую очередь какие страницы? Правильно — страницы с записями (в нашем случае, это страницы 3-го уровня). Так почему же, продвигая сайт внешними факторами (ссылками), мы так часто забываем о не менее важных — внутренних факторах (правильной перелинковке)?

А теперь давайте посмотрим на схему, в которой внутренние страницы будут иметь больший вес:

Этого можно добиться, просто правильно настроив перетекание веса со страниц верхнего уровня, на страницы нижнего, 3-го уровня. Также не забываем, что внутренние страницы будут дополнительно прокачаны внешними ссылками в других сайтов.

Как настроить подобное перетекание веса? Очень просто — при помощи тегов nofollow noindex.

Давайте рассмотрим сайт, в котором нужно прокачать внутренние страницы:

На главной странице (1 уровень): все внутренние ссылки открыты для индексации, внешние ссылки закрываем через nofollow noindex, ссылка на карту сайта открыта.

На страницах с рубриками (2 й уровень): для индексации открыты ссылки на страницы с записями (3-го уровня) и на карту сайта, все остальные ссылки (на главную, рубрики, метки, внешние) закрываем через nofollow noindex.

На страницах с записями (3 й уровень): открыты ссылки на страницы этого же, 3-го уровня и на карту сайта, все остальные ссылки (на главную, рубрики, метки, внешние) закрываем через nofollow noindex.

После того, как была сделана подобная перелинковка, наибольший вес получила карта сайта, которая равномерно распределила его на все внутренние страницы. Внутренние страницы, в свою очередь, значительно прокачались в весе. Главная страница и страница рубрик получили наименьший вес, чего собственно я и хотел добиться.

Вес страниц я проверю при помощи программы . Она помогает наглядно увидеть распределение статического веса по сайту, сосредоточить его на продвигаемых страницах, и тем самым поднять свой сайт в выдаче поисковиков, значительно сэкономив бюджет на внешних ссылках.

Ну а теперь, давайте перейдем к самому интересному — результатам подобного эксперимента.

Сайт женской тематики. Изменения в распределении веса на сайте были сделаны в январе этого года. Подобный эксперимент принес +1000 к посещаемости:

Сайт под фильтром Гугла, поэтому траф поднялся только в Яндексе:

На спад трафика в мае месяце не обращайте внимания, это сезонность (майские
праздники).

2. Второй сайт женской тематики, изменения тоже были сделаны в январе:

Этот сайт, правда, постоянно обновляется и на него закупаются ссылки.

ТЗ для копирайтеров на написание статей

Название статьи: чем может быть полезна зелень?

Уникальность: не ниже 95% по Etxt

Размер статьи: 4 000-6 000 символов без пробелов

Ключевые слова:

чем полезна зелень — основной ключ

полезная зелень

полезные свойства зелени

польза от зелени

Требования к статье:

Основное ключевое слово (указано первым в списке) не обязательно должно быть в первом абзаце, оно просто должно встретиться в первой половине текста!!!

ЗАПРЕЩЕНО: группировать ключевые слова в частях текста, необходимо распределять ключевые слова по всему тексту.

Ключевые слова нужно выделять жирным шрифтом (это нужно, чтобы вам было удобнее проверять заказ)

Ключевые слова нужно вписывать гармонично (поэтому, нужно использовать не только прямые вхождения ключей, но и можно их склонять, менять слова местами, использовать синонимы и т. д.)

Используйте подзаголовки в тексте. В подзаголовках постарайтесь не использовать прямые вхождения ключевых слов. Делайте подзаголовки для каждой статьи как можно разнообразнее!

В тексте использовать не более 2-3 прямых вхождений основного запроса!

Если в статье нужно использовать ключевики «чем полезна зелень» и «чем полезна зелень для человека», то написав второй ключевик, вы автоматически употребите и первый. Т. е. нет особой нужды писать 2 раза ключ, если в одном уже есть вхождение другого ключа.