Семантическое ядро, часть 2 - парсинг и чистка ключевых фраз

Семантическое ядро, часть 2. Парсинг и чистка ключевых фраз

Опубликовано: 07.01.2019. Обновлено: 19.08.2019 506 0

Это вторая часть подготовки семантического ядра. Остальные две:

Семантическое ядро, часть 1. Методика подготовки фраз для парсинга семантического ядра

Семантическое ядро, часть 3. Группировка, распределение и оценка вероятности успеха

На этом этапе парсим и удаляем нерелевантные ключевые фразы, что эффективно делать в два захода:

  1. 1. Собираем фразы из Яндекс.Вордстата и делаем первичную очистку.
  2. 2. Парсим поисковые подсказки Яндекса с полученных слов и снова чистим.

Парсинг из Вордстата

Логинимся в хорошо зарекомендовавшем себя сервисе https://www.rush-analytics.ru/ и во вкладке "Wordstat" создаём новый проект.

  1. 1. Название проекта указываем так, чтобы в списке проектов потом его можно было интерпретировать. Например, "панические атаки".
  2. 2. Выставляем регион. В этом случае — Москва. Чтобы собрать больше ключевых фраз, можно парсить по более крупному региону, например, по России. Но тогда впоследствии придётся потратить больше ресурсов на чистку от ненужных топонимов.
  3. 3. На следующем шаге оставляем в настройках только: "Сбор ключевых слов из левой колонки Wordstat". (из правой колонки фразы не нужны). Парсить страниц: "Все 40".

Далее добавляем все ключевые слова, собранные ранее, и запускаем проект в работу.

Чистка фраз и сбор минус-слов при необходимости

Выгружаем, полученные ключевые слова.

Ручная чистка небольших списков

Если список фраз получился небольшой, можно почистить просто вручную просматривая список и удаляя ненужные фразы. Вот эти фразы я удалил:

лечение панических атак гипнозом в москве
какой врач лечит всд и панические атаки
точки для избавления панической атаки
методики избавления от панических атак
истории избавления от панических атак павел федоренко
истории избавления от панических атак
гештальт терапия панических атак
когнитивная терапия при панических атаках
в чем состоит терапия панических атак
когнитивно поведенческая терапия при панических атаках
помогает ли психотерапевт при панических атаках
психотерапевты о панических атаках
психотерапевт в минске отзывы панические атаки
психотерапевт при всд и панических атаках отзывы
как психотерапевт лечит панические атаки
панические атаки советы психотерапевта
поможет ли психолог при панических атаках
панические атаки видео психологов
тренинги павла федоренко жизнь без панических атак
паническое расстройство психолог левченко юрий

Полуавтоматическая чистка больших списков в Key Collector

Если ключевых слов много (сотни и тысячи), добавляем все в Key Collector. Нажимаем в верхней панели "Стоп-слова".

стоп слова в key-collector

Создаём новую группу стоп-слов (это другое название минус-слов):

окно стоп-слов в key-collector

Перед закрытием окна выбираем, чтобы этот список был активным:

добавление стоп-слов в key-collector

Переходим во вкладку "Данные" и нажимаем "Анализ групп".

Просматриваем группы, отмечая не подходящие галками:

анализ групп в key-collector

Когда всё просмотрено, кликаем в любое место правой кнопкой мыши и нажимаем:

контекстное меню стоп-слов key-collector

В появившемся окне выбираем созданный ранее список минус-слов, отмечаем галочку и нажимаем кнопку "Добавить в стоп-слова":

окно добавить в стоп-слова в key-collector

Если есть сомнения, добавлять или нет, можно нажать плюсик рядом с группой и посмотреть, какие фразы в неё входят.

Удаление названий ненужных городов и стран

Чтобы удалить все фразы с ненужными названиями городов в составе, нужно воспользоваться предзаготовленным списком минус-слов strany-goroda-bez-msk.txt. В этом файле кириллические названия городов России и других стран, за исключением Москвы и области.

Для этого создаём новый список стоп-слов и добавляем в него слова из файла:

создать новый список стоп-слов в key-collector

Затем, отметив предварительно галочку:

отмеченная галочка в key-collector

нажимаем, отметить фразы в таблице. Далее при помощи фильтра выводим только отмеченные фразы в таблице:

вывод фраз в таблице key-collector

Отмеченные фразы проверяем, не попало ли в них, что-то полезное.

Затем экспортируем все отмеченные в иксель, и из колонки "Комментарий" копируем стоп-слова в наш начальный список минус-слов Key Collector.

После этого удаляем из общего списка все отмеченные фразы с топонимами.

Сбор минус-слов

Если ключевые фразы собираются для контекстных рекламных кампаний, то минус-слова нужно не просто удалять, а собирать, чтобы использовать для предотвращения показа объявлений по фразам, содержащим эти слова.

Например, чтобы объявление показывалось по фразе:

лечение панических атак в москве

и не показывалось по:

лечение панических атак гипнозом в москве

Нужно будет добавить в систему минус-слово "гипноз". Поэтому его выписываем. В результате получилось для этого списка фраз:

гипноз
всд
точки
методики
истории
гештальт
когнитивный
чем
поведенческий
ли
помогает
о
минск
как
совет
поможет
видео
федоренко
левченко

Если ключевые фразы собирались под несколько услуг/товаров, то под каждую группу ключевых фраз нужно собирать отдельный список минус-слов.

При полуавтоматической чистке ключевых фраз полученный список стоп слов можно выгрузить во вкладке "Стоп-слова".

Подробнее о минус-словах: https://yandex.ru/support/direct/keywords/negative-keywords.html

Чистка ключевых фраз по этой инструкции производится дважды: первый раз при сборе слов из Яндекс.Вордстата, второй — после сбора поисковых подсказок. При этом получится два списка минус-слов, которые необходимо объединить в один и удалить дубликаты.

Парсинг поисковых подсказок

Поисковые подсказки — это подсказки появляющиеся при вводе запроса в поисковую строку:

поисковые подсказки в яндексе

Сбор также можно производить при помощи сервиса https://www.rush-analytics.ru/

Собираем только в Яндексе в нужном регионе:

скрин из сервиса rush-analytics

Остальные настройки парсинга, если не преследуются какие-то особые цели, делаем такими:

скрин 2 из сервиса rush-analytics

Также в настройках указываем минус-слова, собранные на этапе парсинга из Вордстата:

скрин 3 из сервиса rush-analytics

Это позволит не чистить список дважды от одних и тех же слов.

Комментировать