Простановка ссылок с блогов и форумов. Часть 2. Подбор страниц-доноров

Опубликовано: 02.03.2019. Обновлено: 30.10.2021 310 0

Это вторая часть инструкции по подготовке и простановке ссылок с форумов и блогов. Остальные три части:

Простановка ссылок с блогов и форумов. Часть 1. Полный цикл работ

Простановка ссылок с блогов и форумов. Часть 3. Подготовка комментариев

Простановка ссылок с блогов и форумов. Часть 4. Публикация комментариев

Для реализации методики по подбору форумов и блогов необходимо готовое семантическое ядро.

Формирование списка ключевых фраз

Копируем все ключевые фразы (полученные вместе с тз) в файл "сцеплялка" в первый столбец. Это автоматически заполнит столбцы: C, E, G изменёнными фразами, соответственно:

allintext: ключевая фраза оставить комментарий

allintext: ключевая фраза комментировать

allintext: ключевая фраза форум

В кийколлекторе добавляем все полученные фразы из трёх столбцов в одну группу:

добавление фраз

В настройках во вкладке "Сеть" добавляем данные прокси-сервера.

Получение ТОП 10 конкурентов по каждой фразе

Далее идёт длинная методика получения топ 10 конкурентов при помощи КейКоллектора. Значительно более быстрый и дешёвый способ — при помощи SE Ranking

В работе потребуется антикапча. Там необходимо авторизоваться, скопировать ключ и вставить сюда:

опции

Там же в настройках во вкладке KEI& SERP выставляем:

"Сканировать выдачу до TOP" 10.

В настройках "Сеть" необходимо вставить прокси:

keycollector прокси

Перед началом работы нужно проверить, какие прокси уже забанены Гуглом. Для этого нужно нажать кнопку "Проверить в ПС Google", предварительно установив флажок "Считать закапчеванные прокси-серверы плохими". Исключенные прокси при этом будут отмечены красным цветом.

Далее заходим в настройки "Парсинг" — "Поисковая выдача" и выставляем, как на скриншоте:

keycollector опции для google

Количество потоков ставим равным количеству НЕ исключённых прокси-серверов.

В главном окне программы внизу выставляем регион:

keycollector регион

Сбор и выгрузка

Далее нажимаем:

экспорт

Если в работе программы происходит сбой, причину, как правило, можно увидеть в журнале событий:

журнал

После этого нажимаем ту же кнопку в панели и выбираем "Экспортировать данные о поисковой выдаче". В настройках отмечаем "Выгружать данные для ПС": Google.

Анализ страниц

Полученный столбец с адресами страниц копируем в новый файл и удаляем дубликаты адресов страниц:

удаление дубликатов

Далее переходим в Чектраст и создаем обычный проект:

новый проект

Нажимаем "включить анализ страниц":

анализ страниц

Типовой список параметров оставляем:

список параметров

Но добавляем несколько параметров:

весь список параметров

Далее запускаем анализ.

Чистка результатов

Все полученные результаты скачиваем и дальнейшую чистку производим в икселе. Чистку удобно проводить оперируя фильтрами в икселе. Выделяем самую верхнюю строку с названиями столбцов и нажимаем:

фильтр

Удаляем:

  • сайты под АГС и бывшие под АГС;
  • все сайты, у которых в колонке Яндекс Вирусы стоит "да";
  • все сайты, у которых в колонке Гугл Вирусы стоит "да";
  • все сайты, у которых в колонке "траст сайта" значение меньше или равно 3;
  • все сайты, у которых "заспамленность сайта" больше или равно 12, а "траст сайта" меньше или равно "10" (одновременно выполняются эти два условия).

После этого удаляем все столбцы, кроме VK.com Shares и Траст страницы. Эти столбцы меняем местами.

Повторный поиск площадок. Исключение ранее обработанных адресов

Если собранный список площадок отработан, можно расширить зону поиска, используя тот же самый список ключевых фраз и тот же алгоритм, но отметив в настройках Кейколлектора "Сканировать выдачу до TOP" 30. После того, как парсинг будет завершен, необходимо исключить все адреса, принадлежащие доменам, полученным при первом поиске (чтобы линкбилдер впоследствии не тратил время на повторную работу с ними). Как это сделать:

  1. 1. Конвертируем полученные при первом поиске адреса страниц в домены и удаляем дубликаты при помощи сервиса http://www.visiospark.com/url-to-domain/ 
  2. 2. В файле иксель делаем два столбца, А и B. В первом — адреса страниц, полученные при повторном парсинге выдачи (ТОП 30), во втором — домены первого поиска (п.1). Сохраняем файл в формате csv. 
  3. 3. Загружаем полученный файл в сервис исключения урлов по списку доменов. На выходе получится список страниц второго поиска, из которого исключены все адреса сайтов первого поиска.
  4. 4. Далее проводим анализ в Чектрасте и чистку, как обычно (описано выше). 

Комментировать