Любое агентство интернет-маркетинга имеет отдел, где занимаются крупными проектами. Работа с подобными проектами предполагает автоматизацию. В данной статье мы попытаемся Вам рассказать о полезных инструментах и различных идеях для проведения процесса автоматизации.

Для начала давайте обрисуем, что же следует понимать под крупным проектом. Зачастую это сайт, который имеет больше миллиона страниц, обладает сложной структурой, он требует частых отчетов, обработку большого объема данных, ну, и, конечно же, опытную команду профессиональных SEO-специалистов.

Как мы видим, работа над крупным проектом имеет множество интересных задач, но нередко некоторые из них оказываются слишком рутинными, что приводит к затрате времени.

Уже прошли те времена, когда процесс автоматизации требовал привлечения большой группы сотрудников, которые должны были выполнить рутинную работу. В их обязанности входило закупка ссылок, составление семантического ядра, написание мета-тегов с дальнейшим их внедрением на страницы ресурса.

Сегодня специально для SEO-специалистов были разработаны сервисы, программы, скрипты, которые помогают им значительно сэкономить время. Каждый профессионал своего дела просто обязан уметь ими пользоваться, чтобы иметь возможность повысить эффективность своей же работы.

Давайте более детально рассмотрим инструменты, которые помогают при работе с семантическим ядром, системами аналитики, в том числе, проверкой параметров всех целевых страниц. Начнем с аналитических систем. Данные системы могут предоставить большой объем данных, но следует сказать, что в веб-интерфейсе существуют свои ограничения. Для примера, если взять интерфейс «Google Analytics», то здесь отсутствует возможность выгрузки более 5 тысяч строк данных. Отчеты подгружаются очень медленно, при этом включается семплирование.

Чтобы решить перечисленные проблемы, можно использовать API. Те, кто до сих пор не сталкивался с работой API в «Google Analytics», можно поупражняться в составлении отчетов при помощи «Google Analytics Query Explorer». Данный инструмент был специально разработан для изучения работы в API «Google Analytics».

Сервис предоставляет возможность выбрать запросы, которые понадобятся в работе с определенным проектом. При желании их можно сохранить. После этого Вы можете использовать эти запросы для быстрой выгрузки данных.

Стоит знать, что в API есть также некоторые ограничения, но они не настолько значительны. Вы можете получить только 50 тысяч запросов в день. На один запрос можно выгрузить только 10 тысяч строк данных. Пользователь за одну секунду имеет право сделать только 10 запросов с одного IP.

Инструменты, которые работают на удобство работы с аналитическими системами

«Google Analytics Spreadsheet Add-on»

Данный инструмент является наипростейшим, а главное бесплатным помощником в работе с данными «Google Analytics». Он является дополнением к «Google Spreadsheets». Его можно установить в «Google» — Таблицах, воспользовавшись коллекцией дополнений. На сегодня в интернете имеется достаточно инструкций по его применению. Пользователю необходимо только создать отчеты, а затем запустить выгрузку. Кроме того, имеется возможность настройки расписания отчетов для обновления данных.

Снимок экрана 2015-05-22 в 12.46.55
Скрипты

Многие считают, что для использования скриптов необходимо быть опытным программистом. На самом деле, это не так. Есть достаточно скриптов, которые понятны в использовании, и их может в своей работе применить любой SEO-специалист. Они используются для быстрой выгрузки сведений на компьютер.

Один из таких скриптов написан на языке программирования R. Если Вы хотите разобраться, как им правильно пользоваться, то стоит в интернете найти блог Максима Уварова, где он детально описал все необходимые действия. Данный скрипт дает возможность обойти существующее ограничение в 10 тысяч строк, а также позволяет снизить уровень семплирования. Это достигается за счет снижения временного интервала запроса. Приведем пример:

Снимок экрана 2015-05-22 в 12.47.25

Скрипт позволил выгрузить 6723 строки, притом, что веб-интерфейс для запроса показал, что имеется 5 849 строк данных.

Снимок экрана 2015-05-22 в 12.47.31

Кроме того, есть скрипт, написанный на языке «Python».

Применение выгрузки

Веб-мастер имеет возможность сохранить самые часто задаваемые запросы к API, чтобы в будущем не прописывать их заново. Это касается запросов для выгрузки популярных страниц, или ключевых фраз и т.д.

При необходимости составления персонализированных отчетов, или же специфического анализа KPI, есть возможность создать виджеты на примере сводок «Google Analytics» в «Google Spreadsheets».

В таком действие потребуется настройка необходимых отчетов, а также их расписание при помощи дополнения «Google Analytics». В работе следует использовать функцию «QUERY» для выбора необходимых данных, после чего на их основе строятся графики. В дальнейшем обновления выгрузки будут приводить и к обновлению диаграмм. Подобные дашборды вполне можно сделать открытыми для клиентов.

Семантика

Сбор и дальнейшая обработка семантического ядра также можно отнести к рутинному занятию. Имеется несколько способов упростить данный процесс, сократить не только затрачиваемые ресурсы, но и время.

Генерация

Полученная семантика методом генерации имеет меньший охват, но зато можно ее получить очень быстро. Данный подход оптимален для начального процесса продвижения, и наибольшую эффективность проявляет на похожих страницах, которые имеют переменные. Такой подход окажется эффективным при работе со страницами брендов, марок и моделей.

В переменную можно также добавить название региона. Чтобы проводить генерацию, можно использовать «Google Spreadsheets, Excel», скрипты, а также другие сервисы.

Для подобных страниц специалисты рекомендуют собрать семантическое ядро, которое будет состоять из трех-пяти наиболее популярных моделей или марок. После этого полученные фразы следует использовать и для других страниц, сделав при этом название модели или марки переменной, а семантическое ядро, которое удалось собрать, в качестве шаблона.

Снимок экрана 2015-05-22 в 12.48.25

После того, как процесс генерации завершен, нам следует проверить популярны ли фраз в «Яндекс WordStat» или «Google AdWords», применяя параллельно и другие популярные фразы.
«Google Webmaster Tools»

Данный инструмент выступает прекрасным источником семантики для интернет-ресурса. В особенности его полезность проявилась после того, как ключевые фразы стали шифроваться в ;»Google Analytics». Отметим, что данный инструмент не дает возможности выгружать поисковые фразы по API.

Снимок экрана 2015-05-22 в 12.49.23

Тем не менее, имеется один скрипт, который позволяет открыть фразы, скрытые в отчете «Top Pages». Они сохраняются в файл формата TSV вместе с URL страниц. Чтобы запустить работу скрипта, его достаточно сохранить в виде закладки в используемом браузере и запустить его на страничке отчета «Top Pages».

Семантика конкурентов

Анализ конкурентов является превосходным источником для составления семантики. Для этого можно использовать сервисы «Prodvigator» и «Ahrefs».

Сервис «Ahrefs» позволяет выгружать анкоры, которые используются конкурентами для продвижения своих ресурсов.

Снимок экрана 2015-05-22 в 12.50.00

Сервис «Prodvigator» позволяет увидеть, с помощью каких запросов ранжируются конкуренты. Полученные данные можно просмотреть при помощи фильтра по частотности, конкурентности, позиции, целевым страничкам, в том числе и другим параметрам.

Идеи для контент-плана

В качестве источника тем, идей и статей для своего ресурса можно использовать поисковые подсказки (что конкретно интересует пользователей), и в дальнейшей работе использовать полученные данные можно, выделив из подсказок вопросы. Для такой работы можно использовать тот же «Prodvigator» или же «sg.serpstat.com.».

Снимок экрана 2015-05-22 в 12.50.40
Группировка семантики

После того, как большое семантическое ядро собрано, его необходимо разложить по группам. В настоящее время существует достаточно сервисов, которые с легкостью справятся с подобной задачей. Среди таковых можно выделить «JustMagic» и «Rush Analytics».

Одним из эффективных методов группировки выступает разбивка фраз на основе «SERP». Сделать это можно при помощи скрипта. Чтобы его задействовать, придется собрать 10 топовых ключевых фраз, которые подлежат кластеризации. Сделать это можно при помощи таких сервисов, как «Yazzle», «KeyCollector», «ZennoPoster».