Сбор данных для аудит SEO — BeamUsUp SEO Crawler

Сбор данных для аудит SEO — BeamUsUp SEO Crawler

Мы начинаем каждый аудит SEO путем сбора данных с помощью различных программ для этой цели, от бесплатных (Netpeak Spider, Visual SEO Studio, IIS SEO Toolkit, WildShark SEO Spider) до коммерческих приложений для настольных компьютеров. Онлайновые инструменты также работают на рынке, которые доступны в модели подписки. Однако в этом посте я не буду писать о дорогостоящих онлайн-инструментах, а о другом небольшом аккуратном рабочем столе и, кроме того, бесплатной программе, которая может помочь собрать информацию о вашем сайте для последующего использования в аудите SEO.

Приложение называется BeamUsUp SEO Crawler, оно написано на языке программирования Java, поэтому мы будем запускать sofcik на всех популярных платформах Windows (XP, 7, 8, 10), Linux и Mac. Все, что вам нужно сделать, это установить JRE.

Программа выполняется быстро, в конфигурации программы мы можем установить количество потоков, ограничить количество обработанных URL-адресов и включить проверку интеллектуальных дубликатов, хотя имя (функция) зарождается, потому что программа правильно информирует о дублировании мета-описания (в тесте пример страницы paginations), но больше не учитывает проблему noindex, которая возникает при разбиении подстраниц (подстраницы noindex, поскольку они исключены из результатов, не классифицируются как дубликаты). Поэтому, как обычно, после сбора данных нам все же нужно тщательно анализировать все, включая вопросы, которые автор инструмента не учитывал.

В параметрах конфигурации отсутствуют основные вещи, такие как возможность настройки собственного User Agent и установка времени задержки для каждого выполняемого HTTP-запроса.

Автор BeamUsUp очень хорошо решил проблему представления и фильтрации результатов, все доступно из главного окна, максимально одним щелчком мы можем легко переключаться между отдельными фильтрами и разделами. Большой плюс для этого. Нет вариантов скрыть столбцы, сама функция, которая позволяет реорганизовать порядок столбцов, будет чрезвычайно полезна при анализе данных непосредственно из окна BeamUsUp и поэтому вам нужно экспортировать данные в электронную таблицу. В дополнение к XLS мы также экспортируем данные в CSV. Ниже приведен пример отчета в XLS …

В файле XLS мы находим все страницы (все), а также данные, относящиеся к конкретным типам ошибок. Отчеты в разделах meta.description.duplicate или title.duplicate должны содержать столбец, указывающий, не было ли noindex на данной подстранице, в противном случае дублирующий анализ, основанный на данных с вкладки, не имеет смысла.

BeamUsUp SEO Crawler — это, безусловно, интересный и перспективный инструмент, который стоит дать шанс.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *