главная страница программы ... форум техподдержки

// вернуться к оглавлению... //

Полезные утилиты "саквояж"

Проверка позиций

Данный раздел предназначен для проверки позиций страницы в поисковых системах (Яндекс и Google). Кроме просмотра позиций можно посмотреть данные ТОПа, а так же дополнительную информацию о каждой страницы в ТОПе. Для фиксации и запоминания результата ведется история позиций.

блок 1. Настройки проверки

  • введите URL сайта. - поле для ввода адреса проверяемой страницы.
  • введите проверяемый запрос. - здесь нужно ввести запрос по которому нужно проверить позиции.
  • глубина проверки. - то есть до какой позиции нужно производить проверку. Чем большее значение тем дольше ожидать результат.
  • задержка обращения. - для предотвращения или уменьшения блокировок по стороны ПС рекомендуется ставить задержку побольше (2-5 сек достаточно).
  • по Яндексу / по Google. - нужно выбрать по которой ПС проверять позицию.
  • показать ТОП. - программа покажет результаты (в зависимости от выбора пользователя) ТОПа в блоке №2.
  • проверить. - запускает проверку с заданными параметрами.

блок 2. результаты ТОПа

В этом блоке будут показаны результаты проверки, а именно ТОП 10 (20, 30) в зависимости от выбора пользователя в блоке №1. Внизу блока 2 имеется кнопка " определить дополнительные данные". Нажав на нее программа проверит каждый сайт из этого ТОПа и покажет результаты в блоке № 3.

блок 3. Подробная информация о странице

В этом блоке представлена более подробная информация о каждой странице в полученном ТОПе. А именно метаданные страниц, а так же показатели: возраст (указано в месяцах), IP сайта (для проверки возможной сетки), ТИЦ/ PR, Alexa rank и наличие в каталогах яндекса и DMOZ.

Все это позволит в некоторой степени оценить конкурентность запроса (в общих чертах).

блок 4. История позиций

В этом блоке фиксируются позиции для проверяемого адреса и запроса. Это своеобразная история проверок. Отдельно фиксируются данные для Яндекса и для Google.

работа с robots.txt

Раздел для создания файла robotx.txt. Принцип работы прост, нужно указать адрес сайта и запустить поиск страниц. Программа найдет все страницы сайта, а уже потом можно будет их группировать либо по директориям либо по расширениям, что позволит применить правила для разрешения или запрета к индексации.

Алгоритм поведения заключается в следующем:

Блок №1. Вводится адрес сайта (главная страница), задается интервал задержки обращения программы к сайту и запускается поиск страниц. После того как будут найдены все страницы они отобразятся в блоке №2. Все найденные страницы, а так же файлы и т.д. то есть все что имеется на сайте (куда есть ссылка) будет отображено в этом блоке.

Далее нужно выбрать с чем работать, что закрыть или разрешить к индексации. Для этого возвращаемся в блок №1 выбираем группировку по директориям или расширениям страниц (и файлов). Здесь же можно скрывать и задавать дополнительные параметры, например "выделить изображения" - выделит все имеющиеся в списке изображения. "Скрыть домен" и "скрыть закрытые страницы" позволяет скрывать страницы которые имеют запрет на индексацию в метатегах.

Блок №3. Здесь демонстрируется тот robots.txt который получается на данный момент. Это поле можно редактировать и изменять. Для быстроты есть кнопки для быстрой вставки директив. "Экспорт файла" поможет экспортировать скомпилированный результат, а если воспользоваться функцией "сгенерировать sitemap.xml" то на основании полученных данных и нового файла robots.txt будет создана еще и карта сайта.

Примечание. Возможно механизм далек от совершенства, но здесь важно ваше мнение. Стоит ли развивать этот раздел или нет. Поэтому пишите (на форуме, адрес в начале страницы).

// вернуться к оглавлению... // к началу страницы