3 пункта проверки безопасности сайта
avatar

безопасность интернет сайтаЕще один немаловажный вопрос как безопасность сайта. В данном случае речь пойдет не о вирусах на сайте, а о том, что сайт может быть взломан и на нем может размещаться совершенно посторонний контент (и ссылки) и об этом ничего неизвестно владельцу этого самого сайта. О чем собственно говоря речь? Давайте посмотрим на примерах…

Сам я впервые столкнулся с этим еще при создании версии L3, то есть в тот момент как программа стала показывать отчет по всем ссылкам. Проверив несколько своих сайтов я с большим удивлением обнаружил, что больше половины из них имеют столько внешних (исходящих) ссылок что их было больше раза два а то и три чем страниц сайта. То есть практически на каждой странице находились “левые” ссылки на какие то совсем непонятные сайты.

как обезопасить свой сайтПроверив коды я обнаружил примерно 60-70% посторонних вкраплений, которые генерировали эти ссылки автоматически. Но к тому времени у меня не было возможности найти остальные вредоносные вставки. И поэтому я решил просто удалить все шаблоны и переустановить на “дефолтный” вариант. Это конечно помогло.

Все дело было конечно в шаблоне как вы догадались. Те, что “бесплатные” и “русифицированные” это как “группа риска”, то есть велика вероятность поймать какую то заразу.

После этого некоторые пользователи стали обращаться с вопросами вроде “почему программы находит несуществующие страницы?”. То есть они даже и не предполагали, что на сайте может быть что то “лишнее”. Иными словами, если в программе есть внешние (исходящие) ссылки, а пользователь их не может найти ни в коде ни на странице (визуально), то скорее всего речь идет о “клоакинге” то есть идет разная выдача контента для пользователя и для поисковой системы.

Для себя выяснил, что оказывается многие программы (для анализа сайта) и сервисы стараются быть в новых трендах и учитывают показания как в современных браузерах, НО поисковые системы (яндекс в частности) используют USER AGENT еще довольно древний и поэтому “видит” сайт по другому. Программа Linkoscop использует тот же самый юзер агент что и яндекс, поэтому находит то что не видят другие.

Надо ли объяснять, что клоакинг приводит в различного рода санкциям со стороны ПС? Я думаю это и так понятно.

Итак, что мы имеем в итоге по безопасности:

1. Программа находит все внешние (левые) ссылки на сайте, и часто те, о которых ничего неизвестно владельцу сайта.

Лечение: Стараться не использовать бесплатные шаблоны (для любых CMS) или плагины от неизвестных разработчиков. Если все же используются шаблоны и плагины то нужно дать сайту испытательный срок (примерно месяц), что бы отслеживать активность на предмет появляются ли несанкционированные ссылки и сверка показаний программы и визуального наблюдения страницы (кода).

Если обнаружены несоответствия то лучше удалить шаблон и использовать по умолчанию “дефолтный”. Подчистить файлы на сайте и проверить компьютер на наличие вирусов. Желательно обновить движок (или переустановить).

2. Программа определяет “клоакинг” (разную выдачу контента для пользователя и для ПС).

Лечение: см. пункт 1 + периодическая проверка сайта и сверка данных.

3. Проверка доступности “закрытых” разделов. Не так давно случился скандал из за того что на сайтах были проиндексированы “конфиденциальные” данные. Все дело было в том, что владельцы неправильно (не корректно) закрыли служебную информацию. Так вот, программа может сканировать сайт с учетом директив файла robots.txt и поэтом сразу становится видно, что может быть показано пользователю, а что нет.

Лечение: Проверять корректность закрытия страниц и разделов непосредственно у яндекса: http://webmaster.yandex.ru/robots.xml

Принимая во внимание эти данные, вы можете быть уверены, что ваш сайт не является разносчиком заразы и не попадет под фильтры из за некачественного ( о котором вам неизвестно) контента.

Удачи Вам в продвижении.

LINKOSCOP 4.1 мастер внутренней перелинковки сайта

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *