Новости
Зміст статті
Безпека сайту - один з показників ранжирування. Наявність шкідливого коду - причина для того, щоб пошукові системи позначили ресурс як небезпечний, що істотно позначиться на відвідуваності, а після - і на позиціях. Однак стандартні комп'ютерні антивіруси на «бачать» шкідливий код в файлах сайту. Чому?
Дійсно, антивірусне ПЗ, призначене для десктопів і ноутбуків, не завжди здатне виявити віруси, спеціально написані для сайтів. Справа в тому, що у них інший підхід до функціонування. Тому на практиці комп'ютерні антивіруси здатні виявити всього до 40% хакерських perl і php скриптів. Висновок тут один - використовувати такі програми для діагностики веб-проекту небезпечно.
Якщо пропустити хоч один хакерський бекдор або веб-шелл, ресурса буде заражений заново. А там і до санкцій пошуковиків недалеко. Отже, потрібно застосовувати тільки спеціалізовані інструменти та сервіси для перевірки сайтів. Причому, їх застосування повинно бути регулярним, щоб можна було вчасно виявити небезпеку. Наведу список перевірених і діючих сервісів, що забезпечують швидку діагностику інтернет-ресурсів:
- https://2ip.ru/site-virus-scaner/
- ресурс, який перевіряє сайт на віруси на думку пошукових систем. Враховуються всі можливі позначки в пошуку і видається повідомлення про них;
- virustotal.com
- сервіс, що забезпечує перевірку сайту на наявність в чорних списках десятків антивірусів і антивірусних сервісів;
- DrWeb
- онлайн сканер від популярного в Росії однойменного антивіруса. Відрізняється оперативним оновленням сигнатур і пошуком замаскованих зловредів;
- ReScan.pro
- веб-проект для перевірки сторінок на віруси, наявність недобросовісної реклами, прихованих редиректів, небезпечних віджетів і санкцій від пошукачів;
- Quttera.com
- веб проект для перевірки декількох десятків сторінок ресурсів на наявність шкідливих скриптів і файлів;
- sitecheck.sucuri.net
- веб-проект, детектирующий Інжект фарм-партнерок, спамних посилань і інших сигнатур шкідливого коду, які часто використовують на Заході. Працює з різними юзер-агентами і рефері. Допонлітельно сканує відомі уразливості веб-сверера і CMS сайту;
- Redleg's File Viewer
- один з найстаріших, але не застарілих продуктів для тестування сайту на віруси. Відрізняється можливістю участі користувача і корекції способів тестування;
- AI-BOLIT
- сканер, перевіряючий файли сайту, що знаходить віруси і шкідливі скрипти на хостингу, що демонструє критичні уразливості на движку.
- SiteSecure
- перевірка на віруси, руткіти та інші зловредів;
- http://xseo.in/viruscan
- останній в списку, але не останній за значимістю сервіс перевірки. Відмінно вміє знаходити злодійство трафіку, приховані розсильників спаму. Задіє технології відгуків від реальних користувачі.
У чому відмінності у визначенні вірусів на сайтах роботами пошукових систем і комп'ютерними антивірусами? Ось кілька факторів:
- Механізми поширення вірусів на уражених інтернет-ресурсах. Вірус здатний визначати браузер і набір плагінів, перевіряючи їх за списком винятків. Наприклад, якщо у вірусу не виходить заразити браузер, він видає йому «чистий» сайт без шкідливого коду. Робот пошукової системи в такий список часто не потрапляє, тому «бачить» шкідливий код. Часто вірус здатний видавати заражений сайт не всі клієнтам, а з певною вибіркою - наприклад, одному зі ста. Це дозволяє вірусу довго залишатися невиявленими.
- Антивіруси перевіряють сайти, використовуючи свої бази, які оновлюються з певною затримкою. Через це різні антивіруси детектируют віруси на сайті в різний час, з різницею в кілька днів ... іноді тижнів.
- Пошукові системи, як і антивіруси, аналізують поведінку скриптів сайту. Результати цього аналізу дають можливість зробити висновки про наявність шкідливого коду. Так як у всіх антивірусів і пошукових систем різні алгоритми, і вони по-різному сприймають різні скрипти. У таких ситуаціях можливі помилкові спрацьовування пошукових алгоритмів.
Є три ключові чинники, поєднання яких забезпечує безпеку сайту:
- Хостинг (його серверна частина).
- Програмна частина (скрипти, движок).
- Адміністрування (допуск до сайту відповідальних і знаючих людей).
Варто пропустити один із напрямів - і у сайту буду великі проблеми. Захист хостингу - завдання його адмініструє персоналу (виняток - виділений сервер. Тоді за його безпеку відповідає власник). Захист програмної частини - це вибір надійного движка, його своєчасні оновлення. Це установка тільки перевірених плагінів і скриптів, коректна настройка прав доступу до тек і файлів, надійний захист входу в адміністративну панель.
При проблемах з безпекою сайту або наявність підозр, слід виконати комплексну автоматичну перевірку. Рекомендується не рідше 1 разу кожні 2-3 місяці додатково проводити глибоку ручну перевірку, за участю досвідченого фахівця, з метою оперативного пошуку та усунення можливих проблем в роботі сайту.
Чому?У чому відмінності у визначенні вірусів на сайтах роботами пошукових систем і комп'ютерними антивірусами?