Новости
- Перевірка сайту на фільтри Яндекса
- Як вивести сайт з-під фільтра?
- Аналіз контенту на спам
- Бінго!
- що зробили
- В підсумку:
- висновки:
Клієнт: фабрика меблів на замовлення. Сайт з каталогом продукції.
Прийшов клієнт, незадоволений відвідуваністю з пошуку. Хотів разові роботи по SEO-оптимізації .
Почали вивчати ситуацію з пошуковим трафіком в Метриці. Відразу кинулося в очі, що з Яндекса 99% відвідувачів приходить по брендовим запитам. Брендові, або вітальні запити - це запити, в які входить назва компанії, за ним сайт за замовчуванням в топ-1. А ось сторінки товарів і категорій трафік з Яндекса майже не збирали. За запитами «купити диван», «меблі на замовлення» і подібним комерційним запитам сайту не було навіть в топ-50.
Перевірка сайту на фільтри Яндекса
Припустили, що сайт отримав штрафну санкцію від Яндекса (фільтр). Пошукові системи карають неякісні сайти - знижують позиції за запитами або викидають з пошуку. Раніше наявність санкцій можна було визначити тільки за непрямими ознаками. З 2015 року інформацію про фільтри показує Яндекс Вебмайстер в розділі «Порушення». Правда не про всі, тому перевіряти все одно треба.
Зайшли в Веб-майстер - дійсно, фільтр.
Як вивести сайт з-під фільтра?
Недостатньо просто позбутися від переспама на сайті, потрібно так само провести і внутрішню оптимізацію - поліпшити все, що можливо. Після усунення порушень натиснути кнопку в вебмайстрів «Я виправив». Якщо пошуковик вирішить, що переспить дійсно зник, позиції відновляться. Кнопку можна натиснути тільки раз в 30 днів. Тобто найменша помилка може затягнути процес виходу з-під фільтра ще як мінімум на місяць.
Тому ми робили планові роботи по оптимізації, паралельно аналізуючи причини фільтра. Санкції Яндекса описані тут . Орієнтуючись на симптоми, ми виділили 3 можливих причини фільтра:
- Переспа
- переоптімізацію
- Неоригінальний, даремний контент
З'ясували у замовника, чи використовував він спамние методи просування: сам або за допомогою підрядників. Відповів, що раніше сайт взагалі не просувався. Тим не менш, ми все перевірили самостійно: з досвіду знаємо, що клієнти часто замовчують про попередньої історії просування сайту. Вони бояться, що ми будемо перекладати відповідальність на минулих підрядників. Мовляв, це вони вам сайт зіпсували, а не ми.
Буває, що клієнт і не підозрює про те, що його сайт просувався чорними методами.
Наприклад, довіряв його наповнення та підтримку адміністратору, а той зробив сторінку обміну посиланнями для розкрутки. Або додав шкідливий код, встановлюючи плагін. Або програміст уявив себе спеціалістом з просування і розмістив прихований текст з ключовими словами на сторінці. Через незнання в SEO можна наробити самому собі багато неприємностей.
Аналіз контенту на спам
Почали перевіряти контент. Самі розповсюдженням методи чорного SEO - це Переспа в текстах, коли статтю перевантажують ключовими запитами, або розміщують прихований текст для роботів. Прихованого контенту ми не виявили.
Перейшли до перевірки текстів на сторінках категорій і товарних описів. Клієнт замовляв їх написання у копірайтера і був упевнений, що статті унікальні, а значить якісні. Це одна з найчастіших помилок - вважати, що унікальний текст і якісний це одне і те ж. Показник унікальності тексту існує тільки для пошукових роботів, людям він ні до чого. Тексти копірайтерів по 100 рублів за 1000 символів, на 100% унікальні при перевірці різними сервісами. Але вони неінформативні і не несуть ніякої користі читає.
Раніше переспамленние тексти працювали, і з їх допомогою можна було просувати сайти. Сучасні пошукові системи розглядають не тільки унікальність і наявність ключових запитів, вони оцінюють, як на текст реагують користувачі. Грубо кажучи, якщо текст не читають, пошуковик вважає його непотрібним.
З вдосконаленням пошукових систем вимоги до контенту підвищуються. Змінюється «поріг спамності». Це термін, яким оперують погані SEO-копірайтери. Чи означає цей поріг - скільки максимум ключових слів можна впихнути в статтю, щоб не забанили. Якщо писати текст природним мовою, не переживаючи про входженнях запитів по ТЗ, розуміючи, навіщо він потрібен на сторінці, для користувачів, а не для роботів - пошукові системи це оцінять. Якщо текст читатимуть, ні про які «порогах спамності» годі й думати.
На сайті ми мали справу з класичним дешевим SEO-копірайтинг. Сторінка з м'якими меблями на замовлення повідомляла читачеві про те, що «в її обіймах ми розслабляємося після робочого дня, безтурботно мріємо, розмірковуємо про час або ж просто насолоджуємося її видом в своєму улюбленому інтер'єрі». І далі в тому ж дусі. Це явно не те, що допомагає відвідувачеві вибрати м'які меблі. Він і без тексту знає, що на дивані можна спати, інакше не хотів би його купити.
Бінго!
При більш детальному аналізі ми знайшли на сайті ще й прихований з меню розділ зі статтями. Статті представляли собою величезні SEO-онучі про меблі, перенасичені ключовими словами. Теж одна з найчастіших помилок - вести блог для пошукових систем, а не для читачів. Схема проста - береться набір запитів і під них пишуться статті, неважливо якої якості і про що. Їх завдання тільки залучити людини з пошукової системи за запитом. Однак зі спамние статтями це не працює. Перевірили по Метриці - за всю історію сайту цей розділ приносив жалюгідні крихти трафіку.
Отже, больові точки знайдені - заважає просуванню саме низькоякісний контент. Вирішили видалити прихований розділ зі статтями, а інші тексти на сайті переписати. Однак клієнт запротестував, тексти в категоріях товарів йому подобалися. Домовилися про компроміс: чи не переписувати цілком, а прибрати зайві входження ключових слів, таким чином знизити заспамленності. Прихований розділ однозначно видаляємо.
що зробили
Роботи по зняттю фільтра
- Аналіз вхідного трафіку
- Перевірка на прихований контент
- Перевірка на віруси
- Рерайт спамних текстів
- Видалення розділу з SEO-статтями
Роботи по внутрішній оптимізації
- SEO аудит, виявлення проблем
- Чистка дублів сторінок
- заповнення метатегов
- Оптимізація контенту - заголовки, зображення, тексти
- Налаштування robots.txt
- Налаштування sitemap.xml
- Оптимізація HTML коду
Після виконання всіх робіт натиснули кнопку «Я виправив» в інтерфейсі Вебмастера і стали чекати результатів.
В підсумку:
Через місяць санкції зняли, і трафік з Яндекса по небрендові фразам виріс. З 10 відвідувачів на тиждень до 60. Зростання трафіку пов'язаний не тільки зі зняттям санкцій, а й з роботами по внутрішній оптимізації.
Показів в пошуку теж стало більше. Це говорить про те, що пошукова система вважає сайт якісним.
База для SEO побудована. Тепер потрібно просуватися далі, і дотискати запити до топ-10.
висновки:
- неякісні тексти і маніпуляції з контентом можуть загнати під фільтр
- вимоги пошукових систем до якості контенту постійно підвищуються
- потрібно моніторити стан сайту через інструменти пошукових систем: Яндекс Вебмайстер і Google Search Console