Штучна накрутка ПФ працює в Google?

Поведінкові фактори можна розділити на внутрішні та зовнішні. Внутрішні фіксуються на сторінці результатів пошуку (SERP), зовнішні – на самому сайті, куди перейде Користувач.

На стороні сторінки пошуку, крім загального ранжирування, тестується найбільш прості гіпотези якості веб-сайтів. Найбільш поширена – так звана довжина кліка. Суть гіпотези в тому, що якщо сторінка повністю відповідає вимогам користувача, то у нього не буде причин повернутися на сторінку результатів пошуку.

Різні пошукові системи отримують і обробляють різні набори даних про поведінкові фактори.

Наприклад, Яндекс тимчасово пріоритезує релевантні посилання і проводить деяку подобу коротких A/B тестів. Залежно від результатів кожного посилання, він або зберігає пріоритет, або депріоритезує його.

З Google справи йдуть дещо складніше.

Представники пошукового гіганта слідували своїй звичайній манері спілкування і ніколи не давали вичерпного або прямого офіційного підтвердження взаємозв’язку поведінкових факторів і результатів ранжирування. Проте, є безліч непрямих тому підтверджень – від досить відомого кейса 2014 року до реєстрації патенту у 2019. Але все це було до великого оновлення оцінки зручності сторінок (https://developers.google.com/search/blog/2020/11/timing-for-page-experience) у 2021. Запуск був запланований на травень, але пізніше прийняли рішення викочувати оновлення поступово – починаючи з середини червня 2021 (https://developers.google.com/search/blog/2021/04/more-details-page-experience). повномасштабну реалізацію оновлення прогнозують до середини осені цього року.

Чому це все важливо?

Говорячи про штучну накрутку, ми найчастіше маємо на увазі симуляцію тієї чи іншої поведінки, яку пошуковий сервіс буде сприймати як позитивний сигнал для пріоритетного ранжирування.
Намагатися уникнути аналізу вашої сторінки або Сайту практично безглуздо – крім власних ресурсів у пошукових сервісів є доступ до безлічі зовнішніх джерел даних. Користь від синтетичних призначених для користувача сигналів також під питанням. З урахуванням зростаючого значення Core Web Vitals, симулювати повноцінні позитивні призначені для користувача сигнали стане набагато складніше.

Можна припустити, що сесії з мобільних пристроїв матимуть більшу вагу при оцінці результатів. Але навіть у випадку, якщо така симуляція вдасться, немає ніякої гарантії значущого позитивного ефекту при ранжируванні.

Що стосується метрик, то, крім базових індикаторів: показника відмов і часу на сайті, буде важливим цілий пакет ТЕХНІЧНИХ метрик. При наявності досить якісного хостингу, швидких серверів, гнучкої платформи і оптимізованого коду теоретично можна розраховувати на позитивний результат деяких експериментів з ранжируванням і поведінковими сигналами. Але в Google багаторазово нагадували, що синтетичні тести сильно відрізняються від результатів в реальному середовищі – метрики Lighthouse тому підтвердження.

Навіть зараз, ранжування в Google вважається менш схильним накруткам за рахунок поведінкових факторів. На відміну від Яндекса і ряду інших каналів, де накрутки процвітають вже пару років і поки ситуація не змінюється.

Основний недолік накруток коштом масового збільшення CTR цільових посилань – кумулятивний характер ваших результатів.

Тобто, припустимо ви увійшли в перші три результати або навіть потрапили в сніппет за X кліків. Так як сайт не відповідає очікуванням користувачів, ви привернете органічний трафік хвилеподібно і одноразово – ці користувачі швидше за все до вас не повернутися, а з падінням важливих поведінкових метрик посилання досить швидко випадуть з топа️️. І щоб повернутися як мінімум на ті ж позиції потрібно докласти в кілька разів більше зусиль і так кожен раз – в геометричній прогресії з кожним циклом.

Оцініть статтю
Додати коментар