Сьогодні обговоримо 4 топові технічні помилки пошукової оптимізації, які ви, швидше за все, не зможете знайти при стандартному аудиті сайту автоматизованими SEO-інструментами. Протягом всієї історії розвитку пошукової оптимізації сайтів люди сперечаються про плюси і мінуси використання спеціалізованого софта.
З одного боку, ніяка програма не замінить стратегію і тактику досвідченого SEO-фахівця. З іншого – просто нереально вручну перевіряти тисячі або мільйони сторінок на наявність кожної можливої проблеми.
На щастя для індустрії, за останнє десятиліття було створено безліч нових інструментів SEO-аудиту. І деякі з них міцно утримують лідерство в галузі.
Розробники таких сервісів, як Screaming Frog або Ahrefs надають нам з вами велику послугу, продовжуючи вдосконалювати свої творіння. Вони допомагають SEO-фахівцям ефективніше аудіювати сайти і давати корисні поради клієнтам.
Проте навіть найкращі та найсучасніші інструменти аудиту не можуть знайти чотири важливі технічні проблеми SEO, які можуть завдати шкоди вашим проектам:
- Петля канонічного редиректу.
- Сторінки, зламані хакерами.
- Визначення JavaScript-посилань.
- Контент, прихований за JavaScript.
- Чому софт не знаходить ці проблеми
- SEO-інструменти, необхідні для виявлення цих проблем
- Програма для веб-краулінгу
- Google Search Console
- Проблема №1: петля канонічного редиректу
- Як виявити петлі канонічного редиректу
- Проблема № 2: сторінки, зламані хакерами
- Як виявити зламані сторінки
- Використовуйте Google Search Console
- Проблема № 3: Визначення JavaScript-посилань
- Як знаходити JavaScript-посилання на великих сайтах
- Проблема № 4: вміст, прихований за JavaScript
- Інструмент не повинен замінювати фахівця
Чому софт не знаходить ці проблеми
Деякі з цих проблем можна виявити за допомогою софта, але вони не настільки поширені, щоб розробники додавали відповідний функціонал в свої програми. Інші знайти роботами в принципі неможливо.
Як це часто буває в SEO, деякі проблеми можуть по-різному впливати на сайти, і все залежить від контексту. Саме тому більшість професійних інструментів їх не підсвічують у своїх звітах (щоб не плутати оптимізаторів).
SEO-інструменти, необхідні для виявлення цих проблем
Перш ніж занурюватися безпосередньо в самі проблеми, визначимося з інструментарієм, який буде нам з вами допомагати в пошуках.
Програма для веб-краулінгу
Незважаючи на те, що більшість інструментів не виявляють ці проблеми «за замовчуванням», часто можна внести певні правки в Налаштування, які допоможуть в пошуках.
Для цього можна використовувати такий софт, як, наприклад:
- Screaming Frog;
- Sitebulb;
- OnCrawl;
- DeepCrawl.
Не так важливо, якому саме виробнику ви віддасте свою перевагу. Головне, щоб інструмент:
- міг сканувати весь веб-сайт цілком, карту сайту і список URL-адрес;
- мав можливість користувальницької настройки для пошуку і вилучення даних.
Google Search Console
Це само собою зрозуміло, але про всяк випадок варто відзначити. Вам буде необхідний доступ до Google Search Console, щоб провести технічний SEO-аудит. Для виявлення деяких проблем потрібні Історичні дані по проекту.
Проблема №1: петля канонічного редиректу
Петля канонічного редиректу виникає, коли для сторінки сайту прописаний тег canonical, який вказує на інший URL, який, в свою чергу, перенаправляє на вихідну сторінку. Це досить рідкісна проблема. Але на практиці є випадки, коли вона завдає величезної шкоди.
Чому це має значення
Canonical надає пошуковій системі переважний для індексації та ранжирування URL. Коли Google виявляє канонічну URL-адресу, відмінну від поточної сторінки, вона може почати рідше сканувати поточну сторінку.
Таким чином, Google почне частіше переглядати веб-сторінку з 301-м перенаправленням, яка посилає Googlebot сигнал про петлю редиректу.
Незважаючи на те, що Google передбачає можливість зробити перенаправлену сторінку канонічною, редирект на попередній URL є не дуже зрозумілим сигналом.
У підсумку ви можете на 100% оптимізувати конкретну сторінку на вашому сайті, прокачати її посиланнями, але вона все одно не буде отримувати трафік з органічного пошуку і конвертувати його в продаж. Саме через цю проблему.
Як виявити петлі канонічного редиректу
Незважаючи на те, що ця проблема безпосередньо не показується ні в одному зі стандартних звітів сучасних SEO-інструментів, її досить просто виявити:
- Запустіть ваш улюблений софт для SEO-аудиту. Обов’язково проскануйте карту сайту, крім стандартного сканування краулером.
- Перейдіть до звіту про canonical і експортуйте всі канонічні URL-адреси. Тільки не ті, які обійшов робот, а ті, що вказані в тезі canonical.
- Запустіть нову перевірку за цими адресами і подивіться на коди відповідей. Всі URL – адреси повинні повертати код відповіді зі статусом 200.
Проблема № 2: сторінки, зламані хакерами
Злом сайтів зловмисниками – тема не нова. Більшість досвідчених SEO-фахівців хоча б раз у своїй практиці стикалися з ситуаціями, коли хакери тим чи іншим чином зламують захист сайту, щоб заподіяти шкоду або заробити на цьому.
Відносно саме SEO, зараз поширені такі види злому:
- Маніпулювання пошуком сайту. Це відбувається в тих випадках, коли сторінки результатів пошуку по сайту відкриті для індексації. Зловмисник ставить купу зворотних посилань на такі сторінки з нерелевантними запитами. Таке часто зустрічається в гемблінгу і фармі.
- Маніпулювання 301 редиректом. Це відбувається, коли хтось отримує доступ до сайту, створює на ньому сторінки з певної теми, і домагається їх індексації. Потім з таких сторінок робиться 301 редирект на сторонній сайт.
- Захоплення сайту. Це найпростіша атака. Хакер здійснює маніпуляції з кодом сайту і робить його непридатним для використання. Ну або, принаймні, псує індексацію.
Існують десятки видів злому сайтів, які можуть вплинути на SEO. Тут головне підтримувати належну безпеку проекту і регулярно (хоча б раз на тиждень) робити бекапи.
Чому це має значення
Основна причина, по якій злом шкідливий для SEO (крім очевидних), полягає в ручних санкціях з боку пошукових систем. Яндекс або Google виявляють, що на вашому сайті функціонує шкідливе ПЗ і накладають фільтр.
Як виявити зламані сторінки
На щастя, в нашому з вами арсеналі є не тільки інструменти, здатні запобігти або пом’якшити удар від злому, але і софт для пошуку проломів.
На жаль, більшість з подібних інструментів шукають тільки шкідливе ПЗ (malware). А деякі хакери вміють замітати сліди. Однак все одно є способи дізнатися, чи не був сайт зламаний в минулому.
Використовуйте Google Search Console
Перевірте Звіт про заходи, вжиті вручну. З нього ви дізнаєтеся, чи накладені зараз на сайт санкції. Перевірте Звіт про ефективність вмісту в результатах пошуку. Дивіться на все, що вибивається із загальної тенденції. Різкі злети або падіння графіка можуть вказувати на злом. Перегляньте список сторінок і пошукові запити. При зломі серед них можуть з’явитися нерелевантні сутності, в тому числі на іноземних мовах. Перевірте Звіт про покриття. Шукайте серйозні зміни в кожному підзвіті.
- Перевірте облікові записи користувачів веб-сайту
- Перегляньте всіх користувачів, які мають доступ в адмінку вашого сайту. Шукайте незнайомі облікові записи.
- Перевірте журнал (лог) активності на сайті.
- Переконайтеся, що у всіх облікових записів включена двофакторна авторизація.
- Використовуйте спеціальні інструменти для онлайн-сканування
- В інтернеті існує маса сервісів для сканування сайту на предмет наявності шкідливих програм. Але рідко який софт може визначити, чи був ваш сайт зламаний раніше.
Як варіант, можна використовувати інструмент “Have I Been Pwned?”. Він підкаже вам, чи були ваші адреси електронної пошти скомпрометовані витоком даних.
У наш час дуже багато людей використовують одні і ті ж паролі для всього. Часто великі організації встановлюють слабкі паролі для корпоративних акаунтів, що загрожує безпеці їх веб-сайтів.
Проблема № 3: Визначення JavaScript-посилань
Представники Google неодноразово заявляли, що пошукова система не сканує і не переходить за внутрішніми посиланнями, створеними за допомогою JavaScript.
Історично склалося так, що SEO-фахівці шукали JS-посилання, вручну переглядаючи сторінки сайтів (або орієнтувалися на глибину вкладеності в звітах). Зараз же вже можна більше покладатися на софт в цьому питанні.
Чому це має значення
Googlebot не краулить JavaScript-посилання на веб-сторінках.
Як знаходити JavaScript-посилання на великих сайтах
Більшість SEO-інструментів не можуть виявити JS-посилання, за замовчуванням. Але в софт можна внести невеликі зміни, які вирішать дану проблему. Для цього потрібні спеціальні інструменти пошуку.
На жаль, браузери не відображають вихідний код в DOM, тому ми з вами не можемо шукати “onclick” або щось в цьому роді. Але, в якості альтернативи, є кілька поширених типів коду. Тільки не забудьте вручну перевірити, що це дійсно JS-посилання.
- <button>. Більшість розробників використовують тег кнопки для запуску подій JS. Не думайте, що всі кнопки є JS-посиланнями, але їх ідентифікація може допомогти зменшити проблему.
- data-source. “Джерело даних”. Підтягування файлу для використання коду при виконанні дії (начебто правильно написав, поправте мене в коментарях, якщо що). Часто використовується в JS-посиланнях.
.js. Подібно атрибуту data-source, деякі HTML-теги тягнуть зовнішній файл JavaScript, щоб знайти вказівки для виконання дії.
Проблема № 4: вміст, прихований за JavaScript
Це одна з найнеприємніших проблем, жертвою якої стають багато розробників. На сайті купа цікавого контенту, але власник вирішує відображати його тільки в разі активної взаємодії з інтерфейсом.
Однією з кращих практик є поєднання хорошого контенту з хорошим UX. Але SEO при цьому страждати не повинно. І для таких проблем є обхідний шлях.
Чому це має значення
У реальному житті Google не клацає по елементах ваших веб-сторінок. Тому, якщо розкриття контенту (не представленого в DOM) вимагає активної взаємодії з інтерфейсом сайту, пошуковий робот його не виявить.
У Яндекса недавно з’явився в Вебмастері новий інструмент на цю тему: «Рендеринг сторінок JavaScript». За ідеєю, він дозволяє роботу Яндекса індексувати сайти, контент яких формується через JavaScript. Але у мене поки немає практичних даних (якщо у вас є – напишіть в коментарях). Як знайти вміст, прихований за JavaScript
Тут буде складніше, ніж в попередніх пунктах. Як і у випадку з будь-яким іншим технічним аудитом, проведеним за допомогою спеціалізованого інструменту, вам необхідно буде вручну перевірити всі знайдені проблеми.
Щоб виявити прихований контент, досить перевірити DOM на веб-сторінці.
Для пошуку прихованого контенту:
- Запустіть аудит за допомогою спеціального пошуку. Використовуйте маркери, які описувалися в проблемі з JS-посиланнями.
- Перевірте кількість символів. Подивіться всі сторінки, на яких краулер виявив підозріло мало тексту.
- Перевірте, чи відповідає це дійсності.
Інструмент не повинен замінювати фахівця
У міру накопичення досвіду, SEO-фахівець вчиться використовувати інструменти, як Інструменти, а не замінювати ними себе. Софт не повинен визначати вашу стратегію. Він потрібен для того, щоб допомогти виявити проблеми в масштабі.
У міру виявлення таких незвичайних проблем, як описані вище в статті, додавайте їх в свій список (чек-лист) для SEO-аудиту, і не забувайте перевіряти в майбутньому.