Класне безкоштовне розширення для Chrome для розрахунку статичної ваги сторінок і інших технічних параметрів.
Огляд
Проведіть аудит сайту: розрахуйте статичну вагу сторінок, знайдіть часткові дублікати, технічні помилки та погані тексти.
LinksTamed – це повнофункціональний парсер для аудиту сайту, який дозволяє перевірити розподіл статичної ваги, оцінити якість текстів, знайти часткові дублікати, провести аудит технічних помилок і багато іншого.
Ви зможете дізнатися, чи потрапляє на сторінки що просуваються потрібна кількість статичної ваги, тобто який авторитет серед інших внутрішніх сторінок сайту вони мають і навпаки, що другорядні сторінки не отримують зайвого. Крім цього, контролюйте витік ваги через вихідні посилання і ті адреси, які закриті від індексації, а також знайдете помилки в структурі сайту і самих посиланнях. Значення статичної ваги документа також показує ймовірність потрапляння на нього користувача з інших сторінок сайту. І цей момент буде важливий завжди.
Підвищена точність розрахунків досягається завдяки завантаженню динамічного контенту сторінок через вкладки приватного вікна браузера, що дозволяє відчувати себе впевненіше зі сторонніми скриптами на сайті!
Що ж вміє цей парсер?
- Підрахунок статичної ваги сторінок;
- Інформація по кожному вихідному та вхідному посиланню;
- Супутній аудит сайту;
- Облік директив robots.txt з сайту або додавання власного;
- Облік meta тегів і директив X-Robots-Tag, rel=nofollow / ugc / sponsored;
- Збереження в .CSV і вивантаження старих з .CSV.
В основній таблиці ви можете подивитися статичну вагу сторінок, витік ваги, скільки витікає ваги можна зберегти, додавши одне посилання і скільки ваги передасть одне нове посилання зі сторінки.
LinksTamed також здійснює пошук часткових дублікатів, який знайде всі схожі документи і перевірить наявні Canonical і Clean-param. Він також автоматично склеїть всі досить схожі сторінки і відповідають умовам сторінки пагінацій, а також розбиті на сторінки тексти, щоб ви могли бачити більш реалістичну структуру сайту і розподіл ваг.
У новій версії LinksTamed також з’явився функціонал Web Scraping, який дозволяє зберігати потрібні поля зі сторінок сайту, включаючи файли, а також дає можливість розмічати посилання, в тому числі для їх подальшої фільтрації та перерахунків статичної ваги. І це на додаток до безлічі інших фільтрів.
Список інших можливостей LinksTamed:
- Підтримка HTTPS протоколу, www2 і т. д.;
- Підтримка адрес з доменами та адресами на основі будь-яких національних алфавітів;
- Підтримка SPA, PWA і т. п. JS сайтів з динамічним контентом;
- Природний обхід в межах домену або мультидоменний парсинг за списком;
- Перевірка на конфлікти X-Robots-Tag і meta директив;
- Аудит помилок в robots.txt, включаючи докладний пакет рекомендацій;
- Облік правил директиви Clean-param з robots.TXT і аудит конфліктів;
- Облік canonical всіх видів, включаючи Link HTTP header;
- Перевірка працездатності canonical, в тому числі схожості контенту, оповіщення про нестандартні ситуації та скасування недійсних канонічних рекомендацій;
- Евристична склейка пагінацій та її поєднань з канонічними рекомендаціями та дублікатами;
- Облік будь-яких редиректів, включаючи серверний, meta (в т. ч. з затримкою) і JS, оповіщення про можливі проблеми, циклічних, подвійних і багаторазових редиректах;
- Повне завантаження сторінок до події onload, відпрацювання скриптів і рендеринг, облік посилань типу “a href”, створених JavaScript;
- Можливість не тільки врахувати правила для робота, але і представитися сайту пошуковим ботом;
- Пошук посилань без анкорів, різних посилань-картинок без анкора у вигляді alt з виведенням списків в аудиті;
- Визначення типу файлу з його content-type;
- Перевірка всіх посилань ресурсів на доступність (внутрішніх і зовнішніх), включаючи зображення в srcset;
- Евристичний пошук повідомлень про помилки серверних скриптів в контенті сторінок і пошук фрагментів зіпсованого JavaScript-коду у видимому тексті;
- Висновок попереджень, якщо в HTML-коді багато коментарів і підключаються ресурсів;
- Графи для оцінки тексту на кожній сторінці: “всього слів”,”% слів без повторів” і нова метрика “якість акценту”, яка дозволяє оцінити документ з точки зору доповненої цінності його тексту, тобто наскільки унікальний сенс тексту збагачує сайт в цілому;
- Висновок списку словоформ зустрічаються 1 раз на сайті для подальшої перевірки орфографії;
- Попередження про змішаний контент: ресурси з http на сторінках з протоколом https;
- Рівень вкладеності від головної;
- Довідковий підрахунок кількості iframe (вагу не передають і не отримують);
- Підтримка древніх frame;
- Передача статичної ваги файлам, які приймають вагу (pdf, xml, doc і т. п.);
- Висновок в таблиці кількості вхідних на сторінку посилань, що передають вагу, а також nofollow;
- Графа в таблиці – вхідні на сторінку посилання: звичайні, nofollow (+ugc і sponsored);
- Налаштовувана кількість потоків парсингу: кожен потік використовує своє ядро процесора для виграшу у швидкості;
- Облік помилок зависання і будь-яких інших помилок в процесі завантаження, безпечне вивантаження з пам’яті сторінок з завислими скриптами, деблокування діалогових вікон;
- Можливість виключати посилання на сторінки та сайти з розрахунків і провести оцінку ваг в певній області на сайті, наприклад, між картками товарів;
- Робота з вагою висячих вузлів (dangling nodes) – сторінок і файлів індексованих типів, які не мають вихідних посилань – вага таких тупикових документів розпорошується по всіх вузлах сайту. Посилання на інші документи також є висячими вузлами і повертають частину своєї ваги;
- Рекомендації по оптимізації рендеринга, включаючи попередження про занадто довгі або такі, що не вміщаються по ширині сторінок;
- Перевірка URL-адрес на довжину і сміттєві фрагменти;
- Попередження, коли сторінка не закрита від індексації і при цьому не має вихідних посилань;
- Використання проксі-сервера, зазначеного в налаштуваннях браузера;
- Сотні інших перевірок.
Оптимальні настройки вже виставлені, просто починайте парсинг! Всі види даних будуть підраховані автоматично і виведені в таблицю внизу головної сторінки.