Великі сайти іноді варто розбивати на десятки-сотні поменше

Кілька років тому ми з друзями запустили близько 200 сайтів-довідників, які об’єднувалися в 30 сіток.
Кожна сітка – це 5-10 сайтів в одній тематиці, але в різних гео.

Наприклад, довідники банкоматів в США, Німеччині, Франції, Фінляндії і т. д. Або довідники аптек в Австралії.
І всередині кожного сайту десятки тисяч піддоменів: на кожне місто, штат, район – піддомен.

Грошей сайти принесли небагато (за весь час ми витратили близько 10к$ і заробили 50к$), але досвід отримали величезний:

  1. як адмініструвати таку кількість сайтів.
  2. які висновки можна робити на великих обсягах трафіку.
  3. як заганяти в індекс і утримувати десятки мільйонів сторінок.
  4. що і в яких ситуаціях краще для Гугла: піддомени або папки.
  5. ціна трафіку в порівнянні по країнах.
  6. чому оптимізація краулінгового бюджету – критично важливо для великих сайтів.
  7. як просувати сотні тисяч піддоменів посиланнями.

І зараз цей досвід добре допомагає в нових проектах.

Наприклад, клієнт звернувся із завданням спроектувати і прописати стратегію просування для сайту, який буде визначати якість повітря в кожному місті світу, з деталізацією по вулицях і кварталах (тематику я змінив, але суть однакова).

І перша думка клієнта: давайте робити весь світ на одному домені, адже можна буде круто навалювати посилальне і використовувати ефект синергії.

І, можливо, так ми б і зробили, не будь у мене досвіду з цими довідниками.

Проблема в тому, що кожна вулиця у світі була б на сайті у вигляді окремої сторінки. Уявімо, що це 50 мільйонів сторінок.

І весь трафік на сайт повинен приходити з мікронч запитів у форматі “якість повітря проспект Свободи Львів”.
Така стратегія отримання трафіку працює тільки в тому випадку, якщо в індексі знаходяться мільйони сторінок. Тому що при нульовій конкуренції, Індекс – це єдина умова для того, щоб отримувати трафік за запитами.

Але Гуглу плювати на вашу стратегію і потреби. Він має сервери, плату за ці сервери та обмежені ресурси. Тому він не буде при здоровому глузді давати новому ноунейм сайту індекс в десятки мільйонів сторінок. Це занадто дорого.

З нашого досвіду, максимум, який може отримати новий сайт в перші місяці життя – до 500к сторінок і не більше 50% від загальної кількості.

Тобто якщо на сайті 200К сторінок, значить при правильних діях в індекс залетить приблизно 100к сторінок.
Якщо на сайті мільйон – залетить 500К.якщо на сайті пару мільйонів – найчастіше все одно залетить 300-500К сторінок. Можливо в інших тематиках інакше, але у нас – так.

Саме тому я запропонував розбити сайт по країнах, робити кожну країну на національному домені і міста – на піддоменах.

Чому так?

Плюс:

  • Гугл любить національні домени по локальних запитах.
  • Коли ми дробимо проект на 100-200 сайтів, ми отримуємо набагато більший потенціал індексації: замість 300-500к проіндексованих сторінок з одного сайту, ми можемо отримати десятки мільйонів сторінок з сотні сайтів.
  • Піддомени грають на нашу користь, працюючи в таких випадках набагато краще.
  • Диверсифікація ризиків.

Мінус:

  • Складніше просувати посилальним.
  • Складніше адмініструвати, без загальної CMS і однакової бази даних – біда.
  • Треба платити за 200 доменів замість одного.

Але з нашого досвіду плюси настільки сильно переважують мінуси, що ними можна знехтувати.
Тому при створенні великих проектів рекомендую розглядати всілякі варіанти технічної реалізації та враховувати краулінгові обмеження. Іноді це важливіше посилального, контенту і юзабіліті. Тому що безглуздо вилизувати кнопочки, якщо 99% твого сайту не в індексі.

Оцініть статтю
Додати коментар