+ індексація архівів дозволяє пошуковим системам швидше знаходити сторінки, заховані далеко від головної
+ індексація дозволяє архівів передавати вагу кінця сторінки за рахунок внутрішньої перелінковки
- архіви - це дубльований контент, а він розмиває вага основної сторінки
- в видачу замість основної сторінки може потрапити урізана сторінка з архіву, вона гарантовано буде бовтатися в самому низу, не отримуючи переходів
Очевидно, ніхто точно не знає, як конкретно працюють пошукові системи, тому і висловлюються взаємовиключні аргументи. Крім того, відповідь на це питання напевно змінюється разом зі зміною алгоритму роботи пошукових систем (і, само собою, є ситуації, коли потрібно максимізувати число сторінок в пошуку). Звідси два питання до шановного товариства:
1. Якого підходу, з огляду на останні зміни пошукових алгоритмів, дотримуєтеся ви?
2. Якщо Яндекс індексує в рази більше сторінок, ніж міститься в файлі sitemap.xls, чи означає це, що йому в принципі пофіг на цей файл, і забороняти індексацію (якщо забороняти) потрібно через robots.txt. Гугл, здається, цим не страждає.
Заранее спасибо за відповіді.
2. Якщо Яндекс індексує в рази більше сторінок, ніж міститься в файлі sitemap.xls, чи означає це, що йому в принципі пофіг на цей файл, і забороняти індексацію (якщо забороняти) потрібно через robots.txt. Гугл, здається, цим не страждає.
Це для Яндекса не більше, ніж рекомендація, приблизно як robots.txt для Гугла. Правильний сайтмеп повинен генеруватися автоматично і не містити посилання на вже проіндексовані сторінки, якщо мова йде про великі проекти, якщо про маленьких, то він, в принципі, не потрібен.
+ індексація архівів дозволяє пошуковим системам швидше знаходити сторінки, заховані далеко від головної
+ індексація дозволяє архівів передавати вагу кінця сторінки за рахунок внутрішньої перелінковки
Досить спірно. Така перелинковка неефективна в більшості випадків.