Експеримент умисне видалення і sitemap для підвищення у видачі

Експеримент умисне видалення і sitemap для підвищення у видачі
Більшість сеошників користуються перевіреними методами просування: оптимізація контенту, оптимізація сайту, покупка посилань. Однак треба розуміти, що пошукові системи відмінно знають етапи просування і сайти, які користуються цими методами, дуже легко, як мінміум, просто визначити. Я завжди намагаюся просувати сайти шляхами, які далекі від думки мас, про один такий експеримент я хочу розповісти.

Думаю ніхто не буде сперечатися з наступним моїм твердженням: якщо ПС бачить, що над сайтом не працює сеошник, то вона буде більш ліберально ставитися до цього сайту. Поступово все до цього приходять: починають додавати природне Посилальне, купувати безанкорние посилання, перестають оптимізувати контент і т.д. Тобто ми вже прийшли до того, щоб наші сайти здавалися природними по посилальному і контенту. Однак ніхто не Думето про третій важіль - саме оптимізація сайту.

У якийсь момент я задав питання собі: ось у мене сайт, на нього ведуть тільки природні посилання, контент дійсно для людей, виходить в різний час ... Як ще може пошукова система дізнатися про те, що хтось «просуває» мій ресурс . Єдине, що залишається - це грамотно оптимізоване внутрішнє ядро ​​сайту, а саме правильний robots.txt, де закриті всі дублі, ідеальний sitemap з усіма сторінками і т.д. Ось навіть логічно, як може сайт, який нібито не просувається, мати грамотний robots і sitemap? По-любому хоч хтось, але радив щось по оптимізації, і ПС вже розуміє, що бонуси при ранжируванні такого ресурсу давати не треба.

Отже, суть експерименту. близько року тому я виніс це припущення і вирішив його перевірити, видалив на парі старих сайтів Роботс і sitemap (сайти були без особливих дублів), а також на парі молодих свідомо не ставив нічого.

Пройшов рік і можна підвести підсумки.

1) Один з ресурсів - англомовний сайт компанії, в якій я працюю CodingStaff. Як бачите, там немає ні того, ні того. Буквально через 1,5 місяці після видалення ресурс зайняв все топові позиції за основними ключам. Стату зі зрозумілих причин я показати не можу, але ви можете перевірити основні запити в гулі - dotnetnuke development, dotnetnuke skins і т.д.

Ще успішний варіант отриманий на одному стартапі, світити його поки не хочеться, а також на одному абсолютно молодому сайті (якщо для якогось ресерч, то пишіть, засвічений).

Вибірка мізерна, але тому це і експеремінт, а не твердження. Але задумка експерименту має право на обговорення. Я ж для себе вирішив уже ніколи не додавати сайт в аддурілку, не додавати без потреби (а ця потреба все ж буває часто) robots і sitemap.

P.S. я вже передбачаю питання, чому ж у мене на блозі є robots. Я відповім: WP автоматично створює цей файл і у всіх сайтів на WP він присутній. Навпаки, видаливши його, я б якось засвітився. Та й блог сеошний, так що маю повне право закрити всі непотрібне))

Але ось все ж чому чисті html сайти так добре просуваються? Може бути не тільки через відсутність зайвого коду, але і відсутності елементів, що вказують на просування ресурсу?