Як безкоштовно здобувати унікальний контент
Всім привіт. Мене звуть Роман і спеціально для конкурсу «Конкурс" Корисна тема ". Приз - 1500 $ (WMZ). 30 призових місць! »Я написав невелику статтю про те, як я безкоштовно отримую унікальний контент за допомогою Web Archive.
Багато досвідчених сеошникі скажуть, що тема давно спалена і не цікава, але мені здається, завжди цікаво прочитати про особистий досвід вебмастера. До того ж тема все також працює.
Пошук мертвих сайтів
Для початку нам потрібно знайти сайти, які вже припинили своє існування. У цьому нам допоможе сайт webdomainservice.net.
- Вибираємо вкладку "звільняються домени"
- Кінцеву дату вибираємо не раніше ніж 2 місяці до сьогоднішньої. За 2 місяці пошукові системи повинні вже видалити сайти зі своїх індексів.
- У віконці Webarchive вказуємо що нас цікавлять сайти з мінімум 30-ма збереженими сторінками в webarchive.
- Зазвичай я цей пункт пропускаю, але бувають випадки, коли потрібно знайти тематичний контент, тоді в це поле вписуємо ключове слово. Після цього будуть відібрані сайти, що містять в своєму імені потрібне вам слово.
- Закінчивши заповнювати поля тиснемо застосувати.
- Прокрутити сторінку вниз і натискаємо на іконку з ключами.
- У вікні вибираємо дані, які нас цікавлять. Ім'я сайту і кількість сторінок в вебархіве.
- Потім вибираємо формат файлу, що імпортується і натискаємо на іконку файлу (покажчик номер 5)
Знайшовши контент на сайті потрібно скопіювати рядок з тексту і пошукати її в Google, якщо дублікатів не виявлено, то копіюємо текст собі на комп'ютер.
Зібравши необхідну кількість текстів, переходимо до наступного етапу.
Перевірка унікальності текстів
Я перепробував безліч сайтів і програм для перевірки унікальності текстів і знайшов найпростіший і ефективний спосіб, це програма AllSubmitter і її модуль «Плагіат».
Викачуємо демонстраційну версію програми з офіційного сайту. (Можливостей демо версії на цілком вистачить). Заходимо в модуль «Плагіат».
Створюємо новий проект.
Вибираємо його зі списку.
У лівому меню натискаємо «Почати пошук».
Налаштовуємо параметри пошуку. Рекомендую поставити затримку не менше 20 і кількість потоків не більше 5.
Вставляємо текст на перевірку.
Після перевірки отримуємо інформацію про кількість дублів сторінки і відсотку входження (тобто кількості однакових фраз в документах). Тексти з входженням більше 30 відсотків я забраковивается.
Ось таким чином можна абсолютно безкоштовно отримувати контент для своїх потреб.
Виходить що зберігають.
Брав тільки унікальні матеріали, сайти існували кілька років тому, так що з індексу були повністю видалені.
Перевірив статті з вашого сайту, дійсно все унікальні, добре шукаються по шматках тексту. Взяв НЧ запит "Audi A1 quattro з повним приводом", в чистому браузері без історії, сторінка вашого сайту на першому місці в Гуглі, в Яндексі на 46.
Я ось думаю, якщо ви вважаєте що отримали санкції за вебархів, чому сторінки в індексі і нормально ранжуються по шматках тексту і запитам?
У мене є англ сайт який потрапив під зоопарк Гугл, так його навіть по шматках тексту знайти неможливо.
Може ще попрацювати над сайтом? Може справа не в контенті? Ось наприклад, ця нескінченна прокрутка на головній. Може посилального мало? Тематика дуже конкурентна.