Задумався над питанням, як з неунікального тексту, зробити унікальний хоча б в очах пошукових систем. Відразу обмовлюся, що зараз я розглядаю тільки автоматичні варіанти роботи з контентом, при цьому на виході отримати хочеться по-можливості якісний і читабельний текст.
Всі методи баяніст, просто хочу зібрати в купу і проаналізувати.
Зараз різні словники синонімів вже гуляють у вільному доступі, і тільки ледачий не спробував цей метод.
Для російськомовних текстів метод заміни слів на синоніми працює набагато гірше, ніж для англійських текстів. Тут вже доводиться вникати в усі глибини морфології і принципи словотворів мови. Таку роботу ми проводимо вже деякий час, але поки хвалитися особливо нічим.
Наприклад, в кожному десятому слові тексту, імітувати друкарської помилки чи просто замінювати символи на html entities (треба подумати, чи можна так зробити). Текст залишається читабельним, але розбавляється «новими» словами.
Машинний переклад з однієї мови на іншу, або, наприклад, англійська-російська-анлійскій.
Нещодавно грався з Google Translate - дійсно, відмінно переводить, та й ще онлайн сервіс 🙂 Але якось це нецікаво, домогтися прийнятної якості без ручної правки поки неможливо.
Я якось вже згадував про цей метод, перевірений - працює. Це коли ми перемішуємо шматки тексту.
Зрозуміло, що якщо ми перемішаємо абзаци або пропозиції якоїсь статті - то сенс йде. Але якщо це база товарів (наприклад, amazon), і поміняти місцями в списку характеристики товару, то з точки зору сприйняття людиною сенс тексту не зміниться взагалі, але з точки зору бота, можливо, він стане більш унікальний (точні алгоритми нам звичайно не відомі ).
Але є спосіб перемішати і текст на зразок статті. Кожна пропозиція можна помістити в div, перемішати їх, а потім за допомогою CSS розставити по потрібних місцях. Хтось бачив таку реалізацію?
Сюди б я відніс ще більш глобальний метод, коли контент - це вінегрет, нарізану з багатьох джерел, потроху з кожного. За таким принципом, наприклад, працює BRush. Адже пошукові роботи швидше за все оцінюють всю сторінку цілком. Додайте сюди ще локальну унікалізації кожного блоку - і ми вже маємо дещо ...
Можна придумати й інші способи змішування контенту з різних джерел в один текст, тут все залежить від вихідного матеріалу і того, що ми хочемо отримати на виході. Наприклад, ми маємо 10 статей однієї тематики, з них цілком можна зробити коротку вичавку основних думок і чи тез по темі, більш того, цей текст може бути дуже корисний людині, йому не доведеться перечитувати всі 10 статей.
Навігація по публікаціям
якщо додати перед прикметником прислівник, то сенс тексту не порушиться, а ось структура шинглів, буде порушена і тим самим контент буде уникализировать. Як відомо «Яшка» обчислює дублювання контенту в Інтернеті використовуючи в тому числі алгоритм шинглів. В Інтернеті можна знайти опис цього алгоритму. Зауважу тільки, що якщо в текст пропозиції вставити нові слова, то такий текст для Яндекса ставати унікальним (ІМХО).
така фішка є в останній версії feedmaster
Можна наприклад змінити "слово" на "cлoвo"
Тобто буква «о» в одному варіанті російська а в іншому англійська? Цікаво, боти вміють таке відсівати?
Якщо немає то проблема унікалізації вирішена, напевно 🙂
khalid, не вирішена вона нічого, на «безглуздий» текст не буде пошукового трафіку.
Arser. а якщо «безглуздий текст» розбавити нормальними кеямі. На твій погляд буде толк. Просто провів маленький експеріментік. перевірив з п'ят слів зі зміненим написанням. Таке враження. що цю тему вже щосили юзают. або пошуковики спалили такий тип контенту
За неунікальність контенту нічого не буде. Хіба що трафіку менше. Бували випадки, що сайт піднімався дажке вище джерела на одній сторінці Я.