Про неуникальный контент и воровство уникального контента. Эксперимент – влияние уникальности контента на позиции в Яндексе Получайте бесплатные уроки и фишки по интернет-маркетингу

Эта статья посвящена факторам, которые влияют на рейтинг сайта в поисковых системах. Таких как Yahoo!, MSN, Google и AskJeeves. Ни кому не известны досконально эти факторы, тем более степень влияния каждого из них. Несмотря на это автор статьи решился выставить оценки (степень важности) каждому фактору.
– исключительная важность (5 баллов)
Эти факторы имеют первичное влияние на занимаемые сайтами позиции в результатах поиска.
– высокая важность (4 балла)
Эти факторы оказывают серьезное значение на результаты поиска и выдачу в серпе.
– умеренная важность (3 балла)
Эти факторы влияют не столь значительно, как первые два, но забывать про них не стоит.
– небольшая важность (2 балла)
Эти факторы стоит учитывать в узкоконкурентной области.
– несущественная важность (1 балл)
Эти факторы минимально влияют на результаты поиска.
10 самых важных факторов.
1. Title – 4.57
2. Текст ссылок – 4.46
3. Использование ключевого слова в тексте документа – 4.38
4. Работоспособность документа – 4.3
5. Внутренние ссылки – 4.15
6. Соответствие тематике всего сайта – 4.00
7. Внешние ссылки – 3.92
8. Ссылочная популярность в тематическом кругу – 3.77
9. Мировая ссылочная популярность – 3.69
10. Спам ключевых слов -3.69

Внутренние факторы документа

1. Title (4.57) – этот тег отображается вверху браузера и имеет самое большое влияние на ранжирование сайтов.
2. Использование ключевых слов (4.3 – безусловно, в тексте документа должны определенным образом использоваться ключевые слова.
3. Внутренние ссылки сайта (4.15) – важной особенностью является внутренние ссылки сайта. Связность документа и количество ссылающихся внутренних страниц говорит о важности документа.
4. Уникальность контента (3.3 – на каждой странице контент должен быть уникальным. Если поисковая система найдет страницу с таким же контентом, но более ранним выпуском, то рейтинг вашей страницы может быть значительно понижен.
5. Связанные термины (3.31) – поисковые машины внимательно отслеживают тематику сайта. Т.е. тексты сайта должны быть связаны между собой (быть одной тематики), а термины тесно переплитаться.
6. Внешние ссылки (3.0 – ссылки с других сайтов и страниц оказывают значительное влияние на рейтинг в поисковых системах. Но они могут оказать как положительное влияние, так и отрицательно. Очень важно, чтобы ссылки были с тематических сайтов.
7. Возраст документа (2.77) – “старые” документы являются, соответственно более авторитетными. Поисковые системы предпочитают сайты, давно зарекомендовавшие себя. Поэтому, новым сайтам трудно конкурировать с ними в первое время своего существования.
8. Цитирование источников (2.77) – цитирование, в смысле сносок и ссылок в книгах и журналах на источники информации (цитат), может положительно сказываться при поиске научной или учебной информации.
9. Морфология документа (2.39) – некоторые поисковые системы учитывают морфологию слов. Т.е. если слово используется в разных морфологических формах, то это может повысить релевантность документа. Хотя, стоит заметить, что все-таки нет много поисковиков учитывающих морфологию.
10. Мета тег описания (description) (2.39) – тег описания все больше теряет свою значимость. Однако это не значит, что про него пора забыть. Многие поисковые системы по-прежнему уделяют ему много внимания. Да в некоторых поисковиков этот мета тег выводится в результатах поиска. Так что уделяйте этому тегу должное внимание, и обязательно используйте в нем ключевые слова.
11. Авторские пометки (2.3 – важность страницы могут повысить авторские пометки. В случае их присутствия поисковик понимает это как авторский документ, значение которого может быть очень важно.
12. Структура документа (2.31) – для поисковиков имеет значение организация структуры документа, порядок следования фраз. Особенно это важно для страниц с большим контентом.
13. Время ссылок (2.31) – если одна и та же ссылка стоит долгое время, то это повышает важность страницы, на которую она ссылается. В то же время постоянное удаление новых ссылок может понизить рейтинг страницы.
14. Доменная зона (2.31) – доменные зоны.com, .biz, .net, и другие доступны любому. А зоны.gov, .mil или.edu получить не так просто. Поэтому они пользуются приоритетом, так сказать заслуживают большего внимания.
15. Текст в alt и img title (2.23). Эти показатели по-прежнему оказывают влияние на релевантность страницы. Хотя стоит заметить, что правильное их написание важно, прежде всего для поиска картинок.
16. Заголовки (2.23) – важно использование тегов H1-H6. Манипулирование этими тегами может повысить релевантность отдельных слов на странице. Эти теги позволяют выделить самые важные (ключевые) слова и фразы.
17. Обновление контента (2.23) – поисковые системы следят за изменение и обновлением контената. Если страницы была однажды создана и с тех пор не меняется (не текст, ни картинки, не шрифты), то значимость ее постепенно падает.
18. Язык документа (2.15) – естественно для китайского поисковика важно, чтобы страница было на китайском языке. Поэтому желательно, однозначно определяйте язык документа.
19. Ключевые слова в url документа (2.15) – использование ключевых слов в url документа может значительно повысить релевантность сайта.
20. Мета тег keywords (2.0 – использование ключевых слов в мета теге keywords по-прежнему имеет значение. Хотя значимость этого тега непреклонно падает и многие поисковики практически не используют его.
21. Глубина документа (1.92) – количество кликов, за которые можно добраться до любой страницы сайта важно для поисковиков. Чем их меньше тем лучше. Обычно рекомендуется не более 3-4 кликов.
22. Теги H1, bold и другие (1.91) – использование тегов заголовка, жирного шрифта, курсива и других при форматировании текста оказывают некоторое влияние на ранжирование страницы. Выделение различными тегами форматирования ключевых слов может повысить их релевантность.
23. Присутствие сайта в серпе (1.92) – если страница сайта когда-то находилась на первой странице в результатах поиска, то это увеличит ее релевантность в дальнейшем.
24. Дефисы в доменном имени (1.92) – 2 и более дефиса в доменном имени ухудшает позиции сайта.
25. Карта сайта (1.92) – наличие карты сайта улучшает индексацию сайта и ранжирование страниц.
26. Google Sitemaps или Yahoo! Paid (1.77) – присутствие в подобных программах, может повлиять на индексацию сайта.
27. Тескты ссылок (1.85) – использование ключевых слов в текстах ссылок оказывает влияние на релевантность этих слов.
28. Соответствие стандартам W3C (1.67) – учёт поисковыми системами этого фактора под вопросом, но забывать о нём не стоит.
29. Редирект (1.66) – использование редиректа может отрицательно повлиять на позицию сайта в поисковых системах.
30. Длина документа (1.55) – вес страница может сказываться как положительно так отрицательно. Вообще, как правило, поисковые системы любят страницы в пределах 100-200Кб.
31. Правописание (1.34) – правописание всех слов документа может служить мерой качества этого документа для поисковых систем.
32. Читабельность текста (1.25) – читабельность текста - это мера основанная, на частоте использования общеупотребительных, слов из словарного запаса школьников того или иного года обучения, а также редких, специализированных слов в тексте документа. Эта мера может учитываться исходя из запроса, а также если есть информации о том, кто ищет, - если ищет школьник, то ему не осилить статьи из академических журналов.
33. Тип документа (1.22) – тип документа, например.pdf, .doc, .txt т.п. может учитываться при ранжировании, по-разному в зависимости от того или иного запроса.

Технические факторы
1. Доступность документа (4.31) – недоступность документа может быть вызвана ошибкой 404, ошибками в работе сервера, необходимостью установки плагина для просмотра и прочими техническими вопросами. Подобные проблемы не принесут вам дивидендов.
2. Идентификаторы сессий (3.62) – идентификаторы сессий в URL могут непредсказуемо повлиять на рейтинг, т.к. дубликаты одного и того же документа могут индексироваться десятки и сотни раз под различными URL.
3. Использование NOARCHIVE/NOINDEX (3.31) – директивы noindex и noarchive в META ROBOTS указывают поисковому роботу, чтобы эта страница не индексировалась и не сохранялась копия. Соответственно контент этих страниц не может повлиять на рейтинг в поисковых машинах.
4. Динамические URL (3.23) – большое число динамических параметров в URL зачастует гарантирует, что этот URL будет пропущен роботом поисковика. Представители различных поисковиков давно советуют ограничиться двумя, а лучше одним динамическим параметром в URL.
5. Использование фреймов (3.15) – использование фреймов не повысит рейтинг сайта. Фреймы считаются умирающей технологией, и сайты построенные на фреймах считаются устаревшими.
6. Хостер (3.00) – ненадёжный хостинг может повлечь некоторые проблемы. Часто неработающий сайт может привести к понижению сайта в рейтинге, а также к тому, что отдельные страницы не будут проиндексированы.
7. Клоакинг по IP (2.0. Хотя такой клоакинг сложно определить, поисковые машины изыскивают способы его определения, и тут же штрафуют сайт.
8. Информация о регистрации домена (1.69) – информация о регистрации домена может быть использована поисковыми системами как источник информации о владельце ресурса, тем самым отбирая спамеров из общей массы.
9. Время регистрации домена (1.62) – время, на которое был зарегистрирован домен, может говорить о серьёзности намерений. Если домен зарегистрирован на длительное время, то отношение к сайту у поисковых систем более предпочтительное.
10. Длина URL (1.46) – длина URL имеет значение. Не рекомендуются длинные URL.
11. Robot.txt (1.31) – наличие файла robot.txt говорит о том, что страница не будет индексироваться поисковой системой.

Факторы ценность ссылок
1. Текст ссылок (4.46) – использование ключевых фраз, слов, терминов в тексте ссылок значительно увеличивает релевантность страницы.
2. Внешние ссылки (3.92) – ссылки с популярных и тематических ресурсов могут серьезно повлиять на рейтинг вашего сайта.
3. Общая популярность сайта (3.85) – популярность отдельных страниц, сервисов, документов сказывается на общей популярности ресурса в поисковых страницах. И наоборот, непривлекательные элементы сайта могут снизить популярность ресурса.
4. Тематическое сообщество (3.77) – присутствие сайта в тематическом сообществе может положительно повлиять на рейтинг сайта.
5. text derictly
6. Тексты ссылок сайта (3.46) – тексты ссылок, указывающих на документы могут повышать релевантность этих самых документов.
7. Ссылочная структура (3.31) – глубина сайта важна для оценки релевантности страницы. Страница до которой можно добраться за 4-5 кликов менее релевантна, чем страница, достижимая за 2 клика.
8. Признак Rel=Nofollow (3.00) – этот тег указывает, что ссылка была создана не администрацией сайта, и они за нее ответственности не несут.
9. Семантика ссылок
10. Форматирование ссылок (1.69) – использование тегов заголовка, жирного шрифта и др. в тексте ссылок могут положительным образом повлиять на релевантность страницы.
11. Title ссылок (1.54) – значение имеет суть текста ссылки. Ссылка “жмите здесь” не способствует повышению релевантности страницы.

Отрицательные факторы
1. Спам ключевых слов (3.69) – чрезмерное увлечение ключевыми словами может отрицательно повлиять на рейтинг сайта в поисковых системах.
2. Клоакинг (3.54) – одна из самых сторогонаказуемых технологий. Если ваш сайт будет замечен в использовании клоакинга, то наверняка, сразу же будет забанен (удален из списка индексации поисковой машины).
3. Дублирование контента (3.3 – дублирование контента (воровство) жестко наказывается поисковыми машинами.
4. Кононические проблемы (3.31) – широко распространённая проблема, в особенности для крупных сайтов. Этот фактор вытекает из фактора дублируемого контента, когда, например, для адресов url.com, www.url.com и www.url.com/index.html выдаётся один и тот же контент и на каждый их этих адресов приходит множество ссылок с других сайтов и все эти адреса использовались при регистрации в различных каталогах и других списках ресурсов Сети, может негативно сказаться на рейтинге, независимо от того, что фактически это одна и та же страница.
5. Ссылочный спам (3.23) – все ссылки созданные не ручным способом, использование различных способов для искусственного увеличения индекса цитирования может серьезно повлиять на позиции сайта в поисковике.
6. Ссылки с “плохих” сайтов (3.0 – ссылки с сайтов с плохим контеном или участие в ссылочнообменных схемах может привести к удалению сайта из индекса.
7. Незаконный контент (3.00) – контент нарушающий местные, региональные законы и морально-этические принципы. Это использование порнографии, материалов террористического характера и т.д. Подобные сайты будут исключаться поисковыми системами из индекса.
8. Битый код (2.85) – неправильный замусоренный код, создающий сложности на пути поискового бота не позволит странице оказаться наверху в результатах выдачи.
9. Угон URL (2.69) – использование кода ответа 302 для присваивания позиций выдачи страниц с высоким рейтингом. Негативно сказывается на рейтинге как “угоняемого” сайта, так и “угоняющего”.
10. Неэтичные методы (2.62) – довольно размытое понятие. Включает в себя способы завлечения пользователей в незаконные сделки, обман и другие способы незаконного отъема денег у посетителей.
11. “Мертвые” ссылки (1.2 – наличие ссылок ведущих на несуществующие страницы (ошибка 404) негативно сказывается на позициях сайта в поисковых системах.
12. Небезопасный контент (1.15) – контент, сочтённый небезопасным для детской и подростковой аудитории может отрицательно повлиять на рейтинг сайта в поисковых машинах.

Сегодня еще одна статья в рамках моего эксперимента (тестовая статья для Бадена 5). О результатах отпишусь уже довольно скоро!

Влияние уникальности текстового контента на позиции в поиске сегодня уже ни у кого не вызывает сомнений. За плагиат предусмотрены серьезные штрафные санкции. Сайт с особенно низким качеством статей рискует даже получить бан. Как проверка сайта на уникальность онлайн влияет на продвижение в поисковых системах?

Почему так происходит? Сам факт воровства имеет второстепенное значение. Гораздо важнее отсутствие новой, полезной информации в статье. Поисковые системы стараются с каждым днем быть лучше, чем вчера. Для этой цели им нужны тексты не только с технической, но и со смысловой уникальностью.

Проверка с показателем 100% - принципиальный вопрос?

Представьте, что вы ведете блог «Умного сантехника» и описываете установку раковины. В сети уже есть сотни, если не тысячи подобных статей. Потому что работа со всеми типами моек уже давно изучена и проверена на практике. Максимум, чем можно удивить читателя - инструкция по установке новой модели или вами лично изобретенный лайфхак. Большинство других статей в подобных блогах в той или иной мере повторяют друг друга. Поэтому уникальность от 90%, а иногда и немного ниже, воспринимается поисковиками вполне лояльно.

При этом важно четко понимать разницу между новым контентом и рерайтом. Если темы похожи, это не значит, что все они просто переписаны своими словами. Вместе с этим статей, переписанных «под уникальность» в сети намного больше, чем действительно качественного материала. Детальнее о терминах рерайт и новый контент мы подробнее поговорим дальше по тексту. А сейчас пойдем по порядку.

В чем заключается сама суть понятия уникальность?

Все, кто каким-то образом связан с коммерцией в интернете, знают, что без текстов, которые прошли проверку на плагиат далеко не уедешь. Кто бы там что ни говорил о популярности видео, картинок или анимационных роликов, но текст был есть и будет основой контента каждого ресурса.

Любой профессиональный сеошник и вебмастер согласится, чем больше на сайте уникального материала, тем лучше. Но если еще несколько лет назад приоритет отдавали технической уникальности, сегодня этот параметр постепенно приобретает второстепенное значение. Настала эпоха контент-маркетинга, а по-простому, полезного и уникального в смысловом значении текста.

Людям уже неинтересно читать десять одинаковых статей на десяти ресурсах, написанных разными словами. Читателям нужна полезная и ценная информация, интересные точки зрения и альтернативные способы решения задач. Всех этих целей можно добиться, если создавать действительно годные тексты, которые нравятся не только поисковым роботам, но и людям.

Вернемся к понятию «уникальности». Что конкретно означает этот термин, на какие определения лучше ориентироваться и какими инструментами максимально точно измерить такой важный показатель?

В большинстве официальных источников энциклопедического и википедического характера уникальность предлагают понимать, как что-то исключительное, неповторимое и единственное в своем роде. Чтобы лучше понять это определение в разрезе контента, рассмотрим классификацию.

Основные виды текстовой уникальности:

Техническая - определяется всевозможными сервисами проверки и специальными программами в режиме онлайн и оффлайн. Результаты измеряют в процентах. Чуть ниже мы поговорим о самых популярных сервисах проверки уникальности Рунета и почему стоит пользоваться именно этими продуктами.

Смысловая уникальность - этот текстовый контент, который не имел смысловых аналогов до своего появления. Сюда относят всевозможные изыскания и тесты, гипотезы, личные исследования, а также новые темы, которые по различным причинам не освещались ранее.

Вашей статье не видать топа, как вам своих ушей, если тема избитая. В таких случаях индексацию проходит рерайт, пусть и сделанный качественно, с выполнением всех технических требований. Поэтому затасканные темы, наподобие: «Что такое плагин и для чего он нужен?» лучше заменять на такие: «12 убойных новых плагинов для WordPress в 2017 году». Материал для такой статьи подбирать дольше, но зато ее будут читать, а значит, увеличится трафик, поведенческие показатели, да и конверсия тоже подрастет. Поэтому одна хорошая, интересная и полезная статья рентабельнее, чем сотня уникальных в техническом отношении материалов.

Конечно, навсегда забыть слово рерайт у вас не получится. Информация по отдельным темам есть только в интернете. Да и среди тех, кто ведет самые интересные блоги в Рунете, очень мало ходячих энциклопедий и живых дедушек-гуглов. Даже к такой простой задаче, как описание карточки товара для молотка можно подойти творчески. Не обязательно писать, что этот молоток прочный, качественный, эффективный, экологически чистый и энергосберегающий. Существуют тысячи вариантов сделать это интереснее:

Пример уникального и прикольного описания карточки товара, которую «сложно» сделать уникальной: «Молоток для любителей забивать гвозди с трех ударов. Удобно лежит в руке во время любых манипуляций. Можно колоть орехи. Компактные размеры. Отлично помещается в женской сумочке. Пригоден для использования в качестве средства от хулиганов. Намагничен. Притягивает даже те гвозди, которые вы потеряли и не видите». И так далее…

Если подобные описания использовать при , вы получите заметный бонус, благодаря отличным ПФ!

Помимо перестановки слов в предложениях или использования синонимов для подготовки уникального текстового материала есть куча способов. Самый верный из них - как следует ознакомиться с темой, закрыть все источники и написать свои мысли по заданному вопросу. Чтобы не сбиться с пути, можно предварительно составить план статьи. И вы увидите, как буквы сами собой аккуратно ложатся на бумагу. Добавьте в текст свои мысли, используйте юмор, создайте оригинальную инфографику, и поисковые роботы наверняка оценят ваши старания по достоинству.

Оба вида уникальности, о которых вы прочитали выше, в приоритете в первую очередь у информационных ресурсов. Как правило, техническая и смысловая уникальность идут рука об руку. Если ваша статья на 80% состоит из копипаста или плохого рерайта, то ни о каком исключительном смысле не может быть и речи.

На какой уровень уникальности текста ориентироваться при подготовке контента?

Уникальность - один из главных показателей, на которые поисковики обращают внимание при ранжировании. Но так происходит, пока сайт не доберется до первой десятки выдачи. Дальше в расчет берут поведенческие факторы: сколько переходов совершают посетители, активны ли они в лайках и комментариях, время, которое читатель остается на сайте, показатель отказов и некоторые другие моменты.

И хоть без уникальности сегодня никуда, на одном этом показателе в ТОП не въедешь. Все, кто прошел через фильтр исключительности обязаны пройти следующий тест на релевантность поисковым запросам. На практике это выглядит примерно так. У вас и у конкурента есть две статьи похожей тематики, например, «Как выбрать персонального тренера». И если уникальность вашей работы 95 процентов, а у конкурента 91% но поведенческие факторы существенно перевешивают, более выгодную позицию в ТОПе займет статья с более низким процентом «уника» . Причина проста - она более релевантна ожиданиям и запросам пользователей. Но есть и другая крайность.

Можно ли въехать в ТОП на чужом контенте? При публикации откровенного плагиата, когда вы или не изменяете в нем ничего вообще или переделываете меньше половины, до анализа поведенческих факторов дело может просто не дойти. Поисковые роботы четко знают, что новые материалы с низкой технической уникальностью, в большинстве случаев абсолютно бесполезны для читателей. Из любого правила существует исключение. В нашем случае это так называемые толстые сайты-лидеры, которые иногда позволяют себе публикацию скопированного материала. И ранжируется он довольно неплохо, но при одном условии. Нужно не забыть поставить на странице источник, с которого скопирован материал.

Чтобы ваш сайт начал собирать трафик по отдельным запросам нужен уникальный контент, но к значению 100% стремиться необязательно. В некоторых случаях подойдет и 80%, если:

  1. Текст статьи оформлен красивее, чем у конкурентов (много картинок или скриншотов, используются графики, схемы, таблицы или интересные элементы дизайна).
  2. Присутствуют элементы смысловой уникальности - личное мнение, наблюдения, описание собственной разработки, которая упрощает решение задачи.
  3. Вопрос раскрыт более основательно и широко, затронуты дополнительные и смежные направления.
    Приняты все необходимые меры для роста поведенческих факторов, например, помещено интересное видео.
  4. Ориентироваться на уникальность необходимо, но полезность контента сегодня в приоритете. Поэтому если вы добавили в текст цитату, которая снизила оригинальность текста на 5%, но увеличила число просмотров, лайков и комментариев, значит, так тому и быть.

Как уникальность влияет на работу и продвижение сайта

Для начала небольшой экскурс в историю. Чтобы проверить техническую уникальность любого текста, современные сервисы проверки используют алгоритм, который еще в 1949 году изобрел Джордж Зипф. Законы профессора-лингвиста сформулированы так:

  1. Произведение вероятности наличия слова в тексте на его частоту использования – это величина постоянная.
    Отношение частоты и количества слов, которые входят в текст с данной частотой, одинаково.
  2. На основании этих формулировок поисковые роботы перед проверкой разбивают каждую статью на несколько групп. В первую включают все слова, которые не несут смысловой нагрузки - это союзы, предлоги и междометия. Вторая состоит из ключевых слов, по которым основная масса пользователей заходит на сайт. Это запросы, которым статья должна быть релевантна. В третью группу попадают фразы случайного характера. Весь этот процесс получил название «канонизация».

После деления на группы начинается работа алгоритма шинглов. Кстати, это слово в переводе с английского shingle. Алгоритм разбивает ключевые запросы на элементы, каждый из которых содержит заданное количество слов. Оно определяется длиной шингла. Каждое последнее слово элемента считается первым для предыдущего. Именно по такой схеме программы вычисляют абсолютно уникальные тексты и плагиат.

За каждым шинглом закрепляют определенную сумму совпадений. При анализе двух совершенно разных текстов одинакового числа совпадений быть не может априори. Поэтому все современные проверки такие точные. По количеству совпадений неуникальный контент удается вычислить за несколько секунд. Причем относится это и к текстам с плохим рерайтом и к полностью скопированным материалам.

Если поисковый робот обнаружил неуникальный текст или абсолютно бесполезную статью, страница может попасть под действие фильтра с условным названием «Ты последний». Фактические это означает что определенный раздел сайта будет задвинут на самые задворки поисковой выдачи.

Проверяется эта неприятность очень легко. Достаточно вбить поисковик точный ключевой запрос и оценить результат выдачи. Алгоритм «Ты последний» надежно скрывает страницу, которой прислал «черную метку». Увидеть такой раздел можно только в режиме «Показать все без исключения». Для этого нужно добавить к адресу вот такую комбинацию символов или найти и кликнуть по соответствующей записи на последней странице.

Как техническая уникальность текста влияет на SEO:

  • Если вы счастливый владелец плагиата и умудрились опубликовать его, страница в лучшем случае «выстрелит» на самых низких позиция, а в худшем заработаете бан. Этот пункт касается материалов с процентом уникальности ниже 20%.
  • Статьи, уникализированные на 50-60%, попадают в категорию «рерайт». Большинство таких материалов удерживают стабильно невысокие позиции. Хотя если вы при таком проценте умудритесь подать материал интересно, сдобрите его качественной инфографикой, интересным видео и парочкой таблиц, возможен небольшой рост.
  • Тексты с высокой технической уникальностью от 80 до 100% редко вызывают вопросы у поисковых роботов и потихоньку растут в результатах выдачи.

Если ваш сайт слишком популярен, и кто-нибудь так и норовит сделать рерайт со свежего материала, необходимо принимать дополнительные меры. Сразу после публикации добавляйте новую ссылку в ЯндексВебмастер и GoogleSearchConsole. Кросспостинг в популярных соцсетях также отличный выход из сложившейся ситуации.

Черный способ повышения уникальности, о котором вам лучше не читать

Это гениальное изобретение уходит корнями в далекие времена черного SEO. Большинство представителей интернет-профессий хорошо помнит эти смутные годы. Тогда хорошая статья почти полностью состояла из корявых ключей, а копирайтеры воспринимались как печатные машинки, которые понимают голосовые команды.

Придумывать уникальные тексты из корявых выражений «трусы в пожарную машинку, покемон весна Москва» было очень сложно, поэтому многие недобросовестные райтеры изобрели более удобный способ.

Чтобы им воспользоваться, достаточно найти самые неуникальные места в тексте и заменить все гласные русские буквы их аналогами на английской раскладке . В отличие от человека компьютер за доли секунды отличает английскую «е» от ее русской сестры. Поэтому удачные сделки с подобными «уникальными» материалами были не редкостью. А поскольку во времена черного SEO поисковики относились к подобным вещам лояльнее, некоторые фрилансеры умудрялись даже находить постоянных клиентов на эти шикарные услуги.

Сегодня все поменялось. Если разместить фиктивный текст на сайте, поисковики мигом заподозрят неладное и вышвырнут страницу, а то и весь ресурс из своей базы данных. Но если статья еще не опубликована, ее можно вполне успешно реализовать заказчику, который даже не подозревает о столь изощренном виде мошенничества.

Если у вас возникла необходимость перестраховаться насчет замены букв, сделать это можно очень легко. Берете небольшой абзац в абсолютно уникальной статье и целенаправленно вставляете туда все русские гласные буквы. Если показатели проверки не изменились, значит, перед вами действительно уникальный материал.

Но зачем использовать черные методы, если есть достаточное количество белых. Возможно, многие из их повредят смысловой уникальности, но в использовании их, пока, нет ничего криминального.

Белые методы повышения уникальности, знакомство с которыми безопасно

  1. Измените порядок подачи информации в тексте. Если все пишут о том, что сначала нужно подготовить площадку для установки детской песочницы и уже потом заниматься покупкой досок, напишите наоборот. Это уже основательно запутает поискового робота, который примет ваш текст за уникальный, причем и в смысловом отношении тоже.
  2. Пишите тексты головой, а не глазами. Прочитайте интересную статью, которую хотите переписать, несколько раз. А потом закройте ее и сделайте пересказ. Это верный способ создать уникальный контент. Для перепроверки фактов впоследствии можно сверить два материала.
  3. Используйте конструкции неподобные или мастера Йоды приемы. Шутка. Можно поступать проще. Если в первоисточнике часто употребляют нумерованные списки, замените их словосочетаниями «метод первый», «метод второй» и так далее. Отдельные конструкции, например, «несмотря ни на что», легко заменяются конструкциями наподобие «во что бы то ни стало». Только не злоупотребляйте, чтобы ваш текст не превратился в кувшин с прозрачной и бесполезной водой.
  4. Внедряйте эпитеты. Замените фразу «мы продаем латунные краны» на предложение «мы продаем блестящие латунные краны приятного желтого цвета». Чтобы все это написать, даже бриф заказчику отправлять ненужно. Достаточно увидеть фотографию продукции на сайте.

  • Используйте синонимы. Этот прием очень похож на предыдущий, только слова нужно не добавлять, а немного изменять. К примеру, слово «холодный» легко заменяется эпитетом «ледяной». В отношении кваса это сработает, но если речь идет о погоде, уже появляется стилистическая ошибка. Поэтому действуем осторожно.
  • Наращивайте объем. Этот способ сложен только с виду. На самом деле по любой теме даже необязательно лить воду, чтобы сделать текст больше. Наверняка при более внимательном изучении вопроса найдутся моменты, которые еще не освещены в тексте. Вот о них и напишите своими словами. Если добавить к одному абзацу текста уникальностью 50% аналогичный, но на 100% уникальный текст, проверка покажет уже 75% и так далее.
  • Воспользуйтесь

Теперь вы знакомы с основными способами белой уникализации текстового контента. На самом деле этот перечень больше похож на кодекс честного рерайтера, который упорно не хочет создавать по-настоящему интересные статьи для людей. По мере работы с текстом все равно приходит понимание ценности качества, которое всегда приносит отличные результаты по трафику, конверсии и количеству заказов.

Но техническую уникальность пока еще никто не отменял. Поэтому рассмотрим самые популярные, проверенные временем и миллионами килознаков сервисы проверки текстов Рунета.

ТОП-9 способов точной проверки текста на уникальность

1. Text.ru (он же Текст.ру) - самый технологичный и точный вариант, доступный жителям постсоветского пространства. Удобство и простота выше всяких похвал. Регистрация не обязательна. Хотя если ее пройти, тексты проверяют быстрее. Проверка очень глубокая. У низкопробного рерайта и других подобных методов нет никаких шансов.

2. Content-watch - им также пользуются многие вебмастеры и контент-маркетологи, хотя и не так часто, как предыдущим. Сервис работает с ограничениями: не больше семи проверок ежедневно и до 10К символов за один текст. Для тех, кому проверка нужна лишь изредка вполне подходящий вариант.

3. Pr-cy - полезный сервис, который выдает массу информации о сайтах конкурентов. Копирайтеров он тоже проверяет на порядочность по всем правилам.

4. Plagiarisma - специализируется на работе с дипломами, рефератами и курсовыми. Но и статьями не брезгует. Есть версия персональных компьютеров. Чтобы запустить проверку, достаточно загрузить нужный текстовый файл на сайт.

5. Istio - универсальный и простой сервис. Помогает найти копирайтеров для сайта и проверить точную уникальность всего текста. Удобная фишка - наглядно показывает процент вхождения того или иного слова в статью.

6. Antiplagiat - один из первых сервисов Рунета, название которого стало нарицательным. Во многом известен благодаря версии «Антиплагиат ВУЗ», которой активно пользуются все студенты на просторах СНГ. Именно с сервиса Антиплагиат ру в Рунете началась проверка текстов, статей и дипломных работ на уникальность.

7. Etxt - есть проверка онлайн, но лучше скачать программу на компьютер. Проверяет неплохо, но лучше всего работает опция проверки на рерайт. Там даже к текстам с высоким уровнем уникальности возникают вопросы. Часто обновляется, требует ввода капчи, иногда глючит. Поддерживает ограниченное число сервисов по вводу капч.

8. Advego - легендарный сервис, которым пользуются все, кто пытается зарабатывать деньги печатаньем букв. Все бесплатно, хотя и работает только на Виндовсе. Просто, понятно, есть подробный SEO анализ со всеми видами тошноты и водностью. Часто возникают проблемы с проверкой текстов до 2000 знаков, особенно от 1000 до 1500 знаков. Часто помечает такие материалы, как неуникальные. Что по факту не соответствует действительности.

9. Плагиата.Нет - еще один способ проверить уникальность текста без денег. Отличается поддержкой документов нескольких форматов. Сервис ненужно устанавливать. При этом он без проблем проверит весь сайт, подсветит уникальные слова и покажет ссылки на первоисточники.

Краткий вывод по уникальности и всему, что с ней связано

По мере совершенствования алгоритмов оценки контента поисковых систем значение параметра уникальности возрастает. Сегодня помимо технических показателей важны смысловые критерии. Первые места в поисковой выдаче постепенно занимают авторские работы, написанные на основании собственных исследований, наблюдений или опыта. Секрет кроется в поведенческих факторах. Полезные статьи чаще читают, больше лайкают и активнее расшаривают. За это контенту и достаются главные почести от их величества Яндекса и Гугла.

И напоследок шикарное видео от SEO академии. Смотрите и все ваши тексты будут уникальными:

Уникальность контента имеет второстепенное значение. Сие заявление часто встречается на форумах, получаем письма с просьбой объяснить, почему упал сайт, причем указывают, что контент “уникальный АЖ на 60%”. Уникальность контента имеет первостепенное значение. Если раньше за неуникальность контента в Яндексе можно было сразу получить АГС, то сейчас за неоригинальные статьи на сайте он может просто сильно опуститься без потери страниц в индексе.

Расскажу нашу ситуацию. Есть сайт клиента (домену 6 лет), который продвигается ровно по 200 запросам (СЧ, НЧ, ВЧ - все есть), запросы равномерно раскиданы по разным страницам (около 15). Когда сайт поступил к нам, мы проверили все страницы на уникальность (не только продвигаемые - все), переписали все неуникальные тексты и начали продвижение. В течение определенного периода сайт вышел в топ по 185 из 200 запросов (по договору мы гарантировали 140) и держался там месяца три, пока чуть меньше месяца назад не случилось резкое обрушение: 1 Анализу подверглось все - тексты, внутренняя оптимизацию, ссылки. Все,вроде бы, хорошо, кроме уникальности контента. Наши тексты успели растащить по всему рунету и средний показатель уникальности контента на сайте не превышал 63%. Тексты половины страниц сайта оказались уникальными менее чем на 30%. Оставив в покое внутреннюю оптимизацию и ссылки, мы решили поэкспериментировать только с контентом.

Не меняя перелинковку, внешние ссылки и анкоры, мы переписали неуникальные тексты, придерживаясь старых показателей тошноты и плотности вхождений. Вот результат, полученный нами в очередной апдейт после попадания нового контента в индекс Яндекса: 2 Повторяю, проведена была только замена неуникального текста. Это доказывает, что сайт был понижен в выдаче именно из-за снижения его уникальности. Как видно по скрину, после замены неуникальный сайт вернулся туда, где был.

Есть 2 момента, которые я считаю важными в описанной ситуации и на которые хочу обратить ваше внимание:

1) После того, как сайт просел, мы анализировали на уникальность все страницы и переписывали тексты не только на тех страницах, которые продвигаются, но и на тех, которые не участвуют в продвижении. Есть полная уверенность, что на рейтинг сайта влияет не только качество контента продвигаемых страниц, а качество контента всего сайта в целом. Так что если у вас на сайте пару сотен неуникальных страниц и вы перепишете только 10 продвигаемых, это не поможет.

2) Когда мы проверяли контент на уникальность, было замечено, что все наши страницы с неуникальным контентом Яндекс определял как первоисточник (помните, как проверяется?). Вывод - сайт может потерять позиции из-за неуникального контента даже в том случае, если он считается первоисточником.

Увы, защитить свой уникальный контент от плагиаторов на 100% никак не получится. Можно уменьшить число копипастеров, запретив в коде возможность выделения и копирования текстов. Можно обзванивать плагиаторщиков и просить их убрать текст (иногда срабатывает). Можно поставить Copyscape.com для отпугивания “живых” копипастеров или выводить всплывающее окно с предупреждением при попытке копирования текста. Это снизит количество количество дублей ваших текстов в Рунете, но не избавит от них насовсем - часть текстов всегда придется уникализировать снова и снова своими силами.

Значимость контента сложно переоценить. Если на сайте размещено большое количество качественного контента, то сайт обречен на успех. Но все было бы хорошо, если бы не одно но: контент должен быть свой . Свой, уникальный, интересный и полезный. И вот на слове «уникальный » срезается 90% тех, кто открыл для себя всю прелесть контента.

И правда, зачем что-то придумывать, если все уже придумано? Интернет большой, и там все уже написано, зачем изобретать велосипед? Берем кусочек текста из Википедии, пучок абзацев с сайта конкурентов, щепотку красивых фраз с сайтов из топа поисковой выдачи и украшаем фотографиями из Google Картинок. Ссылки на источники? Не-не, слышал. Вот и все, статья готова. Добро пожаловать, в мир современного копирайтинга!

Уникальный контент

Уникальный контент — основа интернета . Есть еще коммуникация, но эта тема выходит за рамки . То есть пользователи интернета, не считая возможность пообщаться, заходят в интернет, чтобы получить доступ к какому-то интересующей их информации. Поиск контента — это именно то, для чего существуют поисковые системы, и то, что поисковые системы ценят превыше всего. Яндекс открыто говорит, что главное для Яндекса — контент . Аналогия для Google — «Content is King» . Соответственно, поисковые системы больше всего ценят тех, кто регулярно поставляет уникальный и актуальный контент .

Вопрос, что считать уникальным контентом , уже давно будоражит фантазии людей, которые хотят защитить свои интеллектуальные права или хотят нажиться на чужих трудах. Не хочу влезать в полемику, но создать что-то с нуля практически невозможно. Чтобы что-то создать, нужно создать это из чего-то. То есть, в любом случае, новое появляется на базе чего-то уже существующего, и заявлять: «Это создал Я!», по меньшей мере странно.

Однако это совсем не значит, что труд, время и силы не должны вознаграждаться и тем более заимствоваться. Поэтому вопрос стоит не столько в защите прав и даже не в создании сложностей для использования чужого контента, а в ускорении и упрощении его индексации , то есть в признании контента за вами как за первоисточником.

Неуникальные тексты

Контент оценивается с точки зрения потенциальной применимости и пользы , которую этот контент может принести. Но если мы говорим о контенте с точки зрения поисковых систем, то к потенциальной применимости контента добавляется еще и УНИКАЛЬНОСТЬ контента. Следовательно, напрашивается вопрос, кто определяет уникальность контента? Действительно, ведь уникальность контента — понятие сравнительное.

Так кто же, как, что и с чем сравнивает? Сравнивают поисковые системы, сравнивают новый контент с уже проиндексированным. Грубо говоря, у кого текст проиндексировался первым, у того он и оригинален. Повторюсь, грубо говоря, первоисточником контента считается тот ресурс, на котором этот контент был впервые обнаружен. Грубо потому, что к различным видам контента применяются различные способы анлиза для определения первоисточника. Можно допустить, что первоисточник контента может меняться в зависимости от накопленных о контенте и источниках контента данных и состояния этих источников.

Неуникальные картинки

Возьмем, к примеру, изображения. Сегодня поисковая система нашла новую картинку с разрешением 640х480 на одном сайте, а завтра ту же самую картинку с большим разрешением 800х600 на другом сайте. Кто первоисточник? Это зависит от в и, собственно, самой поисковой системы, которая нашла эти картинки.

Контент в интернете выкладывается в свободное пользование, и все пользователи могут делать с этим контентом все, что им захочется. Это так, по сути. Конечно, кто-то может заявить, что это его картинка, и начать разбирательство по поводу неправомерного использования авторского материала. Но сама возможность пользоваться этим контентом никуда не денется.

Потому никто не может быть уверен в том, что за 100% контента, который он создает, будет признано 100% его авторства. И значок © не поможет.

Ворованый контент

Тексты воруют. Фотографии, картинки и все виды изображений тоже воруют. Видео воруют. Музыку воруют. Еще воруют нефть, газ, лес, людей, морских котиков, любовь, свободу и независимость. Все воруют. Это нужно понять, принять и подумать, как этому противостоять, тем более, что тут за вас уже действительно подумали и придумали. Почему бы не воспользоваться? 🙂

Не буду перечислять все возможные способы борьбы с воровством контента (если очень хотите, пишите в комментариях, можно написать об этом отдельную статью). Я постараюсь объяснить общие принципы размещения и первичной защиты контента в интернете.

Основные принципы

Первый и самый важный принцип — это максимальная уникальность контента . Понятно, что букв в алфавите ограниченное количество, а цвета всего три (ок, еще есть черный и белый). Но, в каждом тексте есть уникальная логическая структура и, если текст пишет человек, то логическая структура и манера написания становятся уникальным отпечатком. А создать две абсолютно идентичные фотографи невозможно.

Вывод : создавая контент самостоятельно, вероятность существенных совпадений стремится к нулю.

Второй важный принцип — скорость индексации . Чем быстрее поисковая система найдет и проиндексирует контент, тем быстрее будет определен его источник. Например, вы активно ведете блог, но поисковые системы по тем или иным причинам плохо индексируют ваш сайт. Кто то, у кого сайт индексируется лучше (быстрее) начинает банальным копипастом воровать ваш контент и размещать на своем сайте. Если ваш контент проиндексируется быстрее на чужом сайте — это не ваш контент. С точки зрения поисковых систем, первоисточником будет считаться тот сайт, на котором впервые будет найдена ваша статья. А вы, получается, украли статью.

Вывод : высокая скорость индексации — ваш лучший друг.

Яндекс.Вебмастер — Оригинальные тексты

Это сервис, с помощью которого можно сообщить Яндексу о появлении оригинального текста на сайте.

Цитата: Если вы публикуете на своем сайте оригинальные тексты, а их перепечатывают другие интернет-ресурсы, предупредите Яндекс о скором выходе текста. Мы будем знать, что оригинальный текст впервые появился именно на вашем сайте, и попробуем использовать это в настройке поисковых алгоритмов.

Существует множество способов воспрепятствовать неправомерному использованию вашего контента. Но на каждый из них есть несколько способов их обойти. И если известно, что кто-то систематически ворует ваш контент, вы можете потребовать удалить ваш контент со стороннего сайта или начать разбирательство. Но практика показывает, что если сторонний ресурс не удалит контент добравольно, то попытка добиться этого через суд, может стоить дороже, чем ущерб от кражи котнтета.

Размещайте собственный уникальный контент. Думайте, как, когда и где размещать контент. И будет вам счастье 🙂

Сделайте репост:

Получайте бесплатные уроки и фишки по интернет-маркетингу

    Сергей Бурых

    Здравствуйте!
    Пример: Я — стартапер. открыл интернет-магазин, в первое время у меня нет физической возможности размещать уникальный контент. И я конечно делаю бааальшой копипаст. Но, к примеру, дела пошли в гору, у меня появились ресурсы, и я решил улучшить ситуацию. И начал планомерно ну хотя бы рерайтить тексты. Будут ли поисковики их индексировать?
    И ещё вопрос, а какой процент уникальности можно считать годным? например 70% — этого достаточно, или надо 99, не меньше?
    спасибо)

    1. Антон Сошников

      1. «…у меня нет физической возможности размещать уникальный контент». Если сайту нечего предложить поисковой системе, тогда ему нечего делать в поисковой выдаче.
      2. «… начал планомерно ну хотя бы рерайтить тексты. Будут ли поисковики их индексировать?». Поисковики будут индексировать в любом случае.
      3. «… какой процент уникальности…». Процент относительно чего? Вы точно знаете, как поисковые системы определяют уникальность текста на сайте и как это выразить в процентах?
      4. «… можно считать годным? например 70% - этого достаточно…». «Годным» и «достаточно» для чего?

      Исходя из примера, который Вы привели: Вы пытаетесь заткнуть дыру в сайте под модным названием SEO, не вполне понимая что это и зачем. SEO — это большой комплекс взаимосвязанных факторов и один только рерайт текстов погоды не сделает.

      1. Сергей Бурых

        Я понимаю, что сео-дыра большая, и факторов, влияющих на её размер, много. И работа над ними идёт. Давайте возьмём гипотетическую ситуацию, что все технические моменты более-менее решены. Но контент остался прежним, то есть неуникальным. Вот я беру, рерайчу текст, проверяю его на Адвего Плагиатусе, или другим способом, и программа мне выдаёт, что уникальность 70%. И выделяет участки текста, которые уже есть на других сайтах. И вот тут я как раз хотел задать вопрос профессионалам: «как поисковые системы определяют уникальность текста на сайте и как это выразить в процентах?» Я понимаю, что эти алгоритмы неизвестны наверное. Но я хотя бы принцип понять хочу. А «годный», это значит, что текст воспринимается поисковыми системами как уникальный. Сумбур получился, но надеюсь понятно хоть чуть-чуть)

        1. Антон Сошников

          Не существует четкой величины которая могла бы характеризовать оригинальность конкретного текста глазами поисковой системы. Поэтому, смысла заострять внимание на этом нет. То есть, буквально мы не должны задумываться об оригинальности контента, если источником контента являемся мы сами. Это значит, что рерайт текста как вольный пересказ, может считаться оригинальным. Выявление процентного соответствия с исходным текстом — это хорошо, так как позволяет дальше отойти от исходника. Но тут тоже не так все просто. Поисковые системы вроде Google или Яндекс прекрасно распознают синонимизацию и читают логику текста. В идеале, при рерайте должны меняться логические конструкции в тексте, а вместо синонимов лучше использовать логические синонимы (всегда можно описать одно и то же разными словами и с разным смыслом). Google где-то писал, что для него важно не столько уникальность текста, сколько уникальное мнение, которое человек выражает используя текст. Поэтому, я написал выше про ВОЛЬНЫЙ пересказ источника, а именно персонализированный рерайт. В рамках интернет-магазина, задача может быть сложнее, так как объем текстовых описаний, обычно невелик и в них сложно выразить оригинальность. Но суть подхода не меняется. Если вы сделаете оригинальные, необычные и более информативные текстовые описания, вы однозначно увидите, что они будут лучше ранжироваться чем стандартные описания конкурентов.

  • Указывает пользователям на ценность информации, товаров или услуг, а также улучшает общее восприятие бренда. Это обширное понятие, к которому относят не только качество размещенных , но и общий фирменный стиль сайта, эксклюзивность предоставляемого сервиса или продукции.

    Аспекты уникальной подачи материала

    В интернете широко используют понятие уникальности и относят его, в основном, к качеству текстов. Тексты должны быть эксклюзивными , написанными на заказ, а слова, которые повторяются в отдельных блоках текста не должны совпадать с другими результатами поисковой выдачи.

    К аспектам создания уникального контента можно отнести:

    1. Создание уникальности для роботов поисковых систем.

    Работа с низкочастотными запросами хорошо описана в материале по .

    Послесловие

    Уникальность контента должна базироваться не на простой технической уникальности, которая определяется механизмами поисковых систем, - контент должен основываться на фактических потребностях посетителей сайта и отстраиваться от их реального спроса. Изучайте аудиторию, анализируйте поведенческие аспекты, регулярно пробуйте новые варианты подачи контента: внимательное отношение к аудитории обеспечит ее ответное внимание к вашему ресурсу.

    С уважением, Настя Чехова