Уменьшение влияния SEO-ссылок

Автор статьи
Кристина Загорулько
Янв 31, 2014
5 мин - время чтения

Давным-давно раскрутка сайта в поисковых системах (ПС) делалась очень просто: писали «простыни» длинных текстов, напичканных ключевыми словами, а для борьбы с конкурентами размещались внешние ссылки любыми методами.
А способов было много – как ручных, так и автоматизированных:

  • Сайты менялись ссылками друг на друга, а позже для естественности использовали круговой обмен, когда группа сайтов ссылается друг на друга по кругу.
  • Ссылки размещались в виде комментариев вручную или с помощью специальных программ, например, для спама на форумах или досках объявлений, блогах и т. д.
  • Наконец, размещение ссылки всегда можно было купить. Причем вначале считалось нормальным автоматизированная продажа временных ссылок (через биржи наподобие «Sape») и постепенно приоритетным стало ручное размещение вечных ссылок в тематических статьях с уникальным текстом (через Миралинкс).

В те давние времени ТОП выдачи поиска нередко был нерелевантный и унылый, иногда невозможно было найти нужный ресурс, так как первые десятки вариантов в выдаче были «заспамлены». Проблема была в несовершенстве алгоритмов и поначалу внутренние факторы несколько уступали внешним по важности. Несколько лет назад для успешной раскрутки достаточно было сделать сателлит с более-менее уникальными текстами (простой рерайт с кучей ключевых слов) и купить внешних ссылок, причем чем больше, тем лучше. Годились даже временные ссылки, после их индексации позиции в выдаче росли даже у ГС («говносайтов»).

satellit

Таким образом, борьба за позиции велась бюджетами: кто больше ссылок купит, тот и в выдаче выше. Хорошее качество сайтов было не так уж важно, поскольку даже шаблонный дизайн, непонятное меню (плохая структура) и невнятный текст все равно дает какую-то конверсию при большом трафике. Постепенно для увеличения продаж или заказов улучшали продающие страницы. Но у многих вполне серьезных компаний годами никаких изменений не было: идет трафик, есть продажи, зачем что-то менять… Считалось самым важным бороться за позиции в выдаче для привлечения массовой целевой аудитории (ЦА).

Кому угрожает фильтр Пингвин от Google

Еще пять лет назад в ТОП-10 Google можно было увидеть дорвеи, но и качественных СДЛ («сайт для людей») было относительно мало.

Вначале роботы ПС определяли только уникальность текста, потом научились отличать качественный текст от «простыни» написанной ради ключевых слов, в том числе за счет контроля поведенческих факторов (время пребывания посетителя на странице, процент отказов по статистике). Наконец, алгоритмы ПС стали различать региональные запросы и отделять коммерческие от информационных, при ранжировании учитывалось все больше и больше факторов, кратко вспомним самые основные:

  • Возраст сайта (траст), имя домена, количество страниц в индексе, регулярность обновления контента и его качество.
  • Оптимизация структуры меню (перелинковка гиперссылками), уровень вложенности страниц и ЧПУ («Человеку Понятный Урл»).
  • Уникальные seo-тексты с умеренными вхождениями ключевиков, оформление публикаций (заголовки и подзаголовки, тайтлы, мета-теги и ALT для картинок).
  • Чистый код страниц, отсутствие лишних фреймов, присутствие правильного robots.txt
  • Географическое определение сайта (зависит от доменной зоны или контента, можно устанавливать вручную, если указать нужные контакты).
  • Количество и качество внешних ссылок (с анкорами в виде ключевых слов для продвижения и безанкорные ссылки для естественности).

Постепенно ПС научились определять, кто продает ссылки, и перестали учитывать ссылки с таких доменов. Чтобы улучшить качество выдачи поиска в 2011 году, Гугл ввел алгоритм Панда, из-за которого произошло уменьшение влияния внешних ссылок. При этом усилилось влияние поведенческих факторов (ПФ) – времени пребывания посетителей на страницах, а также отказы по статистике, то есть Панда боролась с «псевдоСДЛ». Особенно легко алгоритмы ПС срабатывали, когда через биржи автоматом покупали временные ссылки и в «бан» уходил как донор, так и акцептор. Тогда оптимизаторы стали закупать «вечные ссылки» с хороших старых ресурсов с высоким PR, но Гугл пополнил свой «зоопарк» алгоритмов и в апреле 2012 года пришел Пингвин.

GooglePandaPinguin

Вебмастера приспособились к Панде и потом к Пингвину: тщательная перелинковка внутренних страниц и естественные анкоры для внешних ссылок, теперь приходилось покупать безанкорные ссылки, а также оставлять некий процент анкоров «тут», «здесь» и т. д. Пингвин автоматически безжалостно понижал позиции и обнулял PR у всех сайтов, которые попадали под «подозрение», а выйти из-под фильтра – всегда долгое и сложное занятие по исправлению ошибок.

Больше всего пострадали сеошники, массово закупавшие внешние ссылки: они потеряли позиции и трафик, ведь теперь учитывалось еще больше факторов в комплексе:

  • Возраст донора, вариант размещения (в подвале или блоками по несколько штук подряд).
  • Соотношение количества проданных ссылок и количества страниц, а также объем текстов на страницах (безусловно, чем больше ссылок, тем меньше их вес).
  • Если раньше содержание ключевых слов или фраз в анкоре ссылки было необходимо, то теперь слишком частое повторение одинаковых анкоров приводило Пингвина.
  • Быстрый прирост ссылочной массы, особенно у новых ресурсов с молодым доменом.
  • Внутренняя перелинковка стала лучше влиять на позиции, тогда как влияние внешних ссылок ослабевало при однообразных анкорах.
  • Нерелевантные тексту заголовки и тайтлы теперь уменьшали вес ссылок с таких страниц. Также мало толку стало от ссылок с площадок, которые сильно отличались по тематике.
  • Усилилась важность качества доноров, где размещаешь ссылки: траст и уникальность, наличие живого трафика у донора – залог успеха, а множество ссылок с «плохих» доноров могли даже понизить в позициях по выдаче в ПС.

Все эти факторы увеличивали ценность «вечных» ссылок,  но если не хватало денег на дорогие площадки и размещение «навсегда» – искали варианты занять нишу за счет продвижения по низкочастотным запросам.

Борьба алгоритмов ПС и сеошников идет постоянно, но и качество сайтов улучшалось, поскольку иначе нельзя было занимать высокие позиции в выдаче ПС с неуникальным контентом или плохой структурой.

Теперь стало проще заказать качественный уникальный текст, оплатить оригинальный дизайн и профессионально оптимизировать все страницы, чем пытаться обмануть алгоритмы  и  банально покупать массу ссылок. Но злоупотребления внешними факторами продолжаются до сих пор. Накрутки внешних факторов авторитетности для повышения позиций в выдаче дискредитировали значимость влияния внешних ссылок.

Подпишитесь на наш блог!

Подпишитесь на нашу рассылку, чтобы быть в курсе главных новостей компании, получать эксперные статьи и полезные SEO-советы.

Спасибо!
Ура! Теперь вы подписаны на наш блог!
Пожалуйста, проверьте свой email и подтвердите подписку.