Давним-давно розкрутка сайту в пошукових системах (ПС) робилася дуже просто: писали «простирадла» довгих текстів, напханих ключовими словами, а для боротьби з конкурентами розміщувалися зовнішні посилання будь-якими методами.
А способів було багато - як ручних, так і автоматизованих:
- Сайти змінювалися посиланнями один на одного, а пізніше для природності використовували кругової обмін, коли група сайтів посилається один на одного по колу.
- Посилання розміщувалися у вигляді коментарів вручну або за допомогою спеціальних програм, наприклад, для спаму на форумах або дошках оголошень, блогах і т. Д.
- Нарешті, розміщення посилання завжди можна було купити. Причому спочатку вважалося нормальним автоматизована продаж тимчасових посилань (через біржі на кшталт «Sape») і поступово пріоритетним стало ручне розміщення вічних посилань в тематичних статтях з унікальним текстом (через Міралінкс).
У ті давні часу ТОП видачі пошуку нерідко був нерелевантні і сумовитий, іноді неможливо було знайти потрібний ресурс, так як перші десятки варіантів у видачі були «заспамлени». Проблема була в недосконалості алгоритмів і спочатку внутрішні чинники кілька поступалися зовнішнім по важливості. Кілька років тому для успішної розкрутки досить було зробити сателіт з більш-менш унікальними текстами (простий рерайт з купою ключових слів) і купити зовнішніх посилань, причому чим більше, тим краще. Годилися навіть тимчасові посилання, після їх індексації позиції у видачі росли навіть у ГС ( «говносайтов»).
Таким чином, боротьба за позиції велася бюджетами: хто більше посилань купить, той і у видачі вище. Хороша якість сайтів було не так уже й важливо, оскільки навіть шаблонний дизайн, незрозуміле меню (погана структура) і невиразний текст все одно дає якусь конверсію при великому трафіку. Поступово для збільшення продажів або замовлень покращували продають сторінки. Але у багатьох цілком серйозних компаній роками ніяких змін не було: йде трафік, є продажу, навіщо щось міняти ... Вважалося найважливішим боротися за позиції у видачі для залучення масової цільової аудиторії (ЦА).
Ще п'ять років тому в ТОП-10 Yandex і Google можна було побачити дорвеи, а й якісних СДЛ ( «сайт для людей») було відносно мало. Щоб відфільтрувати «погані» сайти з генерованим контентом (сателіти і дорвеи), Яндекс ввів в 2009 році фільтр АГС-17 і досить швидко удосконалив його до АГС-30. Спочатку ці фільтри були автоматичними і могли помилятися, блокуючи у видачі пошуку Яндекса навіть «хороші» СДЛ. Доводилося писати скарги яндексоіди Платон (співробітникам Яндекса) і живої модератор міг повернути сайту позиції, якщо не знаходив недоліків. У будь-яких інших випадках яндексоіди ніколи не говорили про знайдені недоліки - завжди рекомендували перечитати поради вебмастерам від Yandex.Help і не порушувати встановлені ними правила, покращувати і правильно оптимізувати всі сторінки, виправляти помилки.
У Гугла раніше почалося поступове зменшення впливу SEO посилань, але Яндекс намагався не відставати і постійно удосконалював алгоритми, які ранжирували порядок видачі. Спочатку роботи ПС визначали тільки унікальність тексту, потім навчилися відрізняти якісний текст від «простирадла» написаної заради ключових слів, в тому числі за рахунок контролю поведінкових факторів (час перебування відвідувача на сторінці, відсоток відмов за статистикою). Нарешті, алгоритми ПС стали розрізняти регіональні запити і відокремлювати комерційні від інформаційних, при ранжируванні враховувалося все більше і більше факторів, коротко згадаємо самі основні:
- Вік сайту (траст), ім'я домену, кількість сторінок в індексі Яндекса, регулярність оновлення контенту і його якість.
- Оптимізація структури меню (перелінковка гіперпосиланнями), рівень вкладеності сторінок і ЧПУ ( «Людині Зрозумілий Урл»).
- Унікальні seo-тексти з помірними входженнями ключових слів, оформлення публікацій (заголовки і підзаголовки, тайтли, мета-теги і ALT для картинок ).
- Чистий код сторінок, відсутність зайвих фреймів, присутність правильного robots.txt
- Географічне визначення сайту (залежить від доменної зони або контенту, можна встановлювати вручну, якщо вказати потрібні контакти).
- Кількість і якість зовнішніх посилань (з анкорами у вигляді ключових слів для просування і безанкорние посилання для природності).
Вже давно у видачі пошуку Яндекса практично немає дорвеев, майже не залишилося сателітів, але ТОП-10 в 2013 році (особливо з комерційних запитам) займали оптимізовані сайти, які закупили якісні зовнішні посилання. Яндекс постійно вводив нові алгоритми для того, щоб урізноманітнити пошук і в ТОПі були довідники, блоги, форуми, каталоги, інформаційні проекти, а не тільки «прокачані» зовнішніми посиланнями комерційні інтернет-магазини або компанії, які продають свої послуги.
Поступово ПС навчилися визначати, хто продає посилання, і Yandex, Google перестали враховувати посилання з таких доменів. Щоб поліпшити якість видачі пошуку в 2011 році, Гугл ввів алгоритм Панда, через якого відбулося зменшення впливу зовнішніх посилань. При цьому посилився вплив поведінкових факторів (ПФ) - часу перебування відвідувачів на сторінках, а також відмови за статистикою, тобто Панда боролася з «псевдоСДЛ». Особливо легко алгоритми ПС спрацьовували, коли через біржі автоматом купували тимчасові посилання і в «бан» йшов як донор, так і акцептор. Тоді оптимізатори стали закуповувати «вічні посилання» з хороших старих ресурсів з високим ТИЦ і PR, але Гугл поповнив свій «зоопарк» алгоритмів і в квітні 2012 року прийшов Пінгвін.
Вебмастера пристосувалися до Панді і потім до Пінгвіну, а також до АГС-30: ретельна перелинковка внутрішніх сторінок і природні анкор для зовнішніх посилань, тепер доводилося купувати безанкорние посилання, а також залишати якийсь відсоток анкоров «тут», «тут» і т. Д . Пінгвін автоматично безжально знижував позиції і обнуляє PR у всіх сайтів, які потрапляли під «підозра», а вийти з-під фільтра - завжди довгий і складний заняття по виправленню помилок.
Масова SEO покупка посилань для Яндекса йде в минуле
У 2012-1013 рр. спостерігалося поступове зменшення впливу SEO посилань, що було помітно по збільшується термінів такого виду розкручування. Яндекс, як і Гугл, постійно удосконалював алгоритми, все важче було потрапити в ТОП, і при правильній вдалою закупівлю зовнішніх посилань результат підвищення позицій доводилося чекати місяцями, іноді півроку (причому ніяких гарантій, завжди доводилося враховувати можливість невдачі).
В кінці 2013 року Яндекс ввів новий фільтр АГС-40, який масово забанив безліч «псевдоСДЛ» (знову під новим жорстким алгоритмом постраждали і «правильні» СДЛ). А все через бажання максимально швидко виходити в ТОП. Оптимізатори і сеошникі нерідко ризикують, оскільки «переоптімізацію» схожа на спробу маніпуляції алгоритмами ранжирування, а це заборонено у ПС. Найбільше постраждали сеошникі, масово купували зовнішні посилання: вони втратили позиції і трафік, адже тепер враховувалося ще більше факторів в комплексі:
- Вік донора, варіант розміщення (в підвалі або блоками по кілька штук підряд).
- Співвідношення кількості проданих посилань і кількості сторінок, а також обсяг текстів на сторінках (безумовно, чим більше посилань, тим менше їх вага).
- Якщо раніше зміст ключових слів або фраз в анкорі посилання було необхідно, то тепер дуже часте повторення однакових анкорів призводило Пінгвіна або АГС.
- Швидкий приріст посилальної маси, особливо у нових ресурсів з молодим доменом.
- Внутрішня перелінковка стала краще впливати на позиції, тоді як вплив зовнішніх посилань слабшав при одноманітних анкорах.
- Нерелевантні тексту заголовки і тайтли тепер зменшували вагу посилань з таких сторінок. Також мало толку стало від посилань з майданчиків, які сильно відрізнялися по тематиці.
- Посилилася важливість якості донорів, де розміщуєш посилання: траст і унікальність, наявність живого трафіку у донора - запорука успіху, а безліч посилань з «поганих» донорів могли навіть знизити в позиціях по видачі в ПС.
Всі ці фактори збільшували цінність «вічних» посилань, але якщо не вистачало грошей на дорогі майданчики і розміщення «назавжди» - шукали варіанти зайняти нішу за рахунок просування по низькочастотних запитах .
Боротьба алгоритмів ПС і сеошників йде постійно, але і якість сайтів поліпшувалося, оскільки інакше не можна було займати високі позиції у видачі ПС з неунікальним контентом або поганою структурою. Тепер стало простіше замовити якісний унікальний текст, оплатити оригінальний дизайн і професійно оптимізувати всі сторінки, ніж намагатися обдурити алгоритми і банально купувати масу посилань. Але зловживання зовнішніми факторами тривають досі, і тому скоро Яндекс зовсім перестане враховувати посилання в ранжируванні. Накрутки ТИЦ і зовнішніх чинників авторитетності для підвищення позицій у видачі дискредитували значимість впливу зовнішніх посилань.
Модераторів-яндексоідов ніколи на все сайти не вистачить, зате алгоритми роботів ПС навчилися якісно відрізняти хороший контент від поганого, в тому числі завдяки збільшенню впливу ПФ. А з початку 2014 року Яндекс скасував ранжирування посилань - це, безумовно, змусить знову міняти методики просування і трансформує ринок бізнесу в мережі Інтернет. Для вибору актуального методу просування потрібно регулярно відслідковувати статистику по видачі всіх основних ключових запитів - зробити це можна за допомогою сервісу seranking.ru
Перегляди: 642