Экономика стран

К сожалению, большинство людей, которые будут ими затронуты почти весь мир, не будут иметь никакого влияния на результат. Вести Экономика Дайджест иностранной прессы за 14 августа.
Вести Экономика Греции снова придется списывать долги Греция не сможет самостоятельно расплатиться по долгам, и понадобится новая реструктуризация долгов, чтобы спасти страну от банкротства.

SEO аудит сайту: інструменти та поради для початківців

  1. Головні інструменти для аудиту сайту
  2. З чого починати аудит?
  3. Robots.txt. Очищення Get-параметрів в URL
  4. Що таке RDS bar?
  5. Індексація сайту
  6. краулер Seoto.me
  7. Seoto.me. Коди відповіді сервера
  8. Сторінки довгого відповіді. Сторінки без контенту
  9. Унікальний функціонал Seoto.me
  10. Орфографія
  11. Теги
  12. картинки
  13. посилання
  14. редіректі
  15. Яндекс.Вебмайстер
  16. пошукові Предложения
  17. індексування
  18. ПОСИЛАННЯ
  19. Турбо-сторінки
  20. Мобільні сторінки
  21. Google Search Console
  22. Аналіз пошукових Запитів
  23. оптимізація HTML
  24. сканування

Стаття допоможе розібратися, як розкладати сайт на дрібні складові і знаходити технічні помилки на сайті.

Головні інструменти для аудиту сайту

Для того, щоб здійснити SEO-аудит сайту, нам знадобиться кілька технічних інструментів.

Інструменти для аудиту я розділив на 3 групи:

1. RDS bar для браузера.

2. Краулер серверний або десктопний:

  • Screaming Frog,
  • Netpeak Spider,
  • Seoto.me.

3. Яндекс.Вебмайстер + Google Search Console.

Також для певного типу аудиту знадобляться сервіси:

При цьому Ahrefs - найважчий. У нього велика абонентська плата, зате він надає таку інформацію, яку не дасть ніхто інший.

Спрощеної альтернативою є LinkPad. Плюс - надає деяку інформацію безкоштовно, мінус - затримка в оновленні (інформація оновлюється з затримкою в місяць-два).

Topvisor - сервіс моніторингу позицій. Topvisor необхідний для моніторингу сніпетів, щоб розуміти, як видається сайт в результатах пошуку.

З чого починати аудит?

Починаємо SEO-аудит з перевірки редиректу www.

У вас повинен бути тільки один основний адресу. Переадресація або з адреси домену з www на адресу домену без www. Або навпаки. Редирект повинен проходити на дзеркальні сторінки, які повинні відрізнятися тільки наявністю www або його відсутністю. Який адресу вибрати основним - з www або без - вирішувати виключно вам.

Чим це загрожує? Пошуковики можуть неправильно визначати, які сторінки основні, плутатися, яка сторінка релевантна, іноді може відбувається збереження дублів сторінки. Яндекс дуже довго оновлює інформацію, для цього пошуковика така помилка взагалі може бути катастрофічною.

Robots.txt. Очищення Get-параметрів в URL

Щоб побачити зміст файлу Robots.txt, необхідно набрати «ім'я_домена / robots.txt» або встановити RDS bar. В RDS bar можна по одному кліку відкрити Robots.txt.

Robots.txt для Яндекса повинен містити інструкцію Clean Param, яка очищає адреси сторінок в індексі від Get-параметрів. Це адреси сторінок, де передаються якісь параметри з посиланнями, наприклад, «id = 348» або «param = al» l.

Найчастіше такі сторінки в індексі вам не потрібні, тому що зазвичай це технічні адреси. Але звичайно, потрібно дивитися кожен сайт окремо. В Яндексі такі сторінки закриваються в Robots.txt через параметр Clean Param. У ньому ми вказуємо, що сторінку з параметром, наприклад, «id» ми не індексуємо.

В Google такі сторінки ми закриваємо через спеціальний інструмент в Google Search Console. У ньому можна додавати службові параметри, URL з якими необхідно закривати від індексації.

Я рекомендую закривати від індексації такі параметри:

  1. Page - пагінація.
  2. Все utm-мітки.
  3. ID кліка від Яндекс.Директ.

Що таке RDS bar?

Що таке RDS bar

RDS bar - це безкоштовне розширення для браузера. Працює на всіх основних версіях Chrome, Opera, Firefox, Safari і т. Д. Дозволяє при натисканні в панелі розширень швидко подивитися інформацію про сайт або конкретної сторінці, яку ви відвідуєте.

Показує заголовок, опис, іконку, ІКС, рейтинг Ahrefs, який показується окремо для сторінки і окремо для домену. Інформацію про проіндексованих сторінках в Яндексі і Google, яка буде показуватися на поточній сторінці.

Зверніть увагу на індекси від Google - основну і додаткову. Вони повинні бути наближатися до 99%. Якщо значення сильно відрізняються, то пошуковик приймає багато ваших сторінок за неякісні.

Потрібно відловлювати такі сторінки і виправляти. Непотрібні сторінки закрити від індексу, потрібні - поліпшити, наприклад, додати унікальний текст.

Останні два рядки - кількість проіндексованих картинок і кількість зовнішніх посилань. Це не зовсім зовнішні посилання, тому що в Google - це зовнішні посилання на сайт, а в Яндексі - просто згадки домену.

Далі йде інформація про зовнішні посилання від сервісу LinkPad - він показує інформацію про посилання і унікальних доменах, які посилаються на цей сайт.

Наступна інформація - це дані Ahrefs про зовнішні посилання, які посилаються на дану сторінку, і Ahrefs domain - кількість посилань на домен. Велика цифра - кількість посилань, маленька - кількість унікальних доменів

Остання колонка - статистика. Показується вся доступна. Наприклад, відображається лічильник LiveInternet, який показує кількість унікальних відвідувачів за 24 години. Alexa ранг - лічильник, який показує наскільки популярний сайт (чим цифра менше - тим сайт вище в рейтингу). Потім йде інформація про каталогах. Дана інформація вже цінності не представляє, тому що більшість каталогів поступово вмирає. Ручна обробка сайтів вже відживає своє, автоматизовані системи беруть своє.

Curle - доморощений спадкоємець Dmoz. RDS bar його показує.

Аналіз IP-адреси показує ваш IP і які погані сайти існують на ньому. Буває корисно подивитися - чи не знаходиться на ньому величезна кількість дорвеев на графі або сайтів заборонених до індексації. Критично для Росії, яка любить блокувати через Роскомнадзор все нехороші сайти. Часто буває блокування по IP. Якщо ви заїхали на хостинг, де все погано, то краще з такого хостингу з'їхати.

Найкориснішим для вас буде параметр Web-архів - перша індексація сторінки з вашого домену, валідація HTML-коду. Дві моїх улюблених посилання на Robots.txt і Sitemap дозволяють швидко переходити на ці файли.

txt і Sitemap дозволяють швидко переходити на ці файли

Це сервіс, який створювався для моніторингу посилань. Корисний для того, щоб подивитися дані по вашому сайту. Для SEO-аудиту я б його не дуже рекомендував. Він дуже корисний для аналізу ваших конкурентів. Як конкурентів у видачі. так і конкурентів у бізнесі.

Можна подивитися дані, який у них популярний контент, які посилаються домени. Це не зовсім SEO-аудит. Аналіз конкурентів - це аналіз стратегії просування ресурсу.

Раз ми заговорили про цей інструментарій, то рекомендую використовувати його для аналізу конкурентів. Заходимо в розділ «Сайт Explorer» → «беклінков» і дивимося всі посилання, які ведуть на сайт конкурентів. Причому обсяг цих посилань може бути вельми і вельми колосальний, але система дозволяє швидко отримати дані по необхідним сайтам в повному обсязі і з високою актуальністю. Буквально вчорашні та сьогоднішні посилання вже знаходяться в базі.

Індексація сайту

Клікнувши на RDS bar, на число проіндексованих сторінок, ми бачимо індексацію сайту як в Яндексі, так і в Google. Вибирайте систему, яка для вас пріоритетна.

Якщо працюєте на російському ринку, то потрібно буде дивитися обидва пошукача, так як частка Google і Яндекса в російському сегменті десь 50/50. У кожній області має сенс працювати над індексацією сайту.

Три великі блоки, які має сенс подивитися.

Перше - це потрапляння неправильних сторінок в індекс. Технічні сторінки, які вам за великим рахунком не потрібні. Наприклад, з'являється на першому місці сторінка з інформацією про конфіденційність, технічну угоду, використання куки. У неї буде високий рейтинг через наскрізний навігації на цю сторінку. В ідеалі - потрібно закрити це посилання від індексації. Якщо це проблематично, то потрібно закрити це посилання в Robots.txt.

Друге, що потрібно дивитися на сайті - це технічна якість відображення фрагментів. У сніпеті не повинно бути косяків і помилок. Наприклад, сниппет-пустушка, поява псевдографіки, не тієї кодування. Все це можна подивитися при швидкому листанню. Різка зміна на тлі однаково сформованих фрагментів буде відразу помітно.

Зверніть увагу, що сниппет формується пошукачем під певний запит. Якщо сторінка ранжируется за кількома запитами, то для кожного запиту сниппет буде різний. Тому що пошуковик буде висмикувати фразу з контенту, підсвічувати її і виділяти жирним. Тому найкраще дивитися сніппети не тільки по індексації, але і за реальними запитами. Який сниппет формується під який запит. Тут допоможе сервіс Topvisor, щоб вручну не перевіряє кожен запит. Можна за допомогою інструменту Топ-сниппет подивитися, який сниппет і під який запит формується в Яндексі.

Третє - це сторінки з Get-параметрами, що потрапили в індекс. Їх потрібно забороняти в Яндексі через Robots.txt, а в Google - через панель Web-майстра.

Це можуть бисть сторінки з фільтрацією, порядком угруповань, окремого відображення кількості артикулів. Наприклад, спочатку на сторінці 24 артикулу, потім можна вибирати 48 артикулів на сторінці.

Бажано, щоб у вас були правильні посилання для швидкого доступу. Вони досягаються шляхом аналізу пошукачем вашого сайту.

Вони досягаються шляхом аналізу пошукачем вашого сайту

Відображаються швидкі посилання відразу під тайтлов. Але якщо трафіку на ваш сайт багато, то в Яндексі і Google у вас буде розширений сниппет.

Але якщо трафіку на ваш сайт багато, то в Яндексі і Google у вас буде розширений сниппет

Наприклад, мережа студій манікюру. Але з іншого боку, одна з цих посилань не надто корисна. Політика конфіденційності не приносить ніякої конверсії, її має сенс закривати від індексації.

Ви не можете вказувати пошуковикам, які посилання відображати на цьому екрані, але ви можете зайти у відповідний розділ і попросити виключити з відображення той чи інший розділ. І пошуковик швидше за все прислухається до цієї рекомендації.

краулер Seoto.me

Тепер про краулери. Краулер - це програма, яка використовується для сканування сайту. Павук переходить на ваш сайт і по посиланнях здійснює переходи на сторінки сайту, попутно збираючи про них інформацію.

Краулери бувають двох типів:

  • Десктопний - програмка, яка працює локально на вашому комп'ютері. Як правило, ви платите тільки один раз і можете далі працювати з нею необмежену кількість разів.
  • Хмарні (серверні) сервіси краулінга, як правило, стягують плату один раз за сканування одного сайту. Великий плюс - ваш комп'ютер не буде завантажений, не потрібно чекати довго закінчення процесу сканування.

Є десктопні краулери Screaming Frog і Netpeak spider . Вони відмінно справляються з невеликими сайтами.

З хмарних рекомендую Seoto.me . Раніше він був взагалі безкоштовним для п'яти сайтів.

Раніше він був взагалі безкоштовним для п'яти сайтів

Тепер безкоштовно показується тільки частина інформації. Але за великим рахунком, якщо вам потрібно перевірити, поганий чи хороший ваш сайт, яке є кількість помилок, то можете спробувати сервіс.

Заходьте на сайт, вказуєте домен. Запускаєте сканування, яке, як правило, займає близько години. Після чого ви можете дивитися інформацію про помилки.

Так виглядає звіт

Seoto.me. Коди відповіді сервера

Вас повинно зацікавити, які сторінки дають правильні відповіді сервера. Якщо сторінка існує - код 200. Якщо її немає - код 404. Якщо сторінка заборонена до доступу - код 403. Коди, що починаються з «п'ятірки» - коди помилок сервера.

Сервіс допоможе швидко аналізувати всі ваші сторінки сайту. Зручно подивитися, на яких сторінках немає Яндекс.Метрики і Google Analytics. Можна помітити, наскільки давно стоять ці коди.

За загальною інформацією можна більш детально вивчити дані на відповідних вкладках.

Наприклад, вкладка «4хх» містить інформацію про помилки. Тут можна детально подивитися, які допущені помилки і на яких сторінках.

Тут можна детально подивитися, які допущені помилки і на яких сторінках

Клікнувши на саму сторінку, ми можемо побачити, з якого місця ведуть посилання на цю відсутню сторінку.

500-е помилки перевіряємо точно так же. 503 - одна з найчастіших помилок, це помилка сервера. Вона з'являється, коли ви дуже швидко скануєте сайт.

Сторінки довгого відповіді. Сторінки без контенту

Сторінки довгого відповіді - це зазвичай сторінка або генерації, або видачі. Найчастіше проблема в тому, що скрипт довго вибирає з бази даних інформацію. Поговоріть з програмістом. Він може придумати, як застосувати кешування для вирішення цієї проблеми.

Інший тип сторінок - це сторінки без контенту. Для пошукача дуже важливий контент. Якщо у вас в галереї якась картинка і немає ніякого тексту, то пошуковик буде сприймати її без контенту і відображати у відповідній вкладці. Для пошукачів такі сторінки є низько значущими, і вони, швидше за все, будуть виключати їх з індексації.

Завдання пошукової оптимізації - це добится того, щоб пошуковик високо показував сайт по певних запитах. Найчастіше картинки галереї не потрібні в індексі. Може бути, краще їх заборонити до індексації, якщо вони не є метою отримання трафіку або у вас немає запитів, прив'язаних до цих картинок.

На скріншоті можна побачити, як виглядає докладна інформація: де і яка посилання розташована, показується чи анкор і т. Д.

Д

На наступному скріншоті зображені посилання, закриті від індексації.

На наступному скріншоті зображені посилання, закриті від індексації

Аналізуємо, чи правильно закриті сторінки від індексації. Буває, що випадково закривають від індексації сторінки, які можуть приносити на сайт трафік. Потрібно стежити за цим і закривати від пошукачів тільки певні сторінки.

Унікальний функціонал Seoto.me

Перейдемо до унікального функціоналу, якого немає у десктопних краулерів. Це визначення часткових дублів. В даному випадку привожу скріншот з повними дублями.

Але для нас дуже важливі часткові дублі. Там, де контент дорівнює не на 100%, а на 50-99%. Їх зазвичай не так легко знайти. Але за допомогою Seoto.me ми можемо визначити їх.

Вам потрібно визначити, хочете ви використовувати дані сторінки в просуванні свого сайту чи ні. І якщо ви будете їх використовувати, то потрібно на таких сторінках розміщувати унікальний контент, щоб сторінка стала високоякісною. Тоді можна розраховувати на появу пошукового трафіку.

Орфографія

Наступна вкладка - це орфографія.

Орфографія дозволяє подивитися всі помилки і помилки, які знайдені на сайті. Показує помилки, зроблені не тільки в контенті, а й в меню, «підвалі» або в посиланнях.

Як правило, якщо посилання розміщене в прихованому контенті, то її пропустити дуже легко, а з нею і помилку. Якщо помилка міститься на засланні, то ви отримуєте не той анкор, який хочете. Він не буде відповідати вашим очікуванням, не передаватиме потрібну вагу. Відповідно, сайт ранжируватиметься нижче.

Теги

Є також вкладка «Теги», які розбиті по групах: тайтли, хедери, мета дескріпшни, кейворди.

На сайті повинні бути присутніми відповідні теги. Вони повинні бути заповнені і унікальні в межах всього сайту. Відповідні помилки можна побачити в розділі «Дублі». Також вони повинні бути певної довжини.

Якщо брати Seoto.me, то тайтл повинен бути розміром від 70 і не дуже довгим.

Буває, використовується автоматична генерація тайтлів і дескріпшенов. У підсумку вони виходять наддовгими, так як генератор не враховує максимальну довжину. Але це не впливає на ранжування. Весь хвостик буде ховатися, і користувачі не зможуть його прочитати. Але пошуковикам ваш сайт буде здаватися менш якісним, хоча явного впливу на ранжирування не буде. Але в вебмайстрів Яндекса і Google ви все одно зможете побачити попередження про довгі тайтли або короткі і дескріпшни.

Але в вебмайстрів Яндекса і Google ви все одно зможете побачити попередження про довгі тайтли або короткі і дескріпшни

Тайтл - дуже важливий для впливу на кликабельности. При правильному підході у вас не повинно зустрічатися коротких тайтлів. Крім того, використовуйте call to action, складайте спеціальні фрази, які приманюють людей.

Потрібно всі ці помилки виправляти. Додати контент на порожні сторінки, додати тайтли. Якщо це дублі, то переписати тексти або теги, щоб вони дублями не були.

В даному прикладі наведено приклади коротких тайтлів:

В даному прикладі наведено приклади коротких тайтлів:

Останній рядок вельми показова: 3379 - автоматично згенерований артикул, який потрапив в генерацію сторінки. Є також назви англійською, які треба переписати російською мовою.

Є також назви англійською, які треба переписати російською мовою

На прикладі можна помітити, що немає назв. Це технічні урли. Перше посилання - це логін, далі - показ відео і т. Д. Тайтла тут не вказані, щоб вони не потрапили в індекс. Ці сторінки найкраще закрити від індексації у файлі Robots.txt.

txt

У Seoto.me зручний інтерфейс для сканування. Якщо ви вважаєте, що помилка, яку знайшов сканер, не критична, то ви можете її ігнорувати. Цей функціонал краще використовувати, щоб технічні посилання не надокучили з плином часу, і ви випадково в масі посилань не пропустили справжню помилку.

Також можна зробити сканування сайту регулярним і порівнювати помилки щодня. За даними будується графік. Можна подивитися, як змінюється кількість помилок, старі помилки не ігноруються. Знаходимо дублі тайтлів і даємо завдання на виправлення. Можна вказати, чим відрізняється товар: за ціною, кольором і т. Д.

Не забуваємо про помилки:

Не забуваємо про помилки:

Дуже зручно виявляти помилки, так як колосально економиться час в порівнянні з ручною обробкою.

картинки

Саме корисна для SEO-спеціаліств інформація - биті картинки. Дивимося вкладки зовнішні і внутрішні. Це картинки, які вже не існують, або посилання застаріло. Особливо критичні зовнішні картинки, так як їх контролювати складніше. Намагайтеся переносити до себе все зображення.

Сканер перевіряє всі картинки. Після звіту можна вирішити, що з ними робити: оптимізувати, знайти правильні посилання і т. Д. Для SEO-фахівця важливо, щоб не було технічних помилок, битих посилань на порожні картинки.

посилання

Page Rank показує передають вагу на ваш сайт по зниженню. Якщо у вас в топ-10 потрапляють технічні сторінки, то швидше за все їх треба закрити. Наприклад, на особистий кабінет, політику конфіденційності, персональні дані і т. Д. Якщо вони не потрібні для індексації - закривайте їх в Robots.txt.

Слід дивитися на внутрішні і зовнішні биті посилання. Внутрішні биті посилання часто бувають наскрізні. Перевіряємо і шукаємо такі помилки, які обов'язково потрібно виправити. Сканер показує, на яких сторінках зустрічаються такі посилання.

Наступна сторінка - це дані про mod_rewrite. Це спеціально згенеровані написання. Таких сторінок на сайті немає і не повинно бути. Якщо на такі сторінки сервер віддає статус 200 і вдає, що все в порядку, то тоді така ситуація може призвести до появи дублів. Бажано, щоб дублів не існувало. Це потрібно виправляти.

Система збирає інформацію про різного виду некоректних відображеннях сторінок. Наприклад, відображаються посилання, в яких є великі символи. У посиланнях повинні бути тільки в нижньому регістрі. Останній URL, якому приписали зайвий символ, а сервер віддав код 200. Це неправильно. Виправляйте такі помилки - ставте редіректи, міняйте посилання і т. Д.

редіректі

Останній розділ, який нам потрібен для SEO-аудиту - це редіректи, які бувають двох типів: циклічний і множинний.

Циклічний редирект перекидає з однієї сторінки на іншу. Буває, що цикл складається з декількох переадресаций відразу. Якщо зустрічаються циклічні редіректи - це погано. В такому випадку пошуковик не може знайти потрібну інформацію.

В такому випадку пошуковик не може знайти потрібну інформацію

Множинні редіректи. Пошуковики погано сприймають більш восьми редиректів поспіль. В такому випадку вони припиняють сканування за цими редирект. Також це безглуздо і погано, так як уповільнює роботу сайту. Має сенс скоротити такий ланцюжок, зробивши редирект відразу з початкової сторінки на кінцеву.

Seoto.me допомагає знаходити всілякі помилки на сайті. Далі складаєте ТЗ і передаєте SEO-фахівцям.

Яндекс.Вебмайстер

панель Яндекс.Вебмайстер - це офіційна інформація про те, що думають про вашому сайті пошуковики. Безумовно, великою перевагою є важлива інформація про накладені на вас санкції. Якщо на сайт накладено бан, то вся інформація буде видна.

Яндекс дуже серйозно ставиться до банам і зразково-показовим способом карає оптимізатора. В Google ситуація легше, так як він не відразу накладає санкції, а чекає виправлень. І тільки потім застосовує штрафні санкції.

Правда, в Яндексі є служба техпідтримки, а в Google її немає. Якщо працюєте з українськими сайтами, то вам пощастило - не будете стикатися з банами в Яндексі. А якщо працюєте з російськими, то вам потрібно враховувати правила гри Яндекса.

пошукові Предложения

пошукові Предложения

Зведення «Діагностика сайту" містить інформацію по сайту про накладені санкції. Видається попередження, якщо у вас є помилки. Помилки бувають фатальні - бан, санкції, критичні. Вони на ранжування не впливають, але заважають індексації. Помилки бажано виправити, але, наприклад, з довжиною тайтла помилки не критичні.

Зведення «Пошукові запити» дозволяє переглянути дані, за якими ранжируется сайт. Подібний розділ в Google володіє ще більшою користю, тому що всередині сервісу, як правило, дані зашифровані, і подивитися їх можна тільки в цьому розділі. А ось Яндекс все запити тримає відкритими.

Зверніть увагу, якщо сайт показується з яких-небудь запитами, але по ньому не було ніяких переходів на цю сторінку, то значить проблема швидше за все в сніпеті. Перегляньте статистику за такими запитами, подивіться, як виглядає сниппет в реальності, і що можна виправити, щоб збільшити кількість переходів.

Можна робити різні зрізи: дивитися, як потенційно буде рости або падати трафік в майбутньому. Це вкладка «Тренди». Можна дивитися зрізи по регіонах, по пристроях, за певними групами, ввести вибрані запити. І відстежувати тільки по цих запитах. Моніторити, звичайно, по вибраних запитах незручно в панелі вебмастера, так як все одно не отримаєте повних даних (вони обмежені за обсягом). Користуйтеся зовнішніми сервісами - це буде набагато зручніше і ефективніше.

Вкладка «Останні запити» - показує, по яким останнім запитам перейшли на сайт. Рекомендовані запити - це запити, за якими сайт міг би отримувати хороший трафік, де видно потенціал зростання. Це корисний розділ, щоб поліпшити свій сайт. Досить вписати в контент ці фрази, щоб ви отримували відразу вже якісь відвідування.

індексування

Наступна зведення - Індексування. Тут можна побачити, як індексується сайт, наскільки давно і як часто заходив краулер пошукача, які сторінки в пошуку, графік, який показує, які сторінки з'явилися, а які випали. На прикладі видно, що нові сторінки не з'являються, а багато сторінок випадає з індексу.

Потрібно подивитися, які сторінки випали з індексу. Ця інформація доступна.

Наступний розділ - Структура сайту. Він дозволяє додавати сторінки в список і потім швидко дивитися по ним дані. Можна додати до п'яти розділів.

Можна додати до п'яти розділів

На вкладці «Перевірити статус URL» можна подивитися код, який віддає ваш сервер. Важливі сторінки - це сторінки, які ви заносите в список, і пошуковик моніторить їх окремо, показуючи статус, контент, сніпети. Можна користуватися, якщо ви не хочете витрачати гроші на зовнішні інструментарії.

Далі - вкладка «Переобход сторінки». За допомогою цього функціоналу можна швидко проіндексувати сторінки. Зазвичай цей період становить пару днів.

Sitemap - розділ, де ви можете додати карту сайту.

І корисний інтерфейс - переїзд сайту. Ви можете змінити основний домен тільки в ньому, тому що Яндекс перестав враховувати в Robots.txt інструкцію host. Можна вибрати переїзд з http на https, домен з www на без www. Але вони повинні бути проіндексовані. Пошуковик порівняє, що це дзеркала одного і того ж сайту, і їх можна скріплювати.

ПОСИЛАННЯ

ПОСИЛАННЯ

Внутрішні і зовнішні посилання. У розділі можна переглянути всі посилання. Це дуже важлива інформація - зовнішні сервіси не замінять її, так як ця інформація від першоджерела.

Якщо ви зайдете в Ahrefs і просканіруете посилання, а потім зайдете в Google і Яндекс.Вебмайстер і візьмете посилання звідти, то отримаєте три різних набору посилань, так як кожен сервіс їх бачить по-своєму. Для Яндекса важливі посилання, які він знайшов і вірить, що вони існують.

Турбо-сторінки

Можна переконати Яндекс показувати Турбо-сторінки - це аналог AMP-сторінок в Google. Це мобільна версія сторінки з контентом, який дозволяє швидко відобразити інформацію в пошуку. Якщо в Google AMP - це мікророзмітки, то в Яндексе.Турбо сторінки - це RSS-фід, який представляє собою контент вашого сайту, посилання для Perl, рекомендовані логіни, які генерують Турбо-сторінки. Рекомендую користуватися цим сервісом, тому що пошуковик ретельно просуває цю технологію. На мобільних пристроях сайт буде отримувати більше трафіку, а це дуже важливо, тому що мобільний трафік постійно зростає.

Мобільні сторінки

Вкладка «Перевірка мобільних сторінок» дуже важлива, так як відрізняється від всіх подібних сервісів. Справа в тому, що список параметрів, за яким Яндекс перевіряє адаптивність, відрізняється від Гуглівского. І він більше. Наприклад, тут є розмір шрифтів, на який Mobile friendly від Google не лається. Якщо ви рухаєтеся в Росії, то перевіряйте мобільність своїх сторінок ще й в Яндексі.

Google Search Console

Індексація

Google Search Console показує, як проіндексований сайт в пошуку.

Аналіз пошукових Запитів

Можна дізнатися, за якими фразами показується сайт. Щоб дані були доступні в Google Analytics, необхідно зробити інтеграцію з Google Search Console. Це дасть можливість подивитися список конкретних фраз, за ​​якими ваш сайт з'являвся в пошуку.

оптимізація HTML

Один з розділів, які можна побачити - це оптимізація HTML. Дуже скорочений варіант Seoto.me, де ви можете побачити результати сканування сайту. Google показує рекомендації, де повторюються неунікальні теги.

Зазвичай таку інформацію зручно дивитися в зовнішніх краулер, які покажуть дані більш детально і в розширеному вигляді.

Зазвичай таку інформацію зручно дивитися в зовнішніх краулер, які покажуть дані більш детально і в розширеному вигляді

Інструментарій аналізу пошукових запитів розкриє, по яких запитах був показаний ваш сайт. Рекомендую використовувати вкладку CTR, щоб подивитися, як сформований сниппет. Якщо у сторінки дуже низький CTR, то це означає, що ваш сниппет непривабливий, користувачі на нього не клацають. Обов'язково аналізуйте цю статистику.

сканування

Прийняті вручну мери- це якраз санкції, які накладені на сайт. Всілякі бани, фільтри і причини, за якими вони накладені, будуть відображатися цьому розділі. Один з можливих мінусів цього розділу - це те, що він відкладає помилки, які дуже неточно сформульовані. Наприклад, ваш сайт порушує вимоги до веб-майстрам. У такому випадку Google дає посилання на сторінку, де описані всі можливі причини помилок.

Перевіряйте все, починаючи від вірусів і закінчуючи агресивністю розміщення реклами. Якщо у вас така помилка, то це, можливо, найгірше, що може з вами трапитися - так як немає ніякої конкретики. Доведеться вивчити багато літератури, випробувати багато способів, перш ніж вдасться вивести сайт з-під фільтра.

Індексація показує, скільки сторінок знаходиться в індексі. Наскільки швидко потрапляють сторінки в індекс. Чи добре сканує сайт пошуковик. Не повинно бути різких сплесків і падіння до нуля - значить, сервіс не справляється з навантаженням.

Наступний розділ - «Подивитися як Googlebot». У нього є два режими. Перший режим - відобразити. Сторінка відображається по-різному, тому що можуть бути заборонені до індексації Javascript-файли. Це погано, тому що скрипти, які впливають на відображення, повинні бути доступні для пошукача. Правильно відображається версія сторінки тільки в тому випадку, якщо всі необхідні стилі і скрипти відкриті для пошукача.

Правильно відображається версія сторінки тільки в тому випадку, якщо всі необхідні стилі і скрипти відкриті для пошукача

Слідкуйте, щоб ваш відображається контент істотно не відрізнявся за змістом від того, який ви показуєте для пошукача. Якщо буде визначена така помилка, то пошукова система може накласти на сайт фільтр. Це так званий клоакинг, коли маніпулюючи Javascript, ви приховуєте від пошуковика частина контенту, наприклад, частина ключових слів.

Коли будете дивитися відображення сторінки, то після сканування з'явиться кнопка «Додати в індекс». Є два режими додавання - додати тільки поточну сторінку або додати поточну сторінку і все, на які вона посилається. Додати одну сторінку можна 500 разів на місяць. Додати сторінку і все, на які вона посилається, можна 20 разів на місяць.

Перевага цього сервісу перед Яндексом - сторінка потрапляє в індекс практично моментально. Натиснули «Додати в індекс» - і через 5 хвилин бачите, що вона вже в індексі і можна проводити ранжування.

Параметри URL - це аналог яндексовского Сlean Param. Потрібні для очищення Get-параметрів. Це UTM-мітки, пагінація, сортування і т. Д.

Якщо ви знаєте, що сайт генерує деякі Get-параметри, які ви не хотіли б бачити в індексі, то на цій сторінці можна відразу їх заборонити до індексації.

раджу вивчити рекомендований склад SEO-аудиту .

ВІДПОВІДІ на запитання

- Які відмінності оптимізації під Яндекс і Google?

- Якщо ви працюєте на обидва ринки, то вам доведеться враховувати обидві пошукових машини. Ви ж все одно будете доступні обом пошуковим системам - треба враховувати цю особливість. Відрізняється дуже тонкими речами. Наприклад, в Яндексі дуже критична текстова релевантність. Працюючи з текстовою релевантність і ключами, можна добиватися істотного зростання позицій. В Яндексі дуже важлива накрутка поведінкових факторів, як інструмент оптимізації. Критично важливо в Яндексі, якщо ваш домен або ваше назва бренду дуже часто зустрічається в мережі. В такому випадку будете ранжуватися по великій кількості різноманітних запитів. В Яндексі може бути на високих позиціях сторінка без контенту. В Google такий фокус не пройде. Крім того, для Google критичні посилання. Якщо у вас немає посилань, ви не будете на високих позиціях. У складних конкурентних тематиках це точно.

- Рейтинг Ahrefs.

- Рейтинг Ahrefs відображає кількість сайтів, які на вас посилаються, і їх рівень. На зростання рейтингу впливає кількість доменів і оцінки, які отримали ті домени, які посилаються на вас.

- Як бути з просуванням інтернет-магазину з України в ПС Яндекс?

- Якщо ви намагаєтеся продавати в Яндексі, то тільки клієнти, які користуються VPN, зможуть скористатися послугами вашого інтернет-магазину. А частка таких користувачів мала. Найголовніше, що вони ще й будуть працювати під IP-адресою, який визначається якимись Нідерландами або Німеччиною. Тому в цьому немає особливого сенсу.

- Sape.

- Посилання актуальні до 2018 року. Можна купувати, але якість донорів впало, так як Яндекс почав боротися з посилальної продажем. Купуючи посилання на даний момент, потрібно бути в рази уважніше.

Если ви хочете навчітіся оптимізувати сайти и дива суперменом-сеошник, то можемо Запропонувати курс «SEO-оптимізація: продвижения сайтів в пошукових системах» . После курсів проведете аудит сайту и створі стратегію продвижения. Навчіться аналізуваті конкурентів, сформуєте семантичного ядро. Прогнозуючі результати продвижения, зможете оптимізувати бюджет. Привабливий? Записи!

Записатись

Если Ви нашли помилки, будь ласка, віділіть фрагмент тексту и натісніть Ctrl + Enter

З чого починати аудит?
Чим це загрожує?
Що таке RDS bar?
Як бути з просуванням інтернет-магазину з України в ПС Яндекс?
Привабливий?
Навигация сайта
Реклама
Панель управления
Календарь новостей
Популярные новости
Информация
Экономика стран www.mp3area.ru © 2005-2016
При копировании материала, ссылка на сайт обязательна.