Экономика стран

К сожалению, большинство людей, которые будут ими затронуты почти весь мир, не будут иметь никакого влияния на результат. Вести Экономика Дайджест иностранной прессы за 14 августа.
Вести Экономика Греции снова придется списывать долги Греция не сможет самостоятельно расплатиться по долгам, и понадобится новая реструктуризация долгов, чтобы спасти страну от банкротства.

Топ безкоштовних SEO програм для початківців оптимізаторів

  1. Софт для складання семантичного ядра
  2. Magadan Lite
  3. SlovoEB
  4. інтерфейс
  5. Налаштування
  6. парсинг
  7. Аналіз і складання семантичного ядра
  8. Робота з контентом сайту
  9. Advego Plagiatus і Etxt Антиплагіат
  10. Etxt Антиплагіат
  11. Перевірка позицій і аудит сайту
  12. Netpeak Spider
  13. Site-Auditor
  14. Page Weight Lite
  15. SiteMap Generator
  16. SEO Anchor Generator
  17. підсумок

Для великих проектів в пошуковому просуванні краще скористатися платними інструментами, які дають істотну перевагу в продуктивності, проте для ясного розуміння, як працює SEO можна починати з безкоштовного софта.

Робота з цим SEO софтом не зажадає інших витрат крім часу на навчання і певної посидючості, що є великим плюсом для початківців оптимізаторів.

Софт для складання семантичного ядра

Правильне просування сайту потрібно починати ще на етапі його створення.

Для досягнення найбільшої ефективності кожна сторінка сайту повинна мати певну мету і повинна бути «заточена» під відповідні пошукові запити.

Ми вже говорили про те, що таке семантичне ядро ​​сайту , Наскільки воно важливе, як грамотно його скласти і як підібрати ключові слова, а також особливості підбору ключових слів для певних статей, блогів чи сайтів .

Для деяких ніш можна використовувати просування низькочастотними запитами , Яке допоможе домогтися перших результатів порівняно швидко.

Про способи підбору ключових слів можна прочитати цю статтю .

Можна підбирати запити вручну, копіюючи фрази Яндекс вордстат в Exel, сортуючи і обробляючи їх вручну, але це може стати вкрай неефективним для проектів з великим числом ключових слів, тому будемо освоювати способи автоматизації.

Можна підбирати запити вручну, копіюючи фрази Яндекс вордстат в Exel, сортуючи і обробляючи їх вручну, але це може стати вкрай неефективним для проектів з великим числом ключових слів, тому будемо освоювати способи автоматизації

Magadan Lite

Магадан - досить популярна програма в рунеті для роботи з ключовими словами. Існує в двох версіях - платна Pro і безкоштовна версія Lite. Роботу з останньої ми розберемо, благо що у неї функціонал майже не відрізняється від повної версії.

Основні можливості програми:

  • збір статистики запитів з Яндекс.Директ;
  • збереження результатів у власних базах для подальшої роботи;
  • широкі можливості фільтрів ключових слів.

Магадан автоматизує трудомісткі завдання парсинга ключових слів, викачуючи цілі сторінки пошукових запитів вордстата. А потім він може вибудувати взаємозв'язок між групами запитів. Ще не існує аналогів з таким набором опцій, як у цієї програми.

Трохи докладніше про можливості:

  • автоматизація збору ключових слів
  • обробка точних запитів в лапках і зі знаками оклику перед словами
  • збір регіональної статистики геозалежних запитів (тільки для версії Pro)
  • автоматизація великої кількості рутинних завдань по обробці запитів: об'єднання, очищення і т.д.
  • автоматичне додавання в чергу парсинга запитів за заданим шаблоном, тобто Магадан може безперервно працювати замість вас
  • перевірка запитів без захаращення бази ключових слів
  • імпорт / експорт зібраних запитів в файли. Підтримуються формати txt, CSV / MS Excel, SQL-дамп MySQL і кодування Win-1251, UTF-8

Порядок роботи з програмою такий:

  • Підключити або створити нову базу ключових слів, при цьому можна задати шлях збереження бази запитів. База зберігається в бінарних файлах власного формату.

База зберігається в бінарних файлах власного формату

  • Заповнити чергу запитів на парсинг, слова можна додавати вручну або імпортувати із зовнішнього файлу.

Заповнити чергу запитів на парсинг, слова можна додавати вручну або імпортувати із зовнішнього файлу

  • З черги «на парсинг» запити автоматично зберігаються в підключеної раніше базі даних.
  • Встановити оптимальний час затримки при парсінгу щоб уникнути бана від вордстата.
  • По завершенню парсинга можна виділити всі слова або їх певні групи в файл бажаного формату.

По завершенню парсинга можна виділити всі слова або їх певні групи в файл бажаного формату

Обмеження версії Магадан Lite:

  • Не можна задати регіони запитів.
  • Немає звукового повідомлення про завершення парсинга.
  • Немає автоматичного додавання проксі серверів.
  • Немає підтримки Antigate API.

SlovoEB

Ця програма, незважаючи на немилозвучну назву, вважається кращою з безкоштовних для складання семантичного ядра .

Незважаючи на сильно урізаний функціонал в порівнянні з KeyCollector, у цього софта все ще залишається багато корисних можливостей по збору та аналізу ключових слів.

можливості:

  • Вміє збирати всі запити статистики Яндекс Wordstat, збирає як з лівої, так і з правої колонки сервісу. Без обмежень, тобто нічим не гірше, ніж використовувати статистику запитів Яндекса вручну.
  • Збір статистики Liveinternet з урахуванням популярності пошукових фраз для збору семантичного ядра.
  • Визначення конкурентності пошукових запитів виходячи з числа сайтів в індексі по даному запиту, конкуренцію можна оцінити приблизно.
  • Визначення самої релевантною сторінки, а це важливо для правильної внутрішньої перелінковки сайту.

інтерфейс

Slovoeb дуже схожий на Key Collector, має інтуїтивно зрозумілий інтерфейс, в якому нескладно розібратися.

Slovoeb дуже схожий на Key Collector, має інтуїтивно зрозумілий інтерфейс, в якому нескладно розібратися

  1. Панель швидкого доступу, за допомогою якої починається робота з проектами і настройками софта.
  2. Кнопка зупинки процесів - не всі завдання бездоганні і в момент усвідомлення своєї помилки процес можна зупинити.
  3. Стоп-слова: не всі слова однаково корисні для нашого сайту, тому можна додати список винятків з пошукових запитів. Так ми скорочуємо витрачається час роботи і відсікаємо все зайве.
  4. Регіони Яндекс Wordstat дозволяють працювати з геозалежні пошуковими запитами - опція особливо актуальна для локальних інтернет-магазинів і регіональних сайтів.
  5. Ліва колонка Yandex.WordStat - саме з неї буде виконуватися пакетний збір ключових слів разом з їх базовими частотний.
  6. Права колонка Yandex.Wordstat - запускає парсинг схожих запитів з правої колонки сервісу Вордстат.
  7. Частотності Yandex.Wordstat - існують різні види частотних пошукових запитів, меню, що випадає дозволяє вибрати будь-який з них або все. Така опція дозволяє підібрати найефективніші ключові слова.

Що потрібно знати про частотності Яндекса:

  • Базові частотності - всі запити в будь-якій формі;
  • Частотності "" - тільки цей запит і все його словоформи (склонениям), довші запити, що містять вказаний запит, будуть відкинуті.
  • Частотності "!" - тільки точні запити.
  1. Сезонність Yandex.Wordstat допоможе дізнатися відомості про частоти пошукових запитів в різні періоди року.
  2. Пошукові підказки. Для популярних запитів у популярних пошукових систем (Яндекс, Google, Mail.ru, Рамблер, Nigma і Yahoo!) можна отримати пошукові підказки, які вони зазвичай показують користувачам в рядку пошуку.
  3. KEI - показник конкуренції залежить від того, скільки сайтів в індексі Yandexі Google відповідають ключовим словом.
  4. Аналіз релевантних сторінок для конкретного сайту. Прописавши адресу свого сайту, можна дізнатися адресу самої релевантною сторінки, тобто тієї, яку Яндекс або Гугл вважають найавторитетнішою на цей запит. Тобто можна прийняти рішення, яку сторінку просувати під той чи інший запит.
  5. Вказати регіон потрібно для більш точного визначення релевантності.

Налаштування

Найважливіші налаштування знаходяться у вкладці Парсинг / Загальні і Парсинг / Yandex.WordStat.

Розглянемо докладніше настройки Парсинг / Загальні:

  • Таймаут потрібні, щоб уникнути бана IP в процесі парсинга сервісом вордстат;
  • Оптимальне число повторних спроб близько 3 якщо виникла помилка парсинга або Вордстат все-таки справив тимчасову блокування IP, в такому випадку доведеться використовувати проксі або чекати;
  • Рядки з неотриманими даними - збирати інформацію тільки по тих запитах, які ще не були повністю оброблені;
  • Видаляти з слів спецсимволи і приводити слова в нижній регістр - все, що нам не потрібно фільтруємо за допомогою цих опцій.

Парсинг / Yandex.WordStat:

Налаштуємо парсинг статистики вордстат:

  • Глибина парсинга - для початку досить виставити в 0, якщо ж буде потрібно більше значення, то не обійтися без проксі і таймаутів;
  • Парсити сторінок: максимальне число сторінок, які віддає сервіс вордстат - 40, а на кожній сторінці 50 запитів більше цієї кількості зібрати не вийде (всього до 2000 кейвордов);
  • Вибір базової частотності, по якій буде вестися парсинг залежить від конкурентності теми і того, наскільки частотні запити нам знадобляться. Для вузької ніші можна поставити від 30, а для широкої від 50-200. Верхнє значення допоможе відсікти високочастотники, якщо нам потрібно просування тільки по НЧ запитам.
  • Кількість потоків - поставити не надто багато, щоб не викликати підозр вордстат, почати можна з 1;
  • Види частотного - ставимо ті, які нам потрібні. Зазвичай для збору семантичного ядра досить базової і точної ( "!") Частотності. Частотності "лапки" можна не використовувати.

парсинг

Для пасінга кейвордов пройдемо через наступні стадії:

Додатково можна ще зробити такі кроки:

  • Дізнатися конкуренцію KEI і відібрати відповідні слова
  • Визначити релевантні сторінки по найважливішим ключовим запитам
  • Експортувати результати в файл.

Ось так виробляється весь процес збору ключових слів з лівої колонки вордстат. Потрібно розширити тематику? Тоді всі ці кроки можна виконати і для правої колонки Yandex.Wordstat.

Аналіз і складання семантичного ядра

Потім нам потрібно дізнатися конкуренцію за ключовими словами. Для цього можна скористатися наявними можливостями програми Slovoeb і отримати число конкуруючих сайтів по цих запитах.

Але для отримання більшої кількості і якості даних можна скористатися можливостями seo-агрегаторів. Наприклад, отримані запити можна додати в посилальні агрегатори SeoPult або ROOKEE і дізнатися їх вартість просування.

Провівши підрахунки в програмі Excel, можна прийняти рішення, які запити ми будемо просувати.

Провівши підрахунки в програмі Excel, можна прийняти рішення, які запити ми будемо просувати

Ретельний аналіз отриманих ключових слів допоможе побудувати з них семантичне ядро ​​сайту.

Отже, ця програма прекрасно справляється зі своїми завданнями і освоїти її не так складно, як здається на перший погляд.

Робота з контентом сайту

Пошукові системи постійно підвищують вимоги якості до сайтів, особливо до нових проектів. Одним з алгоритмів, що визначають якість сайтів, є перевірка контенту на унікальність. Контентом сайту є весь його вміст, яке може бути проіндексовано - це тексти, графіка, відео та інші web об'єкти.

Контент на сайті повинен бути корисним для людей, надавати цінну інформацію, товари або послуги. Якщо сайт вигідно відрізняється від своїх конкурентів, містить унікальні статті і картинки, то за інших рівних умов він ранжируватиметься вище інших.

Слід враховувати, що однією унікальності мало, контент не повинен бути автоматично генерованим, а сайт не повинен вводити в оману ні відвідувачів, ні пошукові системи.

Залежно від тяжкості порушень такий сайт ризикує потрапити під санкції пошукових систем: потрапити під фільтри, повністю випасти з індексу пошукової системи і навіть піти в бан. У разі бана сайт стає забороненим для індексації.

Тому для успішного розвитку сайту буде потрібно наповнювати його унікальними статтями, так як плагіаторів пошукові системи не люблять.

Advego Plagiatus і Etxt Антиплагіат

Для перевірки статей на унікальність існує спеціальний софт: Advego Plagiatus (Адвего Плагіатус) від біржі статей Advego і Etxt Антіплагіа т від etxt.ru

Ці програми перевіряють на унікальність статті, у них подібний принцип дії, хоча при своїй роботі вони можуть видавати трохи відрізняються результати. Якщо дозволяють можливості, то краще перевіряти статті на унікальність цими двома програмами, хоча зазвичай користуються якимось одним інструментом.

Не будемо детально заглиблюватися в особливості роботи пошукових систем по визначенню унікальності тексту. Скажемо лише, що є таке поняття як шингл ( «черепиця», «цеглинка», «осередок») - це послідовність кількох слів в певному порядку. З цієї послідовності і визначається унікальність статті.

Якщо ви хочете купувати статті або замовляти їх у копірайтерів, то перевіряти їх роботу ви можете за допомогою цих програм, адже хороша стаття повинна бути не тільки інформативною і корисною, але і бути досить унікальною і не містити в собі плагіату.

Само собою зрозуміло, що важко вигадати щось своє і кожна стаття, яка технічно не є плагіатом, логічно залишається модифікованої послідовністю запозичених ідей у ​​інших авторів. Але вся журналістика коштує на запозиченні один у одного інформації, його аналізі та синтезі.

Потрібно добре розбиратися в тематиці сайту, так щоб при додаванні нових статей не постраждала їх достовірність, а сайт ніс актуальну і якісну інформацію. Вимоги до якості контенту у сайтів різного призначення відрізняються і чим вони вищі, тим більший знадобиться бюджет.

Стаття в тему: 3 способи захистити контент від копіювання .

Advego Plagiatus

Отже, розглянемо програму Advego Plagiatus. При її запуску ми повинні перевірити наявність оновлень, тому що тільки остання версія несе відповідальності за достовірність результатів: щось може змінитися в алгоритмі програми і, якщо ми користуємося старою версією, то в деяких випадках вона може видавати унікальну статтю за плагіат або навпаки - вона може копіпаст (скопійований контент) вважати унікальним.

У текстове поле цієї програми ми вставляємо текст статті і запускаємо перевірку. Швидше за все, програма у нас потребують розпізнавання російської каптчі, що не дуже зручно при перевірці великого кількість статей. Пошукові системи вимагають від нас підтвердити, що за комп'ютером сидить людина, а не бот відсилає їм запити.

Однак в налаштуваннях програми можна вказати аккаунт сервісу для розпізнавання каптчі, послуги цих сервісів стоять зовсім недорого, але при цьому дозволяють економити дорогоцінний час.
Після того як сталася перевірка, програма показує нам результати: вона шукає збігаються фрагменти тексту і показує посилання на ті сторінки сайтів, на яких був виявлений схожий текст. Потім вона підсумовує унікальність статті і показує нам результат, будь то рерайт або копірайт. В ідеалі повинна бути стовідсоткова унікальність статті, але для деяких текстів, особливо технічних, цього домогтися досить важко, тим більше, якщо тема статті поширена і по ній опубліковано досить багато матеріалів.


Etxt Антиплагіат

Детально розглянувши роботу адвего Плагіатус, ми відзначимо, що Etxt Антиплагіат працює аналогічним чином. Якщо ми перевірили унікальність тексту в обох програмах, то ми можемо бути впевнені в достовірності результатів.

Однак ця програма має свої переваги:

  • Може виконувати пакетну перевірку файлів на диску
  • Сканувати сайт і перевіряти на унікальність все його сторінки, створювати детальний звіт
  • Працювати зі списком проксі серверів
  • Розпізнавати капчи пошуковиків
  • Вести історію перевірок

Може виконувати пакетну перевірку файлів на диску   Сканувати сайт і перевіряти на унікальність все його сторінки, створювати детальний звіт   Працювати зі списком проксі серверів   Розпізнавати капчи пошуковиків   Вести історію перевірок

Як бачимо, функціонал Etxt Антиплагіат набагато могутніше, ніж Advego Plagiatus.

Перевірка позицій і аудит сайту

Найпростіший і успішний шлях правильного розвитку свого проекту при відсутності достатнього досвіду - це навчитися у конкурентів.

А для успішної та ефективної SEO розвідки нам знадобляться програми, які допоможуть виконати аудит сайтів конкурентів і розібратися, чому ж вони займають ті чи інші позиції видачі по певних запитах.

Крім того, ці ж програми нам знадобляться в процесі роботи над власним сайтом, оскільки створення більш-менш серйозного проекту в даний час це не питання одного дня. Це може займати досить тривалий час і на сайті буде постійно йти розвиток. За всім цим процесом потрібно стежити і аналізувати, не допустили ми помилок, які можуть нам істотно перешкодити процесу пошукового просування сайту.

За всім цим процесом потрібно стежити і аналізувати, не допустили ми помилок, які можуть нам істотно перешкодити процесу пошукового просування сайту

Netpeak Spider

Netpeak Spider - безкоштовна програма для аналізу сайту. Виробляє сканування, використовуючи власного бота, схожого за алгоритмом роботи на ботів пошукових систем.

Перевіряє параметри сайту і аналізує їх, надає нам такі можливості:

  • Допомагає знаходити помилки, неправильні редіректи, биті посилання, дублікати заголовків сторінок (title), опису (description), ключових слів (keywords)
  • Аналіз всіх посилань для кожної станиці сайту (вихідних і вхідних)
  • Оцінка ваги кожної станиці (по GooglePageRank)
  • Безліч опцій сканування і аналіз роботи robots.txt
  • Вивантаження результатів роботи в формат Excel

Спочатку вводимо адресу сайту, який будемо аналізувати:

Кількість потоків програми і тайм-аути дозволять вибрати оптимальний режим роботи між швидкістю аналізу і навантаженням на хостинг сайту.

Налаштуємо необхідні опції:

Link canonical - вказує адресу бажаної сторінки (якщо є дублі сторінок, то одна з них повинна бути або закрита від індексації або на інший повинен бути тег "rel = canonical").

Відповідь - можна перевірити помилки сервера, чи коректно він обробляє сторінки сайту.

Title - бажано прописувати вручну або за допомогою спеціальних плагінів, не повинен бути генерованим (містити осмислений текст).

Теги Description і Keywords: відображає, чи прописані теги. Деякі вважають, що вони застаріли, а їх відсутність не є критичною помилкою, однак їх наявність підвищує якість сайту в очах пошукових систем. Не рекомендується зловживати тегами: перевантажувати їх повторюваними ключовими словами або вводити відвідувачів в оману неправильними description (опис станиці в сніпеті пошукової видачі).

Якщо ми сканували Роботс, то у нас доступна колонка robots.txt, таким чином ми можемо бачити як працюють правила robots.txt .

Редіректи потрібно враховувати, особливо, якщо на ці сторінки проставлені посилання

Кожна сторінка повинна містити один заголовок H1 якомога ближче до її початку.

У пошуковому просуванні важливу роль відіграють посилання, навіть якщо говорять про їх «скасування», але іншої альтернативи у пошукових алгоритмів немає.

Посилання з цієї сторінки (внутрішні посилання + зовнішні посилання) передають деяку вагу, при цьому він може «витікати», тобто сама сторінка втрачає деяку частину ваги. Тут потрібно звернути увагу на зовнішні посилання. Вважається, що багато зовнішніх посилань - це погано, якщо зовнішніх посилань більше 100, то можна потрапити під фільтр за контрольний спам. Посилання з цієї сторінки (внутрішні посилання + зовнішні посилання) передають деяку вагу, при цьому він може «витікати», тобто сама сторінка втрачає деяку частину ваги

Внутрішні посилання - навпаки є показником перелинковки сайту, але у неї теж є свої особливості, які потрібно дотримуватися.

Посилання на цю сторінку - можна подивитися і проаналізувати посилання власного сайту на цю сторінку. Для перегляду посилань з інших сайтів потрібно скористатися спеціальними сервісами, наприклад Ahrefs.

У правій колонці - знайти дублікати

Як правило, дублікатами будуть сторінки пагінацію і архівів, це нормально якщо вони закриті від індексації засобами CMS або robots.txt. Якщо ж бачимо звичайну сторінку - дублікат, то на це слід звернути особливу увагу.

Зазвичай це може бути сторінка коментаря.

Експорт в Exel може включати в себе результати та дублікати.

Налаштуємо експорт і збережемо результати:

Обмеження: не рекомендується використовувати для сайтів, у яких більше 500 000 сторінок.

Кодування береться з заголовків або мета-тегів, якщо не поставити її автоматично.

Site-Auditor

Site-Auditor - це відмінна програма для визначення позицій сайту, тИЦ, Pr, Alexa Rank і інших показників, перевірка параметрів здійснюється досить швидко. Тому з її допомогою можна стежити не тільки за своїми сайтами, але і переглянути сайти конкурентів, що може допомогти в просуванні сайту.

Програма надає можливості дізнатися:

  • Позиції сайту в пошукових системах за ключовими словами
  • ТИЦ і Google PageRank
  • Індексація сайту в різних ПС
  • Наявність сайту в популярних каталогах: Яндекс, Рамблер, Mail.ru, Dmoz, Yahoo!
  • Статистика відвідування сайту з різних сервісів і інші показники.

Зібрана інформація зберігається на диск, так що можна відстежити історію розвитку сайту.
Безліч значень, які допомагає визначити ця програма клікабельні і за цим посиланням можна отримати досить багато додаткової інформації.

Відразу після відкриття програми в адресний рядок можна написати назву свого сайту і виконати експрес аналіз.

Найчастіше в цій програмою зручно користуватися для перевірки позицій сайту. Це зробити зовсім просто: додамо список основних ключових слів, за якими просувається сайт і натискаємо кнопку перевірити. Природно, на цьому сайті повинні бути статті з цими ключовими словами.

Відстежуючи основні позиції вашого сайту по певних запитах, можна стежити, як просувається сайт, які сторінки просуваються найбільш вдало і як обігнати конкурентів.

Отже, для перевірки позицій переходимо на вкладку «Підбір запитів» і вставляємо в текстове поле список ключових слів, натискаємо «Скопіювати» (праворуч від поля кнопка з текстом і стрілкою). Програма перекине запити на вкладку «Видимість сайту» натискаємо кнопку «Перевірити». Яндекс може запросити капчу, що не дуже зручно, але через деякий час нам будуть показані позиції нашого сайту.

Позиції клікабельні і при натисканні відкривається браузер з пошуковою видачею по цьому слову.

Позиції клікабельні і при натисканні відкривається браузер з пошуковою видачею по цьому слову

Варто зазначити, що ця програма також дозволяє відстежувати зворотні посилання і відвідуваність сайту. Чим більше якісних зворотних посилань на наш сайт поставлено, тим кращі позиції він може зайняти за умови дотримання правил лінкбілдінга.

Також програма дозволяє переглянути, які лічильники встановлені на сайті перейти до їх статистикою, якщо вона доступна для нас.

Page Weight Lite

Page Weight Lite - цей софт призначений для обчислення ваги сторінок сайту. Програма досить проста і в той же час функціональна.

Розберемо її сильні і слабкі сторони з позиції SEO.

Обмеження програми:

  • Якщо сайт дуже великий, а хостинг дешевий і слабкий, то отримання даних займе багато часу;
  • Цей софт не відображає, на яких саме сторінках знаходяться зовнішні посилання;
  • Скромний набір опцій безкоштовної програми. Тут не доводиться очікувати багатого функціоналу на кшталт наочної візуалізації передачі ваги між сторінками.

возможности:

  • Встановлювати час затримки між запитами - корисно, якщо хостинг слабкий;
  • Вибрати, чи враховувати атрибути rel = nofollow, теги noindex, і файл robots.txt;
  • Вказати User-agent: PageWeight, що дозволить фільтрувати статистику, щоб не псувати звіти в системі аналітики;
  • Виявити биті посилання, за якими вага сторінки йде в нікуди і там зникає (для сайтів на WordPress існує плагін Broken Link Checker, який виконує цю ж задачу і надсилає на пошту звіти про проблеми);
  • Вказати кілька ітерацій для отримання більш точних даних розрахунку ваг;
  • Експортувати результати роботи програми в файл формату CSV, підтримується також експорт XML- і HTML-карти сайту;
  • Завантажити XML-карту сайту, для розрахунку ваги конкретних сторінок сайту.

Розберемо роботу програми по порядку.

  • Іпортіруем список сторінок

Іпортіруем список сторінок

  • У наступному вікні прописуємо список цікавлять сторінок щодо основного Url:

У наступному вікні прописуємо список цікавлять сторінок щодо основного Url:

Слеш означає корінь сайту, тобто в даному випадку сканувати весь сайт. Тиснемо кнопку ОК і потім «Отримати дані» - кнопа внизу зліва.

  • Отримуємо дані про сторінку або сайті:

Отримуємо дані про сторінку або сайті:

Прикро, що кнопку «Розрахунок ваги» можна пропустити і потім лаяти цю програму, тому що ця кнопка ховається в правому нижньому кутку і в деяких станах вікна вона зовсім не видно, тому вікно потрібно розгорнути ширше.

  • Розрахуємо вага сторінок і вкажемо кількість ітерацій, чим більше, тим точніше результат, але це зажадає більше часу:

Розрахуємо вага сторінок і вкажемо кількість ітерацій, чим більше, тим точніше результат, але це зажадає більше часу:

Після розрахунку бачимо таку картину:

Після розрахунку бачимо таку картину:

Слід врахувати, що умовну вагу не має ніякого відношення до Google PageRank.

Практична користь від цієї програми в тому, що вона допоможе істотно зберегти бюджет при покупках «вічних» посилань і статей. Хитрі донори роблять жорстку перелинковку своїх сайтів, тому вага таких посилань передається дуже слабо. І ми отримаємо від такого сайту ефект значно менший, ніж очікувалося. Тому перед закупівлею посилань перевіряйте сайти-донори цією програмою.

Тому перед закупівлею посилань перевіряйте сайти-донори цією програмою

SiteMap Generator

Якщо файл robots.txt закриває сторінки і розділу для індексації роботами пошукових систем, то карта сайту навпаки - дозволяє встановити пріоритет індексації певних сторінок і розділів сайту. Карта сайта існує в двох варіантах: для людей - в HTML форматі і для ботів в XML.

  • Багато сучасних CMS типу WordPress здатні створити карту сайту за допомогою спеціальних плагінів.
  • Якщо сайт реалізований на CMS, у якій немає власних коштів для створення карти сайту, то краще буде скористатися даними софтом.
  • Програма SiteMapGeneratorбудет особливо актуальна для сайтів з великою кількістю сторінок і складною структурою.

Наша стаття про створення карти сайту .

Функціонал програми:

  • Вибір головної сторінки сайту;
  • Виняток зайвих сторінок з карти сайту або навпаки - включення тільки деяких;
  • Створення карти сайту в декількох форматах - GoogleSiteMap / XML, YahooMap / Text, Html, CSV
  • Перегляд robots.txt - в ньому повинен бути прописаний шлях до карти сайту
  • Перевірка некоректних URLна сайті
  • Нить сканування сайту

Інтерфейс програми англійською мовою, проте вона дуже проста: все що потрібно ввести адресу сайту (ExtractLinksFromSite), встановити максимальне число потоків (Max. SimultaneousConnection) і при необхідності прописати сторінки (головна Start Pages, шаблони винятків ExcludePatterns або ті, які потрібно включити в карту Must-FollowPatterns).

SimultaneousConnection) і при необхідності прописати сторінки (головна Start Pages, шаблони винятків ExcludePatterns або ті, які потрібно включити в карту Must-FollowPatterns)

Start Pages: якщо головна сторінка не стандартна index.php, то в першій колонці вказуємо її адресу.

ExcludePatternsі Must-FollowPatterns мають прості правила синтаксису

* seo / * - всі сторінки розділу seo

* seo * - адреси сторінок містять seo.

Ось приклад генерації сайту без зазначення будь-яких параметрів:

У підсумку ми отримаємо карту сайту в будь-якому з потрібних нам форматів:

У підсумку ми отримаємо карту сайту в будь-якому з потрібних нам форматів:

SEO Anchor Generator

для успішного лінкбілдінга (Нарощування посилальної маси сайту) використовуються як методи анкорного так і безанкорние просування (тобто з використанням в посиланнях анкоров або url просуваються сторінок).

Анкор (англ. Якір) - це текст гіперпосилання, який видно відвідувачеві сайту, на якому є ця посилання і якщо вона цікава, то користувач може перейти на наш сайт. Цей текст знаходиться між html-тегами <a> і </a>. Якщо на сторінку ведуть тільки посилання з анкорами без особливої ​​семантичної навантаження типу «тут», «тут», «ось», «там», «ще» і подібні до них природні анкор, то це не дуже добре. Справа в тому, що пошукові системи враховують текст анкора посилання і околоссилочний текст при ранжуванні сайту з того чи іншого запиту. Тобто правильно підібрані анкор допомагають домогтися максимального ефекту від посилань, що ведуть на наш сайт.

Вся сукупність анкоров посилань, що ведуть на сторінку називається анкор-лист, який:

  • складається пошуковими системами при обліку всіх посилань на сторінку;
  • повинен бути різноманітним, так як посилання з однаковими анкорами можуть склеїтися пошуковими системами, і тоді вони будуть передавати менше ваги;
  • рекомендується розбавляти додаванням до пошукових запитів прикметників, синонімів і т.д .;
  • чим більше потрібно посилань, тим різноманітніше повинні бути їх анкор;
  • повинен бути читабельним і зрозумілим для людини;
  • не повинен бути схожий на автоматично згенерований спам.

Крім того, при безанкорние просуванні околоссилочний текст також потрапляє в анкор-лист.

Отже, якщо нам потрібно просунути десять сторінок сайту по п'ять конкурентних запитів і кожному запиту потрібно всього 20-30 посилань, то нам потрібно скласти 1000-1500 унікальних анкоров! На практиці ж завдання по просуванню вимагають набагато більшого обсягу роботи.

Щоб полегшити цей нелегкий труд, нам на допомогу приходить програма SEO Anchor Generator, яку ми будемо використовувати для автоматизації цієї роботи.

Щоб полегшити цей нелегкий труд, нам на допомогу приходить програма SEO Anchor Generator, яку ми будемо використовувати для автоматизації цієї роботи

Синтаксис складання шаблонів генерації тексту такий:

{A | b | c | d} - в тексті буде одне зі слів;

[A | b | c | d] - все слова у випадковому порядку, але тут потрібно ставити прогалини або після або перед словами, щоб вони не злилися або використовувати роздільник пробіл - [+ + a | b | c | d], кому - [+, + a | b | c | d] або інший.

  • Підтримуються вкладені конструкції, що значно збільшує можливості програми.

Наприклад така конструкція [+ - + [+, + a | b | c] | [+, + d | e | f]] дає 52 варіанта виразів.

Приклад анкора для інтернет магазину м'яких іграшок може бути таким:

{Купити | Замовити | Придбати} наших [+, + рожевих | пухнастих | м'яких] слонів {з дисконтом | зі знижкою}, після видалення схожих дає 33 варіанта анкоров.

{Купити | Замовити | Придбати} наших [+, + рожевих | пухнастих | м'яких] слонів {з дисконтом | зі знижкою}, після видалення схожих дає 33 варіанта анкоров

  • У програмі присутній майстер введення, який значно полегшує складання шаблону генерації.

У програмі присутній майстер введення, який значно полегшує складання шаблону генерації

У налаштуваннях програми присутня пост-обробка, яка допомагає виправити типові помилки, які зазвичай виникають при недбалому складанні шаблонів генерації тексту (проблеми заголовних букв на початку пропозиції і зайвих або відсутніх пробілів).

  • Але для того, щоб ці правила спрацювали, не забудьте включити автокорекцію в опціях.

Але для того, щоб ці правила спрацювали, не забудьте включити автокорекцію в опціях

підсумок

Таким чином ми бачимо, що кожен бажаючий займатися просуванням сайтів може починати освоювати безкоштовний SEO софт, який допоможе йому набути навичок пошукової оптимізації.

Однак освоєння цих навичок вимагає досить багато часу і зусиль.

Нам цікаво, а яким софтом користуєтеся ви? Чекаємо ваших відповідей в коментарях.

Читайте також:

Потрібно розширити тематику?
Нам цікаво, а яким софтом користуєтеся ви?
Навигация сайта
Реклама
Панель управления
Календарь новостей
Популярные новости
Информация
Экономика стран www.mp3area.ru © 2005-2016
При копировании материала, ссылка на сайт обязательна.