Экономика стран

К сожалению, большинство людей, которые будут ими затронуты почти весь мир, не будут иметь никакого влияния на результат. Вести Экономика Дайджест иностранной прессы за 14 августа.
Вести Экономика Греции снова придется списывать долги Греция не сможет самостоятельно расплатиться по долгам, и понадобится новая реструктуризация долгов, чтобы спасти страну от банкротства.

Первый столп SEO: технологии

  1. Эффективность сканирования
  2. Ошибки сканирования
  3. XML Sitemaps
  4. Скорость загрузки
  5. Вниз в кроличью нору

В моем предыдущем посте для State of Digital я писал о своем   «Три столпа»   подход к SEO: технологии,   Актуальность   , а также   Власть   ,  Вместе эти три столпа создают целостное представление о SEO, которое должно учитывать все аспекты веб-сайта В моем предыдущем посте для State of Digital я писал о своем «Три столпа» подход к SEO: технологии, Актуальность , а также Власть , Вместе эти три столпа создают целостное представление о SEO, которое должно учитывать все аспекты веб-сайта. Кроме того, три столпа соответствуют трем основным процессам в поисковых системах: сканирование, индексация и ранжирование.

Я хочу подробнее остановиться на каждом из трех столпов, начиная с первого: технологии .

Технологический аспект SEO - это то, что многие практикующие, по их собственному признанию, только мимолетно знакомы. Это также один из аспектов SEO, который вторгается в область веб-разработчиков и администраторов серверов, что означает, что для многих SEO-ориентированных маркетологов это не то, чем они могут легко испачкать руки.

Тем не менее, это может быть чрезвычайно важным аспектом хорошего SEO, особенно для крупных сложных веб-сайтов. Хотя среднестатистическому сайту WordPress не нужно много технических исправлений в отношении SEO (надеюсь), крупные издатели новостей и платформы электронной коммерции корпоративного уровня - это отдельная история.

Почему это так, становится очевидным, когда вы понимаете цель технического SEO, который в моей модели - эффективность сканирования . Для меня технология SEO заключается в том, чтобы поисковые системы могли сканировать ваш контент как можно проще и сканировать только нужный контент.

Эффективность сканирования

Когда технологические основы веб-сайта неоптимальны, наиболее распространенный способ, которым это влияет на SEO сайта, - это неэффективность сканирования. Вот почему хороший технический SEO так важен: прежде чем поисковая система сможет оценить ваш контент, он должен сначала его просканировать.

Базовая технология сайта влияет, помимо прочего, на способ создания страниц, коды состояния HTTP, которые он обслуживает, и на код, который он отправляет сканеру через Интернет. Все это влияет на взаимодействие веб-сканера с вашим сайтом. Не думайте, что ваш сайт делает эти вещи правильно из коробки; многие веб-разработчики очень хорошо знают все тонкости своей торговли и точно знают, что входит в создание отличного ориентированного на пользователя веб-сайта, но могут не замечать, как их сайт обслуживается веб-сканерами.

Когда речь заходит о техническом SEO, изречение «сосредоточься на своих пользователях, а SEO позаботится о себе» оказывается совершенно ошибочным. Веб-сайт может быть идеально оптимизирован для удобства пользователей, но технология, которая его поддерживает, может сделать невозможным для поисковых систем справиться с сайтом.

В моих контрольных списках аудита SEO есть более 35 различных аспектов технического SEO, которые я ищу. Ниже я кратко излагаю три наиболее важных из них и показываю, как они ведут к дальнейшим исследованиям по целому ряду связанных технических проблем.

Ошибки сканирования

При анализе нового веб-сайта первое место, на которое будут смотреть многие оптимизаторы (включая меня), - это отчет об ошибках сканирования в Инструменты Google для веб-мастеров , Я до сих пор сбиваю с толку, как часто этим отчетом пренебрегают, так как он предоставляет такое большое количество данных для работы с SEO.

Если при сканировании вашего веб-сайта что-то пойдет не так, Google сообщит вам об этом в отчете об ошибках сканирования. Это информация первой линии прямо изо рта лошади, поэтому вам стоит обратить на это внимание. Но тот факт, что эти данные автоматически генерируются из набора инструментов Google, также является причиной, по которой мы хотим проанализировать их подробно, а не просто принять их за чистую монету. Нам нужно интерпретировать, что это означает для данного веб-сайта, чтобы мы могли предложить наиболее действенное решение.

Нам нужно интерпретировать, что это означает для данного веб-сайта, чтобы мы могли предложить наиболее действенное решение

На скриншоте выше мы видим более 39 000 ошибок Not Found на одном сайте. На первый взгляд это может показаться тревожным, но мы должны поместить это в правильный контекст.

Вы захотите узнать, сколько страниц на самом деле имеет веб-сайт, который вы хотите, чтобы Google сканировал и индексировал. Многие оптимизаторы сначала смотрят на карту сайта XML как на ключевой показатель количества индексируемых страниц сайта:

Очевидно, что мы имеем дело с довольно солидным веб-сайтом, и ошибки 39k Not Found теперь кажутся немного менее апокалиптическими среди более 300k страниц. Тем не менее, на более чем 11% от общего количества страниц сайта 39 000 не найденных ошибок представляют значительный уровень неэффективности сканирования. Google будет тратить слишком много времени на сканирование URL-адресов, которые просто не существуют.

Но как быть с URL-адресами, которых нет в карте сайта и которые обнаруживаются при регулярном сканировании в Интернете? Никогда не думайте, что карта сайта - это исчерпывающий список URL-адресов на сайте - мне еще предстоит найти автоматически сгенерированную карту сайта XML, которая на 100% точна и надежна.

Итак, давайте посмотрим дальше и посмотрим, сколько страниц на этом сайте Google фактически проиндексировало:

Сюжет утолщается. У нас есть 39k Not Found ошибок, возникающих из 329k URL-адресов в XML-карте сайта и регулярного веб-сканирования, что, в свою очередь, привело к более чем 570k URL в индексе Google. Но это также пока не дает полной картины: внутренняя CMS, на которой работает этот веб-сайт, сообщает более 800 000 уникальных страниц, которые Google может сканировать и индексировать.

Итак, проанализировав одну-единственную проблему - ошибки сканирования - мы получили четыре критических точки данных: ошибки 39k Not Found, 329k URL-адресов в XML-карте сайта, 570k проиндексированных URL-адресов и 800K уникальных индексируемых страниц. Последние три приведут к обнаружению дополнительных проблем, что приводит меня к следующему аспекту, который нужно исследовать: XML-карта сайта.

Но прежде чем двигаться дальше, мы должны порекомендовать исправление для ошибок Not Found. Мы хотим получить полный список просматриваемых URL-адресов, которые приводят к ошибке 404 Not Found, которую в этом случае Инструменты Google для веб-мастеров не могут предоставить; Вы можете загрузить только первые 1000 URL.

Это где SEO сканеры, как Кричащая лягушка а также DeepCrawl войти. Запустите сканирование на сайте с помощью предпочитаемого вами инструмента и извлеките список обнаруженных URL-адресов 404 не найден. Чтобы получить дополнительные бонусные баллы, запустите этот список с помощью инструмента анализа ссылок, такого как величавый найти 404 ошибки, которые имеют входящие ссылки, и расставить приоритеты для их исправления.

XML Sitemaps

Независимо от того, насколько хорошо веб-сайт структурирован и насколько легко перейти на любую страницу, я никогда не предполагаю, что сайту не требуется карта сайта XML. Некоторые исследования корреляции ранжирования SEO показывают положительную корреляцию между наличием карты сайта XML и более высокими рейтингами, но это, вероятно, не прямой причинный эффект; Наличие (безошибочного) XML-карты сайта является признаком того, что веб-сайт был подвергнут надлежащим усилиям по поисковой оптимизации, где карта сайта - это лишь одна из многих вещей, к которым обратились оптимизаторы.

Тем не менее я всегда рекомендую иметь XML-карту сайта без ошибок, потому что мы знаем, что поисковые системы используют ее для заполнения своих сканеров. Включение URL в ваш XML-файл Sitemap не гарантирует его индексацию, но, безусловно, увеличивает его шансы и гарантирует, что большая часть вашего сайта бюджет обхода используется на правильных страницах.

Опять же, Google Webmaster Tools - это первое, с чего нужно начать, а именно отчет Sitemaps:

Здесь мы видим, что каждая карта сайта, представленная этим сайтом, содержит одну или несколько ошибок. Поскольку это старый веб-сайт, который прошел много различных итераций и обновлений, это не удивительно. Тем не менее, когда мы видим карту сайта с 288 000 предупреждений, кажется очевидным, что есть серьезная проблема под рукой.

К счастью, Инструменты для веб-мастеров Google предоставляют более подробную информацию о том, какие именно ошибки обнаруживаются в каждом из этих файлов Sitemap:

К счастью, Инструменты для веб-мастеров Google предоставляют более подробную информацию о том, какие именно ошибки обнаруживаются в каждом из этих файлов Sitemap:

Есть несколько проблем с этим файлом сайта, но наиболее важным является то, что он имеет тысячи и тысячи URL-адресов, которые заблокированы robots.txt, что не позволяет Google сканировать их.

Теперь, поскольку у нас есть ряд ранее установленных точек данных, а именно, что из 800 тыс. Уникальных страниц только 570 тыс. Фактически находятся в индексе Google, это число 288 тыс. Заблокированных URL имеет смысл. Очевидно, что происходит некоторая чрезмерная блокировка robots.txt, которая не позволяет Google сканировать и индексировать весь сайт.

Затем мы можем определить, какое правило robots.txt является виновником. Мы берем один из примеров URL-адресов, приведенных в отчете об ошибках карты сайта, и помещаем его в тестер robots.txt в Инструментах для веб-мастеров:

txt в Инструментах для веб-мастеров:

Сразу видно, в чем проблема с картой сайта XML: она включает URL-адреса, которые принадлежат отдельной версии сайта, оптимизированной для iPad, которые не предназначены для веб-сканеров Google, а предназначены для сопутствующего приложения iPad для веб-сайта.

И теперь, используя тестер robots.txt, мы также осознаем, что сам файл robots.txt имеет проблемы: в Инструментах для веб-мастеров сообщается о 18 ошибках, которые нам необходимо дополнительно изучить, чтобы увидеть, как это влияет на сканирование сайта и индексации.

Скорость загрузки

Обсуждая карты сайта XML выше, я ссылался на бюджет обхода ». Это концепция, согласно которой Google будет тратить определенное количество времени на сканирование вашего сайта, прежде чем завершит процесс и перейдет на другой сайт.

Это совершенно логичная идея, поэтому я считаю, что она применяется и сегодня. В конце концов, Google не хочет тратить бесконечные циклы ЦП на сканирование бесконечных циклов URL на плохо спроектированных веб-сайтах, поэтому имеет смысл назначить период времени для веб-сканирования до его истечения.

Более того, помимо интуитивной чувствительности бюджетов сканирования, мы видим, что, когда мы оптимизируем простоту, с которой можно сканировать сайт, эффективность этого сайта в результатах поиска имеет тенденцию к улучшению. Это все возвращается к эффективности сканирования; оптимизация взаимодействия сканеров с вашим веб-сайтом, чтобы обеспечить сканирование нужного контента и не тратить время на неправильные URL-адреса.

Поскольку бюджет сканирования является метрикой, основанной на времени, это означает, что скорость загрузки сайта является фактором. Чем быстрее страница может быть загружена, тем больше страниц может сканировать Google, пока не истечет бюджет сканирования и не завершится процесс сканирования.

И, как мы знаем, скорость загрузки очень важна для удобства использования, поэтому вы отметите несколько флажков, решая одну техническую проблему SEO.

Как и прежде, мы хотим начать с Инструментов для веб-мастеров, в частности отчета "Статистика сканирования":

Как и прежде, мы хотим начать с Инструментов для веб-мастеров, в частности отчета Статистика сканирования:

На первый взгляд вы можете подумать, что эти три графика дадут вам все, что вам нужно знать о бюджете сканирования, который Google выделил для вашего сайта. Вы знаете, сколько страниц Google сканирует в день, сколько времени занимает загрузка каждой страницы и сколько килобайт пересекает эфир, чтобы Google загрузил все эти страницы. Несколько подсчетов на основе данных об использовании салфетки скажут вам, что, используя сообщенные средние числа, средняя страница имеет размер 25 килобайт.

Но 1,5-секундное время загрузки для 25 КБ кажется немного вялым, и даже беглый взгляд на сайт покажет, что 25 КБ - это очень неточное число. Таким образом, кажется, что мы, наконец, исчерпали полезность Инструментов Google для веб-мастеров, по крайней мере, когда речь идет о проблемах со скоростью загрузки.

Теперь мы можем обратиться к Google Analytics и посмотреть, что это говорит о скорости загрузки сайта:

Теперь мы можем обратиться к Google Analytics и посмотреть, что это говорит о скорости загрузки сайта:

Там мы идем; намного лучшее представление о средней скорости загрузки, основанное на статистически значимом размере выборки (более 44 тыс. страниц). Средняя скорость загрузки составляет колоссальные 24 секунды. Определенно что-то стоит адресовать; не только для поисковых систем, но и для пользователей, которым приходится ждать около полминуты, пока страница не загрузится. Это может быть прекрасно в старые времена модемов со скоростью 2400 бод, но в наши дни это просто неприемлемо.

Но этот отчет не говорит нам, каковы реальные проблемы. Мы только знаем, что средняя скорость загрузки слишком низкая. Мы должны предоставить действенные рекомендации, поэтому нам нужно копать немного глубже.

Есть много различных инструментов измерения скорости нагрузки, которые все делают достойную работу, но мой любимый без сомнения WebPageTest.org , Это позволяет вам выбрать близлежащее географическое местоположение и версию браузера, чтобы вы получили точное представление о том, как браузеры ваших пользователей будут загружать ваш сайт.

Что мне больше всего нравится в WebPageTest.org, так это визуальное представление водопада, показывающее, где именно находятся узкие места:

Снимок экрана выше - это только первый фрагмент общего вида водопада, и сразу же мы можем увидеть ряд потенциальных проблем. Загружается большое количество файлов JS и CSS, а некоторые загружаются за полные секунды. Остальная часть представления водопада обеспечивает одинаково мрачное чтение, время загрузки десятков файлов JS и файлов изображений превышает отметку в одну секунду.

Затем загружается несколько внешних плагинов и рекламных платформ, которые еще больше увеличивают скорость загрузки до тех пор, пока страница не завершится через 21 секунду. Это не далеко от 24-секундного среднего значения, указанного в Google Analytics.

Совершенно очевидно, что что-то нужно сделать, чтобы это исправить, и представление водопада даст вам ряд четких рекомендаций, таких как минимизация JS и CSS и использование небольших изображений. В качестве вторичного набора данных вы можете использовать Google PageSpeed ​​Insights для дальнейших рекомендаций:

Когда дело доходит до передачи клиенту моих рекомендаций по скорости загрузки, я определенно предпочитаю WebPageTest.org, так как представление с водопадом - отличный способ визуализировать процесс загрузки и определить болевые точки.

Вниз в кроличью нору

На этом этапе мы отметили только три из 35 технических аспектов SEO в моем контрольном списке аудита, но уже выявили ряд дополнительных проблем, связанных с уровнями индекса и блокировкой robots.txt. По мере прохождения контрольного списка аудита мы будем находить все больше и больше проблем, каждый из которых необходимо будет детально проанализировать, чтобы мы могли предоставить наиболее эффективную рекомендацию, которая решит проблему.

В конце концов, технический SEO для меня сводится к тому, чтобы убедиться, что ваш сайт можно сканировать максимально эффективно. Убедившись в этом, вы можете перейти к следующему этапу: что делают поисковые системы со просканированными страницами.

Процесс индексации - это то, что позволяет поисковым системам понять, что они находят, и именно здесь Актуальность Столб приходит, который будет темой моей следующей статьи.

Но как быть с URL-адресами, которых нет в карте сайта и которые обнаруживаются при регулярном сканировании в Интернете?
Навигация сайта
Реклама
Панель управления
Календарь новостей
Популярные новости
Информация
Экономика стран www.mp3area.ru © 2005-2016
При копировании материала, ссылка на сайт обязательна.