Экономика стран

К сожалению, большинство людей, которые будут ими затронуты почти весь мир, не будут иметь никакого влияния на результат. Вести Экономика Дайджест иностранной прессы за 14 августа.
Вести Экономика Греции снова придется списывать долги Греция не сможет самостоятельно расплатиться по долгам, и понадобится новая реструктуризация долгов, чтобы спасти страну от банкротства.

8 самых серьезных ошибок SEO, присутствующих на сайтах

  1. Ошибка 1: низкая скорость загрузки страницы
  2. Ошибка 2: домен настроен неправильно
  3. Ошибка 8: отсутствует заголовок

Статья написана в сотрудничестве с SEMrush

Вы должны работать месяцами, иногда даже годами, чтобы получить желаемые результаты ваших усилий по SEO. Даже когда работа по оптимизации завершена, ничто не может гарантировать, что вы окажетесь в поисковой выдаче достаточно высоко для ключевых слов, которые вас интересуют, особенно если на вашем сайте есть ошибки, которые наносят ущерб усилиям по оптимизации. К счастью, нет неразрешимых проблем. В его недавнее исследование по наиболее распространенным проблемам SEMrush обнаружил, что из 40 локальных поисковых SEO, выполняемых с помощью инструмента аудита сайта, 40 самых распространенных технических ошибок SEO.

Разумеется, все эти ошибки важны для работоспособности сайта, но в этом посте мы поговорим о самых опасных топ-8, на которых мы должны больше сосредоточиться и объяснить, почему возникли эти проблемы и как их преодолеть.

Ошибка 1: низкая скорость загрузки страницы

Скорость страницы является важным фактором позиционирования, который зависит от производительности сервера и сервера. По понятным причинам это является одной из основных причин повышения показателя отказов. Поэтому необходимо оптимизировать HTML, сократив количество скриптов и таблиц стилей, стараясь свести размер страницы к минимуму. Одним из способов достижения этого является использование системы сжатия например, gzip или deflate. Сжатие HTML, CSS и Javascript может только значительно улучшить скорость загрузки, но есть и недостатки, связанные со сложными настройками и проблемами с менее современными браузерами.

Изображения обычно имеют наибольший вес на странице; поэтому важно оптимизировать их для увеличения скорости. Есть много переменных, которые необходимо учитывать (качество изображения, разрешение, формат и т. Д.), Но, прежде всего, необходимо оценить, действительно ли визуальный контент необходим для страницы. Если ответ «да», то разработайте изображения правильно, используя графический инструмент по вашему выбору. Старайтесь получить минимально возможный размер файла при сохранении приемлемого качества. Рассмотреть возможность использования векторной графики; это отличный способ оптимизировать геометрические изображения. Более того, поскольку скорость загрузки страниц на мобильных устройствах еще важнее, необходимо настроить область отображения и масштабировать изображения для разных экранов.

Помните, что всегда лучше загружать изображения, уже масштабированные на сервер , а не пытаться изменить их размер на сервере, и будьте осторожны, всегда объявляя размеры по высоте и ширине изображений.

Если размеры изображений не указаны или не соответствуют реальным, браузер запросит перекомпоновку и должен будет обновить страницу после загрузки изображений, что замедляет навигацию и ухудшает работу пользователя.

Для получения более подробной информации обратитесь к Рекомендации Google по оптимизации скорости страница ,

Ошибка 2: домен настроен неправильно

Другое беспокойство в этой области дают временные перенаправления. На первый взгляд кажется, что они работают так же, как и постоянные, но при использовании редиректов 302/307 вместо 301 поисковые системы сохраняют индексируемую старую страницу, а ранжирование страниц не переносится на новую страницу ( примечание Дарио Чирачи: фактически около года назад Гэри Илиес из Google заявил, что Page Rank не теряется при любом виде перенаправления ).

Учтите, что поисковые роботы могут рассматривать ваш сайт с WWW и без WWW как два отдельных домена. В результате вам нужно будет установить редирект 301 на предпочитаемую версию и указать ее в консоли поиска Google.

В результате вам нужно будет установить редирект 301 на предпочитаемую версию и указать ее в консоли поиска Google

Цепи и петли перенаправления могут запутать сканеры и будут разочаровывать пользователей из-за увеличения времени загрузки. Кроме того, вы теряете часть оригинального pagerank с каждым перенаправлением. Это абсолютное табу для любого владельца сайта, однако ошибки перенаправления проскальзывают через сетку системы и накапливаются: поэтому необходимо периодически проверять ссылки на вашем сайте.

Чтобы углубить этот аспект, я предлагаю вам прочитать мою статью в цепях перенаправления ,

Есть много причин, которые могут помешать исследованию поисковых ботов , Файл robots.txt может помешать Google сканировать и индексировать весь сайт или отдельные страницы. Хотя для сайта необязательно иметь файл robots.txt, его наличие может повысить скорость сканирования и индексации. Но мы должны остерегаться ошибок, так как Google может игнорировать важные страницы на вашем сайте или просматривать и индексировать ненужные страницы (например, корзину для электронной коммерции). Хотя структурирование файла роботов не является сложной задачей, ошибки форматирования очень распространены. Пустая строка User-agent, неправильный синтаксис, несоответствующие директивы, перечислять каждый файл вместо блокировки всего каталога или перечислять несколько каталогов в одной строке.

Пустая строка User-agent, неправильный синтаксис, несоответствующие директивы, перечислять каждый файл вместо блокировки всего каталога или перечислять несколько каталогов в одной строке

Лучше исключить из сканирования временные страницы и частные страницы, которые видны только определенным пользователям или администраторам, а также страницы без ценного контента. Однако файл robots.txt не является строгой директивой, а скорее предложением, и иногда боты могут его игнорировать.

Чтобы узнать больше о роботах, прочитайте Руководство Google по файлу robots.txt , Кроме того, если вы хотите проверить существующий файл, вы можете использовать Тестер для файлов robots.txt ,

Известно, что хорошее SEO означает качественный контент , Реструктурированный или даже редко копируемый контент представляет ценность для пользователя и может значительно повредить размещение. В результате вам придется проверять свой веб-сайт на наличие идентичных или почти идентичных страниц и удалять их или заменять уникальными страницами. Страницы должны содержать не менее 85% уникального контента.

Если в некоторых случаях дубликаты подходят, чтобы избежать каннибализации (больше страниц пытаются позиционировать себя для одних и тех же ключевых слов), необходимо указать вторичные страницы тегом rel = "canonical", связывающим их с основным. Это общая проблема порталов электронной коммерции, где связанные с продуктами страницы и списки продуктов, заказанных различными способами, отображаются в виде дубликатов. Иногда, когда URL имеет параметры, он может быть проиндексирован как отдельная страница, создавая дубликат. Чтобы предотвратить это, вам нужно добавить каноническую ссылку, которая указывает на чистую версию URL.

Чтобы лучше понять все типы дублирующегося контента, проблемы, которые они подразумевают, и как ими управлять, я рекомендую прочитать это моя конкретная статья ,

Если тег заголовка является обложкой вашей страницы, которая отображается в результатах поиска, мета-описание является задней обложкой, которая будет продавать его за клик . Очевидно, что если мета-описание отсутствует, это не повлияет на ваш рейтинг: Google вставит его для вас. Однако, вероятно, результат будет не самым актуальным и привлекательным и, следовательно, может снизить рейтинг кликов (Click To Rate).

Однако во многих случаях может быть неудобно или нет необходимости изобретать одно описание для каждой страницы. В этом случае вам следует сосредоточиться на наиболее важных целевых страницах и оставить все остальное для автоматической генерации.

Создание четкого и эффективного резюме - это искусство, но имейте в виду, что копировать и вставлять описания хуже, чем вообще ничего. Дубликаты могут препятствовать способности сканеров различать релевантность и приоритет страницы.

Создание и отправка файла Sitemap в Google Search Console - это отличный способ помочь ботам быстрее перемещаться по сайту и получать обновления нового или измененного контента. Почти каждый сайт содержит несколько функциональных страниц, которым нет места в поисковом индексе; Карта сайта - это способ выделить целевые страницы, которые вы хотели бы проиндексировать в поисковой выдаче. Карта сайта не гарантирует, что перечисленные страницы будут проиндексированы, а те, которые не упомянуты, будут игнорироваться поисковыми системами, но фактически упростят процесс индексации.

Карта сайта не гарантирует, что перечисленные страницы будут проиндексированы, а те, которые не упомянуты, будут игнорироваться поисковыми системами, но фактически упростят процесс индексации

Вы можете создать карту сайта в формате XML вручную, создав ее с помощью CMS или одной сторонний инструмент , Поисковые системы принимают только карты сайта размером менее 50 МБ и содержат максимум 50 000 URL; так что если у вас очень большой веб-сайт, вам может понадобиться создать дополнительные карты. Вы можете узнать больше об управлении несколькими картами сайта с помощью этих руководящие указания ,

Ошибка 8: отсутствует заголовок

Важность тег заголовка это совершенно очевидно: в общем, это первое напоминание, которое вы хотите дать человеку, который просматривает страницу результатов поиска. Следовательно, необходимо создавать увлекательные теги заголовков и, что более важно, уникальные для каждой страницы, чтобы вести поиск и сканеры. Повторяющиеся заголовки могут запутать пользователей на открываемой веб-странице, а также каннибализировать ключевые слова.

Когда вы написали идеальный, простой и описательный заголовок, вам придется проверить реакцию Google, поскольку он все равно может найти тег заголовка, не относящийся к странице и запросу, и полностью переписать его. Существует также вероятность того, что Google добавит название вашего бренда в название случайным образом, тем самым обрезая заключительную часть.

Среди всех ошибок, упомянутых в посте, нет тех, которые нельзя избежать или исправить, но, очевидно, необходимо регулярно проверять здоровье и благополучие своего веб-сайта. Таким образом, вы не рискуете достигнуть критической точки, где накапливается так много мелких ошибок и возникает эффект снежного кома.

Навигация сайта
Реклама
Панель управления
Календарь новостей
Популярные новости
Информация
Экономика стран www.mp3area.ru © 2005-2016
При копировании материала, ссылка на сайт обязательна.