Технологии, предназначенные для создания и SEO-продвижения ресурсов, не стоят на месте, каждый апдейт Google тщательно анализируется и учитывается при разработке сайтов. Если не обращать внимания на требования поисковых систем, то никаким образом не получиться вывести виртуальный проект в ТОП-10 выдачи. Но есть ещё много, так называемых специалистов, ошибки которых просто убивают сайт. Эта статья посвящена именно таким основным просчетам, которые допускают веб-разработчики и SEO-специалисты.

Отсутствие или неправильная настройка 404 страницы

Причин возникновения 404 ошибки на сайте существует несколько, их можно разделить на два типа:

  • Внутренние. Они возникают вследствие просчетов в навигации или неправильной перелинковки внутри ресурса.

  • Внешние. Появляются по причине битых ссылок с чужих площадок или неправильном написании UPL.

От этого никто не застрахован поэтому следует не забывать о создании и настройке 404 страницы. Её правильное оформление позволит удержать пользователя на сайте и перенаправить его на рабочие страницы. Этого можно добиться если дизайн этой страницы будет выдержан в общем стиле проекта, а её наполнение будет содержать элементы его навигации.

Наличие дубликатов Title

Так как этот тег содержит заголовок документа, то в первую очередь именно к нему обращается поисковый бот при индексации страницы. Дублирование Title размывает релевантность страниц и в результатах поиска они будут конкурировать. В итоге верхние строчки может занять совсем не тот документ, на который сделана ставка или при ранжировании проиграют обе страницы. Одинаково прописанные Title в двух разных документах всегда негативно влияют на их индексацию. Проверить наличие дублей этого тега, можно используя сервисы:GoogleWebmaster, СайтРепорт и прочие.

Неправильно созданный description

Этот тег позволяет создать сжатое описание страницы, которое отображается не в теле документа, а в SERP под Title и ссылкой на ресурс. Считается, что этот тег не влияет напрямую на релевантность страницы и ранжирование проекта. Но неправильно составленный description может негативно отобразиться на окончательном решении пользователя посетить сайт. Поэтому при его написании следует придерживаться следующих правил:

  • Описание должно быть привлекательным и лаконичным без использования общих фраз. Текст должен давать пользователю полное представление о сведениях, содержащихся в документе.

  • Содержимое description должно быть уникальным.

  • Правильно составленный тег должен не превышать 200 знаков и содержать ключевые слова.

Это позволит пользователю увидеть в сниппете полезные сведения, а не часть произвольного текста, выбранного поисковиком.

Отсутствие заголовков h1

Ещё одна из SEO-ошибок, которая может не лучшим образом повлиять на ранжирование проекта. Для поисковых ботов при индексации, заголовки h1 имеют большое значение для определения релевантности страницы. Поэтому они должен писаться с соблюдением следующих требований:

  • Заголовки должны содержать основные ключевые фразы и отображать суть документа.

  • H1 должны отображаться более крупным шрифтом, чем заголовки нижних уровней.

  • Размещать их необходимо вверху документов, над всем остальным текстом.

Отсутствие h1 сильно усложнить попадание ресурса в ТОП-10 выдачи.

Наличие битых ссылок

Когда пользователь, переходя по ссылке, не находит необходимый ему контент, то он закрывает такую страницу, что негативно сказывается на пользовательском факторе. Не менее плохо относятся к ресурсам с битыми ссылками поисковики. Их боты при индексации осуществляют переходы по всем находящимся на странице ссылкам и четко фиксируют какие из них ведут на отсутствующие страницы. А так как все поисковые сервисы ориентированы на качественную выдачу, то сайты с большим количеством битых ссылок не будут отображаться в SERP. Google за это накладывает фильтр BrokenLinks.

Отсутствие sitemap

По своей сути sitemap является файлом, содержащим сведения о подлежащих индексированию страницах ресурса. Благодаря этому поисковый бот Google узнаёт:

  • Какие страницы проекта следует индексировать.

  • С какой периодичностью обновляется контент.

Особенно это важно если площадка исчисляется многими тысячами страниц и имеет сложную структуру их вложения. В SEO-продвижении sitemap играет определенную роль, при отсутствии этого файла значительно замедлится индексация документов, а некоторые страницы могут быть проигнорированы поисковыми ботами.

Отсутствие файла robots.txt

Наличие такой ошибки на сайте может существенно повредить SEO. Robots.txt содержит четкие инструкции для поисковых ботов – которые из страниц подлежат индексации, а какие нет. Почему это важно для продвижения ресурса? Если бот Google зайдет на ресурс и обнаружит там отсутствие этого файла, то он начнет индексировать всё подряд. Но на сайте есть много того, что не предназначено для индексации: дубликаты страниц, системные файлы, рубрики ключевых фраз и прочее. Это может привести к тому, что до разделов с важной информацией бот так и не доберется и они не окажутся в результатах выдачи.

Открытые к индексации исходящие ссылки

Наличие исходящих ссылок на веб-проекте должно быть строго регламентировано. Их большое количество, особенно неконтролируемых, которые появляются в комментариях посетителей может принести только вред:

  • Любая исходящая ссылка способствует отдаче статистического веса ресурса.

  • Чем больше таких ссылок, тем подозрительней к веб-проекту относятся поисковики. Что в итоге может подвести ресурс под фильтр Google,названный Links.

Так, что, если есть желание убить свой виртуальный проект забудьте о закрытии от индексации плохих исходящих ссылок.

Неуникальные тексты

Здесь попасть в немилость к Google можно в двух случаях:

  • Если на страницах ресурса размещается копипаст.

  • Когда страница с украденным у вас контентом попала первой в индекс.

В любом из этих случаев можно оказаться под фильтром поисковика Duplicate Content. Чтобы этого избежать следует защищать контент от копирования и размещать в разделах сайта только уникальные тексты.

Отсутствие аналитики

Еще одна ошибка некоторых владельцев виртуальных проектов заключается в нежелании заниматься веб-аналитикой. Такой анализ позволяет разобраться:

  • В сильных и слабых сторонах конкурентов. Это позволит избежать ошибок на этапе разработки.

  • Какие размещенные материалы наиболее заинтересовали пользователей.

  • По каким ссылкам и ключевым запросам было более всего переходов.

  • Сколько целевых пользователей принесла маркетинговая кампания и прочее.

Если не пользоваться аналитическими инструментами, то о своевременной корректировке SEO и попадании в ТОП-10 можно забыть.

Заключение

Работа по созданию ресурса и его раскрутке сложный процесс, но если не следить за требованиями поисковиков, допускать просчеты в стадии его создания и SEO-ошибки, то убить сайт можно очень быстро.