Теоретик СЕОТеоретик СЕО

7 укоренившихся ошибок оптимизации сайта

Чего не следует делать при оптимизации сайтаНачинающие веб-мастера «любят» допускать ошибки, работая над оптимизацией собственного интернет-ресурса. Некоторые из таких ошибок в будущем препятствуют эффективному продвижению сайта, приводят к низкой его посещаемости и конверсии.

Итак, как не стоит делать, оптимизируя виртуальный проект для раскрутки в поисковых системах?

1. Переизбыток внутренней ссылочной массы

Несоразмерность массы ссылок в сравнении с объемом контента сайта в целом – распространенный промах, свойственный многим вебмастерам. Особенно роботам не нравится, когда перебор наблюдается с исходящими ссылками, ведущими на сторонние площадки.

2. Текст в виде графики не доступен поисковым ботам.

Если использование графики оправдано, обязательно следует дублировать ключевую информацию в текстовом варианте.

3. Неправильное формирование семантического ядра.

Часто высокий показатель отказов обусловлен не проблемами с контентом и юзабилити, а низкой релевантностью страниц сайта используемым при их раскрутке ключевым запросам. Если ключевые слова и словоформы обеспечивают интернет-ресурс явно не той аудиторией, которая ему необходима, их рекомендуется пересмотреть и заменить. Особенно внимательно нужно изучить страницы, которые часто выступают в роли точки выхода с сайта.

4. Незаконченный сайт интегрируется в панель вебмастера.

Вряд ли системы поиска положительно отнесутся к тому, что в очереди на внесение в индекс окажутся страницы интернет ресурса в стадии разработки. Некоторые оптимизаторы даже приобретают ссылки на площадки, главная страница которых украшена надписью «сайт в стадии разработки».

5. Игнорирование тега alt при добавлении картинок.

Таким образом, посетители сайта, у которых не воспроизводятся графические элементы, не смогут их наблюдать. Кроме того, включение в тег поисковых запросов – эффективный путь приобретения дополнительного трафика и повышения релевантности документа.

6. Мусора в коде html быть не должно.

Из-за него страницы сайта неправильно проходят индексацию, тормозится и скорость его загрузки. Нужно обязательно поработать над валидностью кода.

7. Если в структуре виртуального проекта присутствуют дубли страниц.

От индексации их предпочтительнее всего спрятать. Часто движок применяет в целях получения информации о статистике посещаемости сессионные идентификаторы. С точки зрения аналитической работы это, безусловно, удобно. Однако качество поисковой оптимизации сайта падает, так как страницы с одинаковым наполнением и разными адресами отрицательно сказываются на ранжировании.

  1. Илья: 01.01.201400:16

    Новичкам вообще бывает сложно отследить дубли страниц. Хотя, это, наверное, не самое страшное. Если, конечно, это единственная ошибка и все в порядке с семантическим ядром и другими мета-тегами.

  2. Анатолий: 02.01.201415:32

    Я бы еще добавил огрехи, связанные с использованием клчевиков. Довольно часто бывает, что ключевые слова или вообще не отсутствуют в тексте, или наоборот, втискиваются чуть ли не в каждое предложение. Естественно, поисковики не любят такие крайности.

  3. Дмитрий: 02.01.201418:32

    По поводу альтов к картинкам, сравнивал вариант с альтами и без на сайте с примерно 1000 стр. Вывод мой к сожалению не совпадает с вашим, мой вывод — альты не нужны. Интересно, что google может понять о чем картинка без альта, по окружаещему тексту. Тоже проверено на практике.

  4. admin: 02.01.201418:40

    Дмитрий, Вы не учитываете возможности дополнительного трафика с Яндекс Картинки, когда информативные подписи к иллюстрациям лучше способствуют продвижению.

Ваши данные

*