Все об интернет-маркетинге
из первых рук
Подписаться на рассылкуподписаться
на рассылку
нас уже
112 132

Внутренняя оптимизация ресурса: работают ли стандартные методы

Мы ведем наш дайджест с 2012 года, и обладаем главной базой приемов по продвижению интернет-проектов.

Введение


Под внутренней оптимизацией принято понимать комплекс изменений и доработок ресурса с целью повышения позиций в поисковых системах. Эти действия могут быть направлены на устранение ошибок при загрузке и работе самого сайта, а также факторов, мешающих корректной индексации поисковыми системами.

К изменениям ресурса для повышения позиций относят выбор и оптимизацию целевых страниц под продвигаемые запросы, а также работу над контентом в целом. Как правило, это определенный список стандартных действий (известных каждому). Ведь только благодаря грамотно составленным заголовкам страниц, оптимизации и структуре текстов, тегу title и метатегам можно получить ТОП 10 по большинству НЧ и СЧ запросов и хорошие позиции в ТОП 50 по всему списку продвигаемых запросов. Конечно, результат будет зависеть от профессионализма и опыта оптимизатора, а также от того, какими методами он воспользуется.

Но насколько же эффективны все “стандартные” методы внутренней оптимизации сайта? Может быть, некоторые из них уже устарели и стали неактуальны? А на их место пришли современные приемы, продиктованные постоянным развитием поисковых систем?

В данном материале я попробую обобщить и дать оценку необходимости и эффективности использования стандартных методов внутренней оптимизации.


Какие стандартные действия на самом деле необходимы и для чего


Необходимость многих действий по оптимизации исходит из требований самих поисковых систем Яндекс и Google. Чтобы лучше понимать все нюансы того, каким поисковики представляют себе качественный сайт, который может высоко ранжироваться, стоит изучить следующую информацию:

  • Руководство, которое расскажет, как сделать так, чтобы сайт был без ошибок и корректно ранжировался поисковой системой (https://help.yandex.ru/webmaster/).
  • Отличия качественного сайта от некачественного (https://help.yandex.ru/webmaster/?id=995342).
  • Рекомендации Яндекс.Метрики “Как сделать сайт эффективнее” (https://help.yandex.ru/metrika/recommendations/make-site-better.xml).
  • Рекомендации для веб-мастеров от Google (https://support.google.com/webmasters/answer/35769?hl=ru).

Итак, из всех рекомендаций поисковых систем, а также из того, какие выводы из них можно сделать, получается стандартный список действий по оптимизации сайта:

1. Проверка дублей страниц на сайте. Необходима для корректной индексации и ранжирования ресурса в поисковых системах. При наличии дублей сайт может иметь низкие позиции в выдаче. Проверить ресурс на их наличие можно с помощью бесплатной программы Xenu's Link Sleuth. Для этого необходимо в меню “File” выбрать пункт “Check URL” и ввести адрес своего ресурса в первое доступное поле ввода.

1.jpg

Xenu, меню «File», пункт «Check URL»

Результат работы программы можно представить в нескольких вариантах. Для проверки дублей страниц нужно выгрузить отчет, выбрав пункт “Export to TAB separated file” в меню “File”. Результаты будут выгружены в TXT-файл, содержимое которого можно скопировать в Excel. Там будет список всех страниц сайта, на которые стоят внутренние ссылки. Для каждой страницы будет доступно несколько характеристик, в том числе и теги title, description, keywords. По ним и некоторым другим данным, например, одинаковым URL страниц с различными идентификаторами, можно определить дубли страниц.

2.Проверка сайта на наличие “битых” ссылок и их устранение. Если есть “битые” ссылки, ведущие на несуществующие страницы, это может вызвать затруднения у пользователей, и они покинут сайт, так и не найдя необходимую информацию. Так как поисковики в первую очередь стараются высоко оценивать качественные ресурсы, наличие “битых” ссылок негативно повлияет на ранжирование и ухудшит поведенческие факторы. Найти и устранить их также поможет программа Xenu's Link Sleuth. Для этого нужно выгрузить другой вариант отчета, доступный в пункте “Export page map to TAB separated file” в разделе меню “File”. В этом отчете будут представлены все исходящие ссылки с каждой страницы сайта, на которой побывал робот программы. Если какая-то из них ведет на недоступную страницу, то в поле “LinkToPageStatus” будет стоять значение “Not found”. Это и есть “битые” ссылки на определенных страницах.

3. Проверка исходящих ссылок. Наличие большого количества нетематичных исходящих ссылок со страниц сайта воспринимается поисковиками как спам. Из-за этого ресурс не будет высоко ранжироваться. Найти исходящие ссылки на всех страницах можно также с помощью программы Xenu. В отчете, создаваемом при выборе пункта “Export to TAB separated file”, в списке страниц, на которые перешел робот, могут быть другие сайты, ссылки на которые установлены с различных страниц проверяемого ресурса.

4. Проверка количества проиндексированных страниц. Необходимо знать корректность и количество проиндексированных поисковиками страниц сайта. Если их значительно меньше, чем общее количество страниц, а добавлены они на сайт более 2 месяцев назад, необходимо искать причину, по которой не произошла индексация.

Увидеть количество проиндексированных страниц можно в панели Яндекс.Вебмастера или с помощью расширенного поиска, введя пустой запрос при поиске по своему сайту.

2.jpg

Яндекс.Вебмастер, количество страниц в поиске

3.jpg

Яндекс, расширенный поиск на сайте

В ПС Google посмотреть количество проиндексированных страниц можно при помощи расширенного поиска, введя пустой запрос и в дополнительных настройках указав свой сайт.

4.jpg

Google, расширенный поиск на сайте

Основных причин неиндексации страниц может быть несколько:

  • Малое время, которое прошло с момента добавления страниц. В таком случае стоит подождать 1—2 недели.
  • Роботы поисковых систем редко заходят на сайт и индексируют ограниченное количество новых страниц. Чаще всего это происходит потому, что ресурс не обновляется. В таком случае роботам нужно дать понять, что сайт начал развиваться. Необходимо регулярно обновлять контент, добавлять страницы, публиковать новости, отзывы и т.п. Со временем роботы будут чаще посещать ваш ресурс и быстрее индексировать новые страницы.
  • На сайт наложен фильтр, или он в “бане” поисковика. В таком случае необходимо найти и устранить причину. Подробнее о наиболее распространенных фильтрах можно узнать в специальных материалах, посвященных фильтрам Яндекса и Google.

5. Устранение проблем хостинга и загрузки сайта. Если страницы долго загружаются и сайт часто недоступен — это одни из признаков некачественного ресурса. Проверить скорость загрузки и мониторить его доступность можно с помощью Яндекс.Метрики в отчете “Результаты проверки”, во вкладке “Мониторинг” (подробнее об отчете).

Также оценить работоспособность ресурса при пиковых нагрузках можно с помощью программы Xenu. Для этого необходимо запустить проверку сайта и в настройках указать от 30 и более потоков проверки.

5.jpg

Xenu, настройка количества потоков проверки

6. Оптимизация кода. Под оптимизацией кода обычно понимается удаление из него всех ненужных тегов, вынесение описания стилей и скриптов в отдельные файлы, проверка и настройка валидности кода. Благодаря этому страницы будут быстрее загружаться, что приветствуется поисковиками и пользователями. Эту задачу лучше всего поручить профессиональному программисту или разработчику сайта.

7. Настройка зеркал. Зеркала — это два идентичных сайта, имеющие разные URL. Однако поисковые системы могут посчитать создание таких сайтов “спамными действиями” и наложить на них санкции, поэтому следует произвести правильную настройку зеркал, указав среди них основное (подробнее о настройке https://www.sembook.ru/book/optimizatsiya-sayta-v-detalyakh/nastroyka-redirekta-i-kody-statusa-http/ и https://www.sembook.ru/book/ogranicheniya-dlya-prodvizheniya/neglavnoe-zerkalo/).

8. Настройка корректной индексации разделов сайта в robots.txt, закрытие от индексации части служебных страниц, которые не несут ценности пользователю. Часто системы управления сайтом генерируют так называемые “служебные” страницы, информация на которых может дублироваться, или страницы с идентификаторами сессий. Например, это могут быть различные страницы с сортировками товара по названию или цене. Контент на них повторяет информацию разделов с этими товарами, и они являются дублями для роботов поисковых систем. Чтобы такие страницы-дубли не попадали в индекс, их нужно закрыть от индексации. Обычно для этого используется файл robots.txt (подробнее о его составлении и использовании ).


Заключение


Мы рассмотрели стандартные действия, благодаря которым можно устранить большинство типичных технических ошибок, не позволяющих ресурсу нормально индексироваться и высоко ранжироваться. При начале работ над сайтом проверка по указанным пунктам должна быть проведена одной из первых. Только после этого можно оптимизировать продвигаемые страницы, наполнять сайт, закупать ссылки и выполнять все остальные действия по продвижению. Ведь при наличии технических ошибок или фильтров ресурс просто не будет нормально ранжироваться, каким бы качественным он ни был.

Помимо устранения ошибок, к внутренней оптимизации относится еще ряд действий, благодаря которым сайт будет давать полезные ответы на запросы. О них пойдет речь во 2-ой части статьи о внутренней оптимизации, которая выйдет в следующем выпуске Прожектора Rookee.