Требуются SEO-услуги в Москве?

Выберите подрядчика

Ищете опытных фрилансеров?

Можно выбрать тут

Консультация по email:

info@jpromo.ru
Внутренняя оптимизация сайта: чек-лист для SEO

Внутренняя оптимизация сайта: чек-лист для SEO

Внутренняя оптимизация сайта подразумевает собой комплекс мер, направленных на улучшение видимости сайта в поисковых системах. Предлагаю вашему вниманию чек-лист стандартных работ, которые важно выполнить по каждому сайту для SEO.

1. Проверить дизайн сайта во всех браузерах

Сайт может выглядеть идеально в одном браузере, а в другом какие-то элементы могут показываться криво. Поэтому после обновления дизайна сайта необходимо проверить, как выглядит сайт во всех браузерах. Список браузеров, где нужно провести проверку:

  • Google Chrome;
  • Mozilla Firefox;
  • Opera;
  • Internet Explorer;
  • Safari;
  • Яндекс.Браузер.

2. Проверить дизайн сайта на мобильных устройствах и планшетах

Сайт должен корректно отображаться на экранах любой ширины и на любых устройствах. Для SEO предпочтительнее и удобнее адаптивная версия, когда сайт подстраивается под любую ширину экрана, но при этом содержимое сайта и URL не меняется (в отличие от отдельной мобильной версии). 

3. Корректная настройка файла robots.txt

В файле robots.txt указываются параметры для правильной индексации сайта. На что нужно обратить особое внимание при составлении файла:

  • наличие директивы sitemap;
  • закрыты ли разделы, генерирующие дублирующий контент — поиск по сайту, тэги, сортировка и т.д.;
  • открыты ли к индексации изображения, скрипты, файлы стилей и другие файлы, отвечающие за корректное отображение сайта в ПС;
  • настройка файла robots.txt для Googlebot;
  • и другие настройки.

Следует регулярно проверять robots.txt, т.к. со временем могут потребоваться дополнительные настройки и корректировки. 

4. Настроить файл sitemap.xml

Файл sitemap.xml содержит все ссылки на сайт. Значительно ускоряет индексацию сайта. Путь к файлу sitemap.xml нужно указывать в файле robots.txt, а также в Яндекс.Вебмастере и Google Search Console. 

5.Настроить ответ сервера «404 ошибка» для несуществующих страниц

Несуществующие страницы должны отдавать ответ сервера 404, иначе такие страницы рискуют попасть в индекс. Необходимо проверить на 404, набирая латиницу, кириллицу и цифры.

6. Редирект домена без WWW на домен с WWW (или наоборот)

Для поисковых систем www.jpromo.ru и jpromo.ru – это две разные страницы с одинаковым контентом. Если обе версии сайта попадут в индекс, то это отрицательным образом скажется на SEO-продвижении. Поэтому важно, чтобы сайт показывался либо только с WWW либо без него.

7. Редирект страниц без слеша "/" в конце URL на страницы со слешом (или наоборот)

То же самое, если страница доступна по 2-м адресам https://jpromo.ru/blog/ и https://jpromo.ru/blog, то для поисковых систем это дубли. 

8. Редирект домена с http на домен с https

Это правило нужно выполнять при условии, что сайт на https. Настройка редиректа также нужна для исключения дублей на сайте.

9. Наличие https

К сайтам на https у поисковых систем больше доверия, чем к сайтам на http. Тем более, что сайты на https помечаются в браузерах как безопасное соединение. Поэтому лучше всем сайтам перейти на https. Но делать это нужно аккуратно, чтобы не потерять львиную долю поискового трафика. Для этого есть ряд правил, которые нужно соблюсти (это отдельная тема). Проверить правильность установки SSL-сертификата можно с помощью инструмента SSL Checker или любого другого сервиса.

10. Настройка атрибута rel="canonical"

Атрибут rel="canonical" также предназначен для устранения дулей на сайте. Если на сайте есть 2 и более одинаковых страниц, то для них можно указать rel="canonical" со ссылкой на ту страницу, которую следует индексировать. 

11. Проверить мета тег meta name="robots", не запрещает ли он индексацию сайта

Бывает так, что разработчики сайта могут запретить индексацию через meta name="robots" в коде, а потом забыть убрать. Выясняется это, как правило, спустя полгода, когда кто-то не догадается посмотреть код страницы и проверить данный мета-тег. Лучше заранее всё сразу предусмотреть. Примеры кода, который вы можете встретить в случае запрета индексации страницы:

  • <meta name="robots" content="noindex,nofollow" />
  • <meta name="robots" content="none"/>

12. Проверить наличие тегов <noindex></noindex>, которые запрещают индексирование отдельных блоков

Данный тег сеошники часто используют для манипуляции поисковыми системами. Но лучше отказаться от него вообще, т.к. на деле он может вызывать только подозрение у поисковиков. 

13. Проверка индексации в поисковых системах

Необходимо проверить, все ли страницы сайта проиндексированы. Если  нет, то нужно провести мероприятия по ускорению индексации. Также большая разница в кол-ве проиндексированных страниц может свидетельствовать о том, что на сайте существуют ошибки, препятствующие индексации в одной из поисковых систем.

Анализ индексации страниц в Яндексе:

  • host:jpromo.ru | host:www.jpromo.ru (пример команды в поиске Yandex)
  • в Яндекс Вебмастере заходим в Индексирование -> Страницы в поиске

Анализ индексации страниц в Google:

  • site:jpromo.ru (пример команды в поиске Google)
  • в Google Search Console заходим в Индекс -> Покрытие -> Страницы без ошибок

14. Проверка HTML-валидации сайта

Желательно, чтобы сайт соответствовал стандартам валидации html. Для анализа страниц можно воспользоваться сервисом http://validator.w3.org.

15. Проверка ответа сервера и размера страницы

  • Индексируемая страница должна отдавать ответ сервера 200. 
  • В идеале время ответа сервера должно быть не более 100 мс. Но не всегда это возможно. Критическим показателем является — более 3000 мс. 
  • Размер веб-страницы должен быть не выше 120 КБ.

Для проверки перечисленных параметров можно воспользоваться следующим инструментом от Яндекс Вебмастера.

16. Скорость загрузки страницы сайта должна быть минимальной

Нужно стремиться к тому, чтобы скорость загрузки сайта не превышала 1 секунды. 2-3 секунды тоже является хорошим показателем.  4-7 секунд – нормально, но стоит улучшить эти показатели. При скорости от 8 секунд следует предпринять срочные меры по исправлению данной ситуации.

Вот несколько сервисов для проверки скорости сайта:

17. Проверка на бан, АГС и другие фильтры поисковых систем

Есть множество инструментом и способов проверки сайта на фильтры. Это большая тема для отдельной статьи. Но вот основные признаки того, что сайт находится под санкциями поисковых систем:

  • сайт не индексируется долгое время;
  • у сайта нет ни одной позиции в топ-10 или вообще отсутствуют позиции;
  • резкое снижение позиций и посещаемости при отсутствии глобальных изменений на сайте;
  • сообщения в Яндекс Вебмастер или Google Search Console о том, что сайт находится под фильтром;
  • и др.

18. Проверка структуры сайта

На сайте должна быть понятная и удобная структура. Если это не так, то это нужно исправлять. 

19. Наличие карты сайта

Карта сайта представляет собой структурированный список ссылок на основные разделы сайта. Это дополнительно улучшает индексацию сайта, а также является элементом навигации по сайту. Создание карты сайта не является обязательным мероприятием для SEO. И последнее время веб-мастера всё меньше размещают её у себя на сайте. Но она точно не помешает. 

20. Позаботиться о наличии графического отображения на сайте

Наличие фотографий и фото на сайте является важным условием для достижения положительных результатах в SEO.

21. Атрибуты alt у изображений

По стандартам html-валидации у каждой фотографии должен быть заполнен alt. В alt должно указываться название, отражающее суть фотографии. Но при этом рекомендуется использовать ключевые фразы в alt, где это уместно. Ведь грамотно заполненный alt является одним из факторов ранжирования в поисковых системах.

22. Проверка сайта на уникальность

На начальном этапе продвижения желательно, чтобы все страницы на сайте имели уникальный контент. Некоторые инструменты для проверки сайта на уникальность:

23. Проверка сайта на наличие орфографических ошибок

Орфографические ошибки также отрицательным образом сказываются на ранжирование сайта в поисковых системах. Есть различные сервисы для автоматической проверки. Вот несколько инструментов:

24. Проверка текста на дубли

Нужно свести к минимуму дублирование контента на разных страницах сайта. 

25. Проверка доступности сайта (аптайм)

Сайт должен быть всегда доступен, и важно это тоже отслеживать. Аптайм не должен быть ниже 99,7% в месяц.

26. Оценка кода страниц

  • Следует провести удаление лишнего и избыточного кода, который препятствует нормальной работе сайта.
  • Вынести все стили в отдельные CSS файлы, подключаемые в <head>
  • Вынести все объёмные (более 10 строк) js-коды в отдельные файлы, подключаемые в <head>
  • и т.д.

27. Проверка тегов и мета-тегов на сайте и устранение ошибок:

  • Отсутствие дублей у title и description на страницах сайта.
  • Отсутствие незаполненных title и description.
  • Отсутствие дублей тега h1 в коде. На каждой странице должен быть только один заголовок h1. Все последующие подзаголовки должны обозначаться h2,h3,h4 и т.д.
  • На каждой продвигаемой странице должен быть h1. Это также важно для SEO.
  • Не должно быть переизбытка тегов strong, b, em, i, u. Частое выделение ключевых фраз с помощью таких тегов может отрицательным образом сказаться на ранжировании веб-документов. 
  • Отсутствие спама в мета-теге keywords.
  • Отсутствие спама в title, description и h1.
  • Рекомендуемая длина тега title — 60-120 символов, description — 140-170. Гугл рекомендует не более 160 символов.

28. Проверка контактных данных

Должна быть страница с указанием наиболее полных контактов с компанией. Стационарные номера (8-495, 8-800 и т.д.) приоритетнее сотовых. Номер телефона и адрес следует размещать текстом, а не картинкой.

29. Проверить сайт на наличие на сайте черных методов оптимизации

Проверка на клоакинг, дорвеи, ссылочный спам, невидимый текст, однопиксельные ссылки, накрутку поведенческих факторов и так далее.

30. Оценка качества контента

Проверка на переспам, уникальность текста, качество, полезность, наличие фото, удобство взаимодействия с контентом и т.д. Наличие продвигаемых запросов в тексте страниц, их естественность употребления.

31. Анализ ссылок, сделанных на другие сайты 

Удаление ненужных ссылок с сайта и добавление атрибута rel="nofollow", где это необходимо. Проверить сайт на наличие продажных, низкокачественных, невидимых и других спам-ссылок.

32. Проверка на битые ссылки

На сайте не должно быть ссылок, ведущих на несуществующие страницы с ответом сервера 404. Важно регулярно проверять сайта на битые ссылки и оперативно их устранять.

33. Стремление к правилу «С одной страницы не более 1 ссылки на другой внутренний документ». 

Но если требуется сделать больше ссылок с раздела на одну и ту же страницу, то можно пренебречь данным правилом. Главное, чтобы было оправдано повторное добавление ссылки. И это должно выглядеть естественно на сайте. 

34. Наличие ЧПУ

По возможности внедрение человеко-понятных URL.

35. Использование микроразметки

Микроразметка позволяет улучшить вид выдачи в поисковых системах, что увеличит кликов по сниппету. Поэтому этим стоит также воспользоваться. 

36. Установка favicon.ico на сайт

favicon.ico – это иконка сайта, которая отображается в браузере, а также в выдаче Яндекса. Favicon дополнительно привлекает внимание пользователей, что увеличивает кликабельность сниппета. 

37. Правильно ли настроена пагинация:

  • Уникализация title и description на страницах пагинации за счёт нумерации и других приёмов
  • Желательно настроить ЧПУ для нумерации страниц (/page1, /page2, …, /pageN, а не /?page=1,  /?page=2,…,  /?page=N)
  • Несмотря на то, что Яндекс рекомендует для пагинации указывать в rel="canonical" везде первый URL, Google считает это ошибкой.  Также такая настройка canonical создаёт ситуацию, что поисковые системы не видят ссылки на те страницы, которые видны только в пагинации. В таком случае поисковые системы будут находить большую часть страниц только по файлу sitemap.xml. Это не критично, и многие крупные интернет-проекты так делают. Но всё-таки рекомендуется сделать уникализацию страниц с пагинацией и позволить им индексироваться в поисковых системах. Хотя вопрос открыт для обсуждения. Абсолютная истина тут пока не установлена, как правильнее делать.

38. Добавление сайта в сервисы поисковых систем для вебмастеров

После того как сайт приведён к стандартам поисковых систем, следует добавить его в следующие сервисы:

39. Проверить информацию в Яндекс.Вебмастер и Google Search Console

Яндекс Вебмастер:

  • Присвоенный ли регион
  • Занесен ли в Я.Справочник
  • Добавлена ли карта сайта в Я. Вебмастер
  • Раздел диагностика сайта. Есть ли проблемы на сайте?
  • Раздел безопасность и нарушения. Есть ли на сайте нарушения?
  • Вкладка индексирование. Были ли резкие спады или скачки в кол-ве страниц в индексе?
  • Добавлен ли sitemap.xml

Google Search Console:

  • Есть ли ручные санкции
  • Есть ли проблемы безопасности
  • Были ли резкие спады или скачки в кол-ве страниц в индексе?
  • Добавлен ли sitemap.xml

40. Что дополнительно рекомендуется сделать:

  • Для магазинов и организаций наличие данных о компании на картах и адресах Яндекс, Google.
  • Задать региональную принадлежность в Яндекс.Вебмастере
  • Google не предоставляет возможности в ручном режиме указать регион сайта, поэтому необходимо задать региональную принадлежность за счёт наличия территориальных признаков в шаблоне сайта (город, адрес, метро и т.д.)
  • Наличие на проекте социальных кнопок: лайки, расшаривания.
  • Проверить внешнюю ссылочную массу. Были ли резкие скачки/падения в ссылочной массе. Устранить «вредные» ссылки, если такие обнаружатся.
  • Проверить сайт на аффилированность. Наличие сайтов дублей также может отрицательным образом сказаться на продвижении.
  • Настроить микроразметку Open Graph для улучшения отображения в соц. Сетях
  • Проверить индексацию поддоменов, которые могут дублировать основной сайт. Для этого можно воспользоваться инструментом «Поиск поддоменов» от Пиксель Тулс.
  • Установить счётчики аналитики Яндекс Метрика и Google Analytics, если этого ещё не сделано.
  • Настроить отслеживание целевых действий на сайте. Например, это могут быть следующие цели: добавление в корзину, заказ или заявка на сайте, посещении более 3-х страниц, проведение более 30 секунд на сайте и т.д.
  • Проверить сайт на наличие малоинформативных страниц. Например, это могут быть какие-то пустые страницы или страницы с отдельными фото. Такие страницы необходимо запретить к индексации или вовсе удалить с сайта.
  • Проверить оптимизирован ли сайт для мобильных устройств. Для этого можно воспользоваться инструментом Mobile-Friendly Test Tool. Часто сайт может не пройти проверку, несмотря на то, что он адаптирован под мобильные устройства. В этом случае нужно проверить, не закрыта ли от индексации в robots.txt папка с шаблоном сайта. Если да, то Googlebot не видит файлы в папке, и тогда нужно просто в robots.txt открыть к индексации файлы, отвечающие за дизайн сайта.
  • Если у вас интернет-магазин, то в разделе «Товары и цены» Яндекс Вебмастера рекомендуется добавить фид со всеми товарами, чтобы улучшить сниппет карточек товаров в поисковой системе Яндекс.

Это базовые вещи, которые нужно сделать в рамках внутренней оптимизации сайта. Данный список будет регулярно пополняться, но он уже, как видно, достаточно внушительный.

Дмитрий Кондаков

Интернет-маркетолог

3 комментария

kkbkinfo5siteОпубликовано 11:46 пп - Апр 29, 2021

вполне себе годнота

ИннаОпубликовано 3:05 дп - Июл 28, 2020

Спасибо за информацию.

Оставить комментарий

Нажимая кнопку "Отправить сообщение", Вы даёте своё согласие на обработку введенной персональной информации в соответствии с Федеральным Законом №152-ФЗ от 27.07.2006 "О персональных данных".