sonyps4.ru

Техническая оптимизация. основных параметров технической оптимизации

Это комплекс доработок технических аспектов сайта, главная цель которого устранение всех недочетов и .

Технические работы по сайту требуется проводить на самом первом этапе продвижения, даже предварительном. Для этого сначала проводиться технический аудит с целью обнаружения всех ошибок, которые затем устраняются специалистами. Если при аудите найдены все ошибки, и все они исправлены корректно, то такие работы достаточно провести единожды. Благодаря этому, сайт продвигать намного проще: загрузка работает быстро, сайт хорошо индексируется поисковыми системами, и нет никаких внешних препятствий.

Аспекты технической оптимизации сайта

Рассмотрим те моменты технической оптимизации сайта, которые необходимо оценить на корректность работы перед продвижением.

  1. Качественный хостинг и сервер. О критериях хорошего хостинга можно говорить много. Главное - чтобы он работал стабильно, и время ответа сервера было быстрым. Хорошо если у него будет «дружелюбная» поддержка и налаженная система бэкапов. Для больших сайтов, порталов или сайтов с большой посещаемостью важно постоянно мониторить нагрузку на сервер и стабильность его работы.
  2. Настройка ответов сервера. Во время загрузки страницы посылается запрос серверу, который отвечает кодом статуса http и загружает или нет страницу. Основные статус коды:
    • 200 - страница существует и корректно обрабатывается сервером
    • 404 - страница не существует
    • 503 - сервер недоступен
    Особенно важно, чтобы ваша страница 404 ошибки отдавала код 404, а не 200. Проверить ответ сервера можно в Яндекс Вебмастере .
  3. Устранение дублей страниц. Это, пожалуй, самая глобальная техническая проблема, которая встречается на большинстве сайтов. Из-за дублей страниц появляется несколько копий одной и той же информации и поисковой робот не может определить, какая из них наиболее релевантна, поэтому понижает в выдаче все. Целую отдельную статью можно написать о том, как найти и устранить дубликаты. Система управления сайтом, на которой чаще всего встречается данная проблема, Joomla. На ней нужно постоянно смотреть, чтобы дубли не генерировались автоматически. Основные виды дубликатов:
    • Не настроенное главное зеркало: сайт доступен как по www так и без него
    • Главная страница доступна по таким адресам как http://site.ru/index.php или http://site.ru/index.html и пр.
    • Слэш в конце url адреса - нечеткие дубли
    • Большой и малый регистр в url-адресе
    Удаление дублей осуществляется посредством устранения источника их образования и настройки редиректов через файл.htaccess или через php.
  4. Файлы robots.txt и sitemap.xml. Прописанные в данных файлах инструкции помогают поисковым роботам корректно индексировать сайт. Оба они должны находиться в корневой директории сайта. В файле robots.txt указывается, какие страницы и каким роботам индексировать не нужно, главное зеркало сайта и адрес xml карты, остальные инструкции используются редко. От индексации запрещаются обычно служебные разделы, поиск, страницы сортировки и пр.
    используется реже. В нем указываются страницы сайта, их последнее время редакции и частота обновления. В целом, если навигация на сайте организована хорошо, то в нем нет необходимости - поисковой робот и так найдет все страницы.
  5. Оптимизация скорости загрузки сайта. Время загрузки сайта становится все более важным показателем ранжирования. Если сайт будет грузиться долгое время, то пользователь просто закроет страницу и вернется в выдачу для продолжения поиска. Это увеличит показатель отказов на сайте и снизит поведенческие характеристики. Основные моменты оптимизации скорости загрузки сайта следующие:
    • Оптимизация графики. Смотрите на размер картинок перед загрузкой их на сайт. Чем они меньше, тем лучше. При этом качество должно сохраняться.
    • Скрипты на javascript и flash пока не совсем корректно обрабатываются поисковыми роботами и нагружают сайт, поэтому чем их меньше, тем лучше. Многие вещи сейчас можно реализовать посредством css3. Используйте приоритетно программирование на php, чем подключение плагинов и модулей (больше касается сайтов на системах управления wordpress и joomla).
    • Оптимизация css. С помощью сжатия кода css можно сократить объем загружаемых данных и ускорить их обработку.
    Очень хороший сервис по проверке скорости загрузки сайта и его отдельных страниц есть у google. Здесь вам выдаст критические ошибки и рекомендации, которые есть у google для оптимизации скорости загрузки. Его же можно найти в google analytics.
  6. Оптимизация кода сайта. Этот пункт во многом перекликается с предыдущим, так как оптимизируя код, вы уменьшаете время загрузки сайта. К указанному выше также можно добавить кроссбраузерность кода и кроссплатформенность, а также его валидность и правильную кодировку. Проверить код на валидность можно с помощью сервиса validator.w3.org . Не ждите, что ошибок совсем не будет, так как не весь интернет еще понимает html5, но и слишком много их не должно быть.

Кроме перечисленных аспектов необходимо проверить также наличие битых ссылок на сайте, идентификаторов сессий в url и другую информацию. Найти все эти ошибки без специальных знаний, опыта или без изучения технической литературы будет затруднительно, а с исправлением всех ошибок дело еще сложнее. В нашей компании вы можете заказать технический аудит сайта и решение всех разрешимых проблем нашими специалистами. Услуга аудита предоставляется бесплатно в рамках .

Звоните нам по телефонам или оставляйте заявку через форму на сайте!

Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть для SEO оптимизации сайта.

1. Кабинеты вебмастеров и счетчики

Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах вебмастеров. Это самый лучший сигнал для поисковых систем, и вскоре роботы начнут посещать сайт.

Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:

  • добавление карты сайта sitemap.xml в соответствующий раздел ()
  • указание региональности ()
  • проверка robots.txt на правильность составления ()

Помимо прочего, вебмастера располагают массой полезных инструментов:

  • различными валидаторами для проверки корректности составления тех или иных документов (карты сайта, микроразметки и т.д.)
  • возможность отслеживать статистику по запросам (показы, клики, CTR и т.д.)
  • просмотр статистики индексирования страниц (что попало в поиск, а что нет, и по каким причинам)

Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик - это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.

Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt . Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.

В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:

  1. Должны быть указаны правила для разных роботов (User-agent: Yandex, User-agent: GoogleBot и т.д.), т.к. правила и директивы для каждого из них могут отличаться.
  2. Закрыты от индексации все системные ресурсы (шаблоны, исполнительные файлы и т.д.).
  3. Закрыто все, то что не должно присутствовать в поиске (страницы регистрации/авторизации, результаты фильтрации/поиска и т.д.).
  4. Указана директива Host для робота Yandex.
  5. Указана карта(ы) сайта sitemap.xml.
  6. Для робота GoogleBot должны быть открыты файлы, влияющие на отображение сайта (js, css, изображения, шрифты). Подробнее об этом можно почитать .

Более подробно о настройке robots.txt можно прочитать и .

3. Sitemap (карта сайта)

Карта сайта - один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.

Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.

Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator , или же настольные приложения, например ComparseR, Sitemap Generator .

Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.

4. Битые ссылки

Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.

Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.

Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска .

5. Исключение дублей

Дубли страниц - это доступность одного и того же материала по нескольким адресам.

Наличие дублированного контента приводит к следующим проблемам:

  1. ПС могут неправильно определить основную (релевантную) страницу, что может повлиять на позиции сайта. Поисковые роботы могут склеить адреса, выбрав приоритетной страницей наименее желательную.
  2. Дубли создают дополнительную нагрузку при обходе сайта роботом, в следствие чего увеличивается время на индексацию.

Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.

Предположим, что материал доступен по двум адресам:

www.site.ru/page

www.site.ru/page111

Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:

‹link rel="canonical" href="www.site.ru/page" /›

Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.

Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt или настроить 301 редирект. Подробнее читаем .

6. Настройка ЧПУ

10. Ответ сервера

Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.

Например,

200 - со страницей все в порядке

404 - несуществующая страница (советы по оформлению страницы 404)

503 - сервер временно недоступен

Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле.htaccess.

Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.

Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.

11. Скорость загрузки

Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. - один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму - он просто уйдет, и, как правило, не вернется.

На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю - не должно нравиться и ПС.

Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights . Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:

Итог

Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация - это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо

Как сделать сайт, готовый к продвижению? Основные технические критерии для успешной seo-оптимизации! Если у Вас уже есть сайт, то никогда не поздно проверить, найти ошибки и их исправить!

Структура сайта

Реализация логичной системы вложенности на сайте. Необходима реализация с учётом работы бизнеса. Это один из самых важных этапов, в котором закладывается фундамент. Переделывать – сложно и дорого.

Пример реализации

  1. Главная страница сайта
  2. Категория товара в интернет-магазине или раздел информационного сайта:

    domen.com/games/
    domen.com/sport/

  3. Подкатегории или подразделы:

    domen.com/games/tablehockey/
    domen.com/sport/football/

  4. Карточка товара или статья:

    Если есть уверенность, что выбранный раздел правильный и меняться не будет, то красиво организовать структуру и вложенность в ЧПУ согласно категориям \ разделам.

    domen.com/games/tablehockey/stiga-play-off/
    domen.com/sport/football/arshavin-pereshel-v-kuban/

    Если категории будут меняться, то вполне возможно лучше организовать структуру сайта так, чтобы конечные элементы (карточки товаров, статьи и т.д.) имели независимый адрес, тогда перемещение не будет за собой тянуть никаких сложностей.

    domen.com/stiga-play-off/
    domen.com/arshavin-pereshel-v-kuban/

  5. Теговые страницы, страницы брендов или вспомогательные и параллельные разделы.

    Обычно сайт должен иметь несколько параллельных веток.
    domen.com/brand/stiga/
    domen.com/tag/arshavin/

  6. Такая структура подразумевает, что каждая страница будет релевантна группе запросов, например:

  • игры в спб
  • купить игры
  • купить игры в спб
  • игры цены
  • спорт
  • новости спорта
  • новости спорта в россии
  • футбол
  • новости футбола
  • новости футбола в россии
  • стига плей-офф
  • настольный хоккей стига плей-офф
  • купить настольный хоккей стига плей-офф
  • аршавин
  • новости о аршавине
  • стига
  • стига настольные игры
  • купить стига
  • стига цены

И т.д.
Но это уже отдельная тема, группировки и составления семантического ядра сайта.

ЧПУ

ЧПУ нужно использовать либо полностью название «категории», «бренда», либо общепринятые обозначения. Важно, чтобы ЧПУ были все в нижнем регистре. Пробелы заменять «-» (тире). Не надо в ЧПУ использовать коммерческие слова «купить», «цена» и т.д. Не надо, чтобы в ЧПУ повторялись слова в разных уровнях вложенности. Если это ЧПУ товаров или статей, то необязательно использовать все название, можно сделать несколько ключевых слов (но помнить про уникальность). Лучше использовать транслит или перевод (не кириллические обозначения).

Ответы сервера

  1. Существующая страница должна отдавать ответ сервера – 200 ОК .
  2. Необходимо, чтобы несуществующие страницы отдавали – 404 ошибку .
  3. Настроить редиректы, страницы без слеша должны отдавать ответ 301 на страницы со слешем на конце.
  4. Настроить 301 редирект с www на «без www» или наоборот . Зависит от того, как больше нравится позиционировать сайт: www.domen.ru или domen.ru.
  5. Параметр Last-Modify должен или отсутствовать, или содержать реальное изменение информации на странице (обычно по тексту, содержанию).
  6. link-canonical – инструмент для того, чтобы сообщить поисковым сетям, что данная страница скорее носит “вспомогательный характер”, а есть основная, каноническая. Вес всех вспомогательных суммируется и передается основной. Хорошо использовать для пагинации, сортировок и т.д.

Карта сайта

Все страницы сайта должны быть собраны в sitemap.xml (если страниц много и ссылки не помещаются в один файл, то можно разбить на несколько файлов по смыслу).

Страница сайта

Каждая страница должна иметь возможность для размещения и редактирования:

  1. Текст
  2. Заголовок H1
  3. Title
  4. Keywords
  5. Description
  6. Название для вывода в меню сайта
  7. ЧПУ (уникальный)
  8. Картинки

Должна быть сделана генерация мета-данных (данные по умолчанию), которая бы легко генерировалась. Например, чтобы у всех страниц было что-то типа:

Title : Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Keywords : грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Description : Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}. Domen.ru – лучший сервис доставки грузов!

Генерация – это мета-теги по умолчанию, для каждой страницы введенные уникальные данные должны иметь приоритет.

Код сайта

  1. html код сайта не должен содержать стили и js-код (по возможности), все должно быть подключено через файлы, таблицы стилей. Вообще, чем короче, проще и валиднее код – тем лучше.
  2. Разметка заголовками h1-h6 должна быть только внутри зоны содержания текста, в остальном сайте должны использоваться обычные блочные элементы.
  3. Использовать schema.org и hcard – микроразметка поможет поисковым сетям хорошо понимать содержание Вашего сайта. Основное: контакты, хлебные крошки, фотографии. Если сайт подходит под тематику, то отзывы, рецепты и т.д.

Пагинация

Простой и удобный для пользователя способ разделить большой объем информации по страницам. Современные сайты часто используют подгрузку содержания по средствам AJAX, данный способ бывает удобен для пользователя, но затрудняет индексирование ресурса. Поэтому предпочтительнее использовать пагинацию, она может положительно сказаться и на поведенческие факторы (глубину просмотра). На страницах пагинации хорошо использовать мета-тег link-canonical.

Хлебные крошки

Необходима реализация хлебных крошек:

Главная >> Россия >> Финляндия
Главная >> Россия Санкт-Петербург >> Россия Москва
Главная >> Россия Санкт-Петербург >> Россия Москва >> 40DC Контейнер

Хлебные крошки должны использовать микроразметку – прочитать .

Перелинковка сайта

Реализовать перелинковку сайта (страниц, разделов). Т.е. реализовать что-то типа блока «Похожие направления», «Вам может быть интересно» и т.д. Цель – на каждую страницу должно вести (3-4 ссылки). Например, реализовать по принципу «кольца», когда страницы на одном уровне вложенности ссылаются на несколько соседних (по алфавиту или id).

Фавикон

Сайт должен иметь favicon (скорее всего уменьшенный логотип или его часть).

robots.txt

Сайт должен иметь robots.txt.

hreflang

Вместо вывода

Это основные пункты, есть ещё миллион мелочей для каждого конкретного случая, но если Вам кажется, что это список без этого неполный, то буду рад любым комментариям! Общий план оптимизации сайта я уже публиковал – .

Переходим к рассмотрению вопросов технической оптимизации сайта.

Что такое техническая оптимизация сайта?

Техническая оптимизация сайта подразумевает реализацию комплекса мер по устранению технических огрехов в работе сайта, которые препятствуют корректному индексированию сайта поисковыми системами и использования пользователями. Первым нюансом технической оптимизации сайта является то, что ее проводят обычно только один раз в начале продвижения.

Частым огрехом начинающих либо недобросовестных оптимизаторов является исключение данного этапа из процесса поисковой оптимизации сайта . В результате такого халатного отношения к ресурсу он может не в полной мере индексироваться, что значительно ограничивает возможности для продвижения.

Устранением технических моментов сайта должны заниматься специалисты, т.к. неумелое внесение изменений может не только навредить, но и полностью нарушать функционал сайта и его работоспособность.

На какие технические доработки сайта необходимо обращать внимание?

В публикации про я уже вспоминал о технической оптимизации . Сейчас же хочется предоставить некоторую группировку, которая поможет более точно выявлять проблемы, их устранять либо ставить задачи техническим специалистам, если нет возможности выполнить доработку самостоятельно.

Технические проблемы сайта, препятствующие эффективному продвижению, можно разделить на следующие группы:

    Проблемы хостинга и программного кода. Этот фактор является одним их наиболее критичных, т.к. от скорости хостинга и правильности работы программного кода зависит не только, как роботы поисковых систем будут его индексировать, но и лояльность посетителей ресурса. Сбои в работе, недоступность сайта и прочие проблемы, вызванные низким качеством хостинга и системы управления сайтом способны негативно сказаться на . Если вы по различным причинам все же выбрали дешевый хостинг , то рекомендую почитать о нем отзывы и, при возможности, заказать тестовый период, чтобы убедиться в надежности и соответствии хостинга вашим потребностям.

    Настройка редиректов и страниц-ошибок. К этой группе относиться настройка зеркал сайта и указание основных, склейка дублируемых страниц. Следует позаботиться о том, чтобы все страницы сайта возвращали корректные коды, а ссылки на несуществующие страницы либо вели на страницу ошибки 404 либо производился корректный редирект на ее новый адрес или главную страницу сайта.

    Настройка сайта для поисковых роботов. К данной группе относятся настройки разрешений и запретов на индексацию в файле robots.txt, а так же создание и указание файла sitemap.xml, который позволяет поисковым роботам лучше изучить структуру вашего сайта и сообщить обо всех существующих на нем страницах, которые вы хотите проиндексировать.

    Корректировка шаблона, навигации, структуры. Данная группа технической оптимизации сайта включает корректировку внешнего вида сайта таким образом, чтобы он максимально эффективно индексировался поисковиками, корректно отображался в разных браузерах, был удобен в использовании. Это особенно актуально для сайтов, выполненных с применением технологии Flash, обилием JavaScript и прочих современных технических наворотов, которые могут некорректно восприниматься роботами поисковых систем.

    Настройка URL для страниц. Для эффективного поискового продвижения сайта считается, чтобы ссылки на различные страницы сайта были постоянными и включали ключевые слов (примером может послужить адрес данной публикации). Настройка такого типа адресов производиться в специальном разделе CMS либо при помощи специальных директив в файле.htaccess. Если внешний вид ссылок изначально был задан не совсем подходящим образом и их пришлось изменить, стоит позаботиться о корректной переадресации со старых адресов на новые. Это позволит поисковым системам более быстро и корректно переиндексировать сайт, а так же сохранить уже приобретенный вес страниц от входящих ссылок на них.

    Удаление дубликатов страниц и клонов. Стоит позаботиться о том, чтобы на сайте не было дублируемого контента. При чем, важно чтобы контент не дублировался и на прочих ресурсах или, так называемых, . Наличие дублей и аффилиатов может негативно сказаться на возможности продвижения сайта, т.к. высока вероятность

Техническая оптимизация сайта – полный перечень технических доработок. Вывод сайта в ТОП-10 PS Google and Yandex. Корректировка и исправление существующих ошибок, которые могут повлиять на продвижение сайта в поисковых системах. Без проведения грамотной технической оптимизации и доработок, эффективность направленных на продвижение действий сводиться к нулю. Давайте рассмотрим все необходимые действия, которые необходимо учесть.

Содержание статьи:

Техническая оптимизация и доработка сайта

Комплекс мер, направленных на корректную доработку важных технических аспектов сайта. Основной целью которых является:

  1. Полноценное индексирование в поисковых системах.
  2. Правильное ранжирование документов.
  3. Простая эффективная структура! Которая позволит поисковому боту, быстро достичь нового документа и понять его.
  4. Грамотная структура – удобство переходов между страницами.
  5. Навигация для лучшего взаимодействия пользователей с необходимой информацией. Позволит посетителю быстро найти нужный документ.

Правильно проведенная работа над ошибками, позволит значительно улучшить показатели сайта. Поспособствует:

  • Быстрой индексации страниц сайта;
  • Значительному улучшению позиций большинства страниц;
  • Уменьшению показателя отказов;
  • Приросту аудитории;
  • Равномерному распределению веса между документами;
  • Уменьшению времени отклика и прочих немало важных аспектов. Влияние которых зависит от технической оптимизации сайта.

Техническая оптимизация сайта: полный чек – лист

Важно понимать, что все ваши действия должны начинаться именно с начала. Двигаясь только в перед до конечных вариантов ошибок. Которые не оказывают серьезного влияния на сайт. Некорректное внесение исправлений в код или прочие элементы сайта, может привести к фатальным ошибкам. Обдумайте и проверьте все доработки несколько раз, прежде, чем внести изменения на работающем сайте.

Оптимизация работы хостинга и сервера

Хостинг оказывает одно из самых критических влияний на сайт. Плохое программное обеспечение или низкое количество выделенных ресурсов для работы. Приведет к серьезным последствиям на сайте.

  1. Установите качественное программное обеспечение или готовый хостинг.
  2. Обеспечьте достаточное кол-во выделенных ресурсов для сайта. Объемы памяти RAM, HDD, SSD.
  3. Следите за актуальность версий, программного обеспечения хостинга – PHP, баз данных и прочих.
  4. Абсолютно все страницы сайта, должны отдавать код ответа сервера 200 ОК.

Помочь могут следующие сервисы:

  • Google PageSpeed;
  • Инструменты Pingdom;
  • GTmetrix;
  • Яндекс веб-мастер.

Установка и настройка необходимых 301-редиректов и кодов ответа для избежания дублей страниц

Такие меры нужны для корректного указания основного зеркала сайта. Правильной обработки 404 ошибок и уменьшению дублей документов сайта в поиске.

  1. 301 – редирект с “www” (или без “www”) на основное зеркало сайта.
  2. 301 – редирект с других зеркал на основное (если таковые имеются).
  3. Настройте 301 – редиректы на URL со слешем “/” в конце или наоборот без него.
  4. Обязателен 301 – редирект с “http” на “https” или наоборот, зависит от версии сайта. Редирект поможет избежать дублирования контента.
  5. Создание страницы 404 – для несуществующих URL. Такая страница должна передавать код ответа 404 Not Found . Страницу 404 оформляют под дизайн проекта, а также организуют удобную структуру на ней. Это позволит посетителям быстро отыскать информацию на сайте, а не покидать его.

Оптимизация скорости загрузки сайта – HTML, CSS, JS и графики

В 2019 году скорость загрузки сайта, будет также востребованной поисковиками. Влияние этого показателя на ранжирование сайта одно из самых значимых в поисковом продвижении.

  1. Оптимизируйте Html код страниц – проверьте верстку на отсутствие незакрытых тегов. Это хорошо улучшит валидность документа. Html код должен быть чистым и иметь небольшой вес.
  2. CSS и JS – значительно влияют на скорость загрузки документа. Их нужно сжать и объединить как отдельные подключаемые файлы. Так увеличится скорость их обработки и загрузки визуальных элементов в браузере.
  3. Оптимизация графики – картинки нужно с начало обработать и сжать перед загрузкой на сайт. Будьте внимательны и следите за качеством изображения после сжатия.
  4. Ответ сервера должен быть в пределах 0.200 мс.
  5. Общее время загрузки сайта не должно превышать 0.700 мс.

Организация качественной структуры сайта, навигации и правильных ЧПУ

Структура сайта и его навигация значимый фактор. Он влияет на показатели отказов, индексацию и передачу веса между страницами.

  1. Структура сайта должна быть простой и иметь глубину не более 4 кликов. Пользователю должно быть удобно перемещаться по страницам.
  2. Создайте главное меню для обеспечения доступа к основным разделам.
  3. Сделайте перелинковку между страницами.
  4. Используйте метки и постраничную навигацию.
  5. Добавьте дополнительную страничку, имеющую всю структуру проекта. Так посетитель быстро отыщет важную информацию. А ПС – бот быстро проиндексирует новый контент.
  6. Настройка ЧПУ сайта – такие url, должны полностью отображать смысл заголовка страницы и быть понятными человеку.
  7. Рекомендуется использовать rel=“canonical”, для избавления от большинства дубликатов контента сайта. Позволяет указать поисковикам на оригинал документа. Таким образом, все копии оригинала страницы не будут учитываться поисковой системой.

Файлы robots.txt, sitemap.xml и.htaccess

Инструкции прописанные в этих файлах, помогут П – боту корректно индексировать страницы проекта. Все три файла должны находится в корневой директории.

  1. Robots.txt – позволяет указать правила индексации многочисленным поисковикам. В этом файле устанавливают запреты на служебные разделы, страницы дубли, поиск и прочие.
  2. Sitemap.xml – необходим для быстрой индексации. Должен иметь полную идентичную структуру сайта. Обеспечивая быстрый обход П – ботом новых или измененных страниц.
  3. .htaccess – позволяет указать правила для сервера. Неправильно прописанные правила! Приведут к фатальным ошибкам с серверной стороны! Этот файл позволяет сделать следующее:
    • в.htaccess можно указать большинство правил переадресации на сайте;
    • настроить сжатие большого количества форматов файлов со стороны сервера;
    • установить правильное хеширование документов в браузерах;
    • установить некоторые правила безопасности;
    • и прочие.

К таким рекомендациям можно отнести действия, которые несут второстепенный характер. Но несут не мало важную роль в оптимизации сайта. Эти дополнительные доработки, также улучшат ранжирование сайта и поведенческие факторы.

  1. Тег h1 единственный и не может повторяться на странице.
  2. H1-h6 не должны быть элементами стилистического оформления и дизайна.
  3. На страницах находятся только полностью уникальные теги Title и Description. Которые отражают суть страницы.
  4. Создайте привлекательный Favicon.
  5. Внешние ссылки, должны открываться в новой вкладке.
  6. Закройте от индексации страницы входа в админку. Директивой Disallow в файле robots.txt.
    • Также это касается служебных папок: cgi-bin, wp-icnludes .
    • Страниц регистраций, входа: register=, logout= .
    • Результаты поиска: search .
    • Rss избегая дублирования контента: feed”, wp-feed .
  7. Используйте дополнительное меню в статье “Содержание”, для навигации в статье.
  8. Сайт должен иметь оптимизированную мобильную версию.
  9. Необходима версия AMP – для мобильного поиска.
  10. Также рекомендуется настроить TURBO страницы, для поисковой системы Яндекс.
  11. Шрифт документа должен быть виден пользователю.
  12. Избегайте большого количества выделений в тексте .
  13. Не ставьте большое количество рекламных блоков на сайте. Поисковые системы могут негативно отреагировать на кучу рекламы, как в прочем и пользователи.

Это были все самые нужные доработки сайта. Надеюсь эта статья будет Вам полезна.

  • Читайте статьи по этой теме:


Загрузка...