sonyps4.ru

Как обнаружить и устранить скрытую переадресацию для мобильных устройств. Проверка структуры веб страницы

Как проводить SEO-оптимизацию сайта?

Что необходимо для поисковой оптимизации и продвижения сайта? В первую очередь это, безусловно, уникальный контент. Ведь размещение интернет-сайта на первых страницах выдачи по определённым запросам является принципиально важным вопросом для его нормального функционирования и дальнейшего развития. Конечно, можно просто сидеть и ждать, пока поисковики сами не начнут производить индексацию страниц вашего веб-ресурса, однако лучше всего заняться этим процессом самостоятельно. Поисковую оптимизацию, как правило, необходимо начинать непосредственно с создания сайта. Таким образом, его разработка, дизайн, структура, а также пользовательский интерфейс должны подчиняться правилам SEO. Следовательно, вам потребуется изначально тщательным образом продумать всё оформление сайта, ссылочность внутри него, а также иерархию страниц. Цена на услуги SEO в последние годы позволяет многим пользователям прибегнуть к помощи профессионалов в этом деле, которые имеют в этой области необходимые навыки и знания. Таким образом, всю SEO-оптимизацию осуществят вместо вас, вам же в этом случае нужно будет только оплатить данные услуги.

Однако, что же представляет собой SEO-оптимизация? SEO (англ. search engine optimization) представляет собой целый комплекс мер, который направлен на поднятие позиций конкретного интернет-ресурса в результатах выдачи поисковиков по каким-то определённым ключевым запросам интернет-пользователей. Таким образом, чем выше ваш сайт будет в результатах выдачи, тем больше целевых посетителей перейдут на него.

Как провести оптимизацию сайта?

После создания сайта, вам нужно будет заняться его текстовым наполнением. В этом случае тексты должны быть написаны как для посетителей сайта, так и для поисковых роботов. Стоит отметить, что SEO-оптимизированные статьи должны быть написаны с тщательно продуманными заголовками, которые относятся к тематики вашего веб-сайта, а также с вхождением нужных ключевых слов. В результате, эти статьи и будут представлять собой основной двигатель вашего ресурса в долгосрочной перспективе. В текстах с объёмом примерно в 2-3 тысячи знаков ключевые слова должны повторяться около 3-5 раз, причём один из повторов должен входить в заголовок статьи. О принципах написания SEO-дружественных статей вы узнаете ниже.

Кроме написания статей, вам нужно будет заняться определением семантического ядра сайта, т.е. тех запросов, по которым необходимо будет заняться оптимизацией веб-сайта в поисковых системах. Причём всё это должно подчиняться ряду правил. Итак, в первую очередь необходимо отметить, что количество ключевых слов не должно занимать больше 5 процентов от всего объёма текста, самым оптимальным количеством повторов одного и того же запроса является 3. Кроме того, запрос должен обязательно употребляться в первых 300 знаках текста. Наибольшее внимание системы индексирования уделяют первой трети текста и последней, а что касается середины, то данные системы к ней более равнодушны.

Больший успех оптимизация сайта будет иметь в том случае, если ключевые запросы будут выделены с помощью жирного шрифта, либо внесены в подзаголовок или заголовок. Кроме того, поисковые роботы обращают внимание на ссылочность внутри интернет-ресурса, т.е. чем больше будет ссылок, тем выше ваш веб-сайт будет в результатах выдачи.

Принципы написания SEO-дружественных текстов

При написании текстов для SEO-оптимизации сайта в первую очередь нужно будет правильно подобрать ключевые слова. Ведь содержимое вашего сайта поисковые системы будут идентифицировать с помощью ключевых слов. Следующий принцип заключается в удобочитаемости, т.е. как было описано выше, статью нужно писать не только для поисковых систем, но также и для читателей сайта. Также обратите внимание на тематическое содержание, ведь при использовании ключевых слов, важно сохранить актуальность статьи.

Следующий принцип заключается в размещении и количестве ключевых слов (об этом уже было сказано выше). Не забывайте также делать чёткие и короткие абзацы, и использовать в тексте нумерацию или маркеры. Также для составления качественной статьи необходимо делать подзаголовки. Оставшиеся принципы заключаются в правильной перелинковке, избегании повторений и корректировании написанного.


Как провести анализ сайтов конкурентов

Данная ошибка выводится в отчете после проверки определенных страниц сайта на доступность в поисковой системе Яндекс. Делается это через специальный сервис Яндекс.Вебмастер (инструмент «Индексирование» -> «Проверка URL»).

Что за ошибка?

Это означает, что робот посетил её, но не удосужился внести её в поисковую выдачу, сочтя её некачественной и вообще — вы спамер, у вас много рекламы, исправляйте всё немедленно, а потом поговорим! Самое удивительно то, что «некачественным» он иногда считает материал по 5000-10 000 знаков копирайта и отличным положением у конкурента в поиске (у меня не проиндексированная страница в Я была в ТОП-3 в G )

Симптомы:

  1. Количество загруженных страниц сайта на порядок больше, чем количество страниц в поиске
  2. Некоторые страницы упорно не хотят индексироваться, даже после размещения ссылки на дружественных тематических ресурсах или в социальных сетях
  3. Контент на не индексируемых страницах уникальный и качественный
  4. Сайт не показывает баннерную рекламу, либо её количество минимально
  5. Сайт не находится под фильтрами поисковой системы.

Устраняем ошибки, которые указаны в разделе «Диагностика»

Чтобы повысить качество сайта и страниц в глазах Яндекса, нужно, как это ни странно, воспользоваться советами его самого. Дело в том, что в Я.Вебмастере в разделе «Диагностика» есть список текущих ошибок, которые вполне могут повлиять на выдачу

Что конкретно нужно исправить и как это сделать?

Воспользоваться инструментом «Переобход страниц»

В Яндекс. Вебмастере есть специальный сервис, заставляющий робот заново посетить вашу страницу «Инструменты» «Переобход страниц» . Заставьте робота еще раз посетить вашу страницу. Идеальный вариант — немного добавить контента или хотя бы поменять где-то текст. В общем, видоизмените страницу, на которую будете ссылаться.

Удалить дубли, запретить их к индексации

Практически самый главный враг хорошей индексации отдельных страниц, которые не попадают в выдачу — это дубли. Дубли страниц, которые генерирует сама CMS, будь-то WP или DLE. Причем дубли могут быть совсем не явные, т.е. как таковых «вторых» страниц с таким же контентом нет, но есть страницы, у которых срабатывает редирект на основной материал. Их можно отследить в Я.Вебмастере. Для этого зайдите в меню «Индексирование» -> «Статистика». Далее выберитерядом с названием сайта категорию «HTTP-коды 3хх»

Как видите страниц с редиректом пруд пруди:

Самое интересно то, что еще одним стандартным сервисом «Яндекса» дубли не удалить сходу: Пишет ошибку «Нет основание для удаления». Т.е. яндекс не может просто убрать страницу с поиска, если даже вы этого хотите. Ему нужны основания

Для того, чтобы перестали генерироваться дубли и для того, чтобы их можно было удалить с поисковой выдаче нужно проделать следующие шаги

  • Прописать строчку кода в файле functions.php (если у вас Word Press)

Обычно этот файл находится в директории с названием вашей темы. Для редактирования можете использовать FTP ну или встроенный редактор в админке WP — это на ваше усмотрение. Вставляем следующий код

remove_action(‘wp_head’, ‘wp_shortlink_wp_head’);

  • Настроить файл robot.txt

Чтобы запретить индексацию дублей нужно создать соответствующее правило в файле robot.txt

Disallow: /?p=*

Т.е. страницы вида «site.ru/?p » запрещены к индексации. Кстати, на Word Press проще всего добавить это правило также через код в том же файле functions.php. Результат удаления URL через Я.Вебмастер теперь положительный:

Создать карту сайта (Sitemap)

Карта сайта создана специально для упрощения навигации не только пользователей, но и поисковых роботов. Поэтому, если вы считаете, что вашем посетителям она ни к чему, то сделайте её хотя бы для поисковой системы. Давно доказано — файл Sitemap улучшает индексацию страниц и сайта в целом! Для того, чтобы создать файл Sitemap.xml в CMS Word Press используйте плагин «Google XML Sitemaps».

Чтобы показать Яндексу, что файл у вас создан и может использоваться роботом в Я.Вебмастере зайдите в «Настройка индексирования» — «Файлы Sitemap» и вставьте ссылку на неё (учтите, что статус «Очередь на обработку будет висеть достаточно продолжительное время»)

Заполнить мета тэг name description

Для каждой странице нужно заполнить её краткое описание, которое содержится в специальном мета тэге . Поисковые алгоритмы будут использовать данный тэг для формирования описания страницы при выдаче результатов поиска (т.н. сниппет)

Чтобы не заморачиваться с правкой кода, мы можем использовать плагин для Word Press — Meta Tag Manager , который добавляет в конце редактора специальный контейнер, где можно его вписать

Пишем в техническую поддержку Яндекса

Если уверены в качестве своего сайта и конкретно тех страниц, которые не попадают в поиск. У Яндекса довольно большой мануал и огромные список того, «чего не желательно» или вовсе «нельзя». Советуем ознакомиться, перед тем, как строчить кляузу — https://yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.xml

Что можно и где нужно писать, чтобы мне ответили?

Итак, вы уверены, что ваш сайт белый и пушистый, поэтому вам срочно нужно написать в Яндекс. Если это действительно так, то:

  1. Перейти на страницу https://yandex.ru/support/webmaster-troubleshooting/site-indexing.xml
  2. Далее в опросе выбираете — «Мой сайт плохо индексируется».
  3. Затем — «Некоторые страницы сайта отсутствуют в поиске»
  4. В самом конце нужно поставить галочку в чекбокс пункта «Страницы отсутствуют в поиске по непонятным причинам»

После чего откроется форма для обратной связи с техподдержкой:

В сообщении можете написать примерно следующий текст (не копируйте его полностью, просто используйте как шаблон )

P.S. Ответ от Яндекса — это просто ошибка инструмента «Проверка URL»

Техническая поддержка Яндекса ответила мне на удивление быстро. Оказалось, мои страницы-таки были в поиске — во всём виноват кривой инструмент «Проверить URL». Я.Вебмастер совсем недавно выкатил новую версию этого сервиса — видимо, пока что, не всё работает, как задумано.

Т.е. возможно страницы есть, а может и нет? Чтобы точно убедится в том или ином предположении, нужно проверить наличие в индексе на других сервисах для веб-мастеров.

Google собирается отказаться от классического адреса интернет-страниц в своем браузере. Компания планирует укрепить средства защиты пользователей в сети.

Интернет-мошенничество становится настоящей чумой 21 столетия. Каждый день в виртуальном мире хакеры воруют и продают все, что угодно - от реквизитов банковских карт до интимных фотографий звезд Голливуда.

Каждая интернет-компания пытается внедрять свои способы защиты пользователей, но все это пока недостаточно эффективно. Согласно McAfee, кибератаки в прошлом году принесли миру убытков на $600 млрд (примерно половина действующего бюджета США).

Принять радикальные методы безопасности хотят создатели одного из самых популярных браузеров - корпорация Google.

Вчера браузеру Сhrome исполнилось 10 лет и, помимо существенных изменений в , разработчики планируют cерьезно укрепить надежность адресной строки.

Google намерен отказаться от использования традиционных интернет-адресов URL, поскольку они являются слишком сложными и непонятными для пользователей.

Это часто играет на руку хакерам и мошенникам, которые создают фейковые страницы финансовых учреждений и прочие вредоносные сайты, распространяют ложную информацию или вирусное программное обеспечение.

Поэтому, программисты компании работают над такой системой, которая поможет упростить пользование веб-страницами в Chrome для каждого пользователя.

“Я еще не знаю как точно это будет выглядеть, потому что сейчас мы активно обсуждаем это в команде. Я знаю: что бы мы не предложили - это будет спорным”, - рассказала в интервью WIRED директор технологий в Chrome Париса Табриз. “Это один из самых главных вызовов в работе со старой, открытой и разваливающейся платформой. Изменения в любом случае будут спорными, независимо от того, что произойдет. Важно, что мы делаем это, поскольку все недовольны URL. Это вроде как отстойно”.

По сути, Google должен разработать новую систему, все участники которой смогут легко проверять и понимать с чем они имеют дело, заходят ли они на подлинный веб-сайт и легко различать страницы или сообщения, которым точно нельзя доверять.

Представители корпорации объясняют, что сейчас они сосредоточены на определении того, как люди используют URL-адреса, чтобы найти альтернативу с повышенными мерами безопасности и определением личности в интернете.

Очевидно, что Google пока не имеет определенного решения того, как будут функционировать веб-страницы без URL-адресов.

Но компания работает над этим еще с 2014 года. Несколько лет назад они экспериментировали с так называемой “функцией подлинности”. Браузер показывал только основное имя домена сайта, чтобы гарантировать подлинность подключения именно к этому домену. Чтобы увидеть полный URL-адрес нужно было нажать на кнопку, которая отвечала за эту функцию.

Позже, Google перешел на другую систему веб-шифрования HTTPS, которая работает в Сhrome и по сей день.

Напомним, URL - это единый указатель интернет-ресурса, который был изобретен как универсальный определитель нахождения в сети одним из создателей Всемирной паутины Тимом Бернерсом-Ли в 1990 году.

Проверяет html код, как заданный с помощью ссылки на страницу, так и просто в виде загруженного файла или скопированного текста. Дает список замечаний с рекомендациями по их исправлению.
http://validator.w3.org/

Проверка css (css валидатор)

Проверяет стили документа или таблицу стилей, расположенную в отдельном файле.
http://jigsaw.w3.org/css-validator/

Проверка лент (feed) RSS и Atom

Проверяет правильность работы фидов RSS и Atom.
http://validator.w3.org/feed/

Проверка орфографии на веб странице

Подсвечивает ошибки на заданной URL странице.
http://webmaster.yandex.ru/spellcheck.xml

Показывает ошибки в тексте, скопированном в проверочное окно.
http://api.yandex.ru/speller/

Проверка структуры веб страницы

Показывает структуру веб страницы. Актуален для проверки html5 документов. Неправильно отображает кириллицу (:.
http://gsnedders.html5.org/outliner/

Проверка контента на уникальность

В бесплатной версии показывает до 10 страниц в инете с частичным совпадением текста с вашей страницей.
http://www.copyscape.com

Проверяет уникальность текста введенного в форму. В бесплатной версии возможно ожидание результатов.
http://www.miratools.ru/Promo.aspx

Проверяет уникальность как введенного текста, так и текста по заданному URL, показывает уровень уникальности в процентах. Имеет собственный алгоритм проверки.
http://content-watch.ru

Десктопные программы для проверки уникальности контента от бирж копирайтеров. Работают долго, но качественно. Etxt имеет версии для трех операционных систем: Mac, Linux и Windows.
http://advego.ru/plagiatus/
http://www.etxt.ru/antiplagiat/

Показывает сайты с похожим содержанием и схожей внутренней структурой.
http://similarsites.com

Проверка cms сайта

Проверяет наличие признаков наиболее известных cms.
http://2ip.ru/cms/

Проверка юзабилити сайта для различных групп пользователей

Проверка доступности с мобильных устройств

Оценивает возможность просмотра страницы с мобильных устройств и выдает список замечаний и ошибок.
http://validator.w3.org/mobile/

Проверка удобства сайта для телефонов от Гугл.
https://www.google.com/webmasters/tools/mobile-friendly/

Показывает скорость загрузки сайта на мобильных устройствах.
https://testmysite.withgoogle.com/intl/ru-ru

Сайт эмулятор выхода с мобильного телефона. Показывает сайт глазами выбранной модели.
http://www.mobilephoneemulator.com/

Проверка доступности для людей с ограниченными возможностями

Сервис проверки страницы для слабовидящих. Доступен on-linе и в виде плагина для Firefox.
http://wave.webaim.org/

Просмотр содержания сайта глазами поискового робота

Показывает текст сайта, приближенный к тому, что видит поисковый индексатор.
http://www.seo-browser.com/

Дистрибутив текстового браузер lynx для win32 систем. Перед использованием нужно отредактировать lynx.bat, указав в нем путь к директории с lynx.
http://www.fdisk.com/doslynx/lynxport.htm

Убирает все разметку и показывает текст страницы, мета теги и теги заголовков, число внешних и внутренних ссылок. Показывает превью страницы в google.
http://www.browseo.net

Проверка ссылочной структуры сайта

Проверка битых ссылок

Показывает список исходящих ссылок для URL и проверяет их отклик. Может проверять рекурсирвно, то есть переходить от одного документа к другому самостоятельно.
http://validator.w3.org/checklink

Freeware инструмент для проверки битых ссылок. Для работы нужно установить его на свой компьютер. Рекурсивно сканирует сайт, делает отчеты, может быть полезен для составления карты сайта.
http://home.snafu.de/tilman/xenulink.html

Проверка перелинковки и заголовков страниц

Сканирует до 500 страниц сайта в бесплатной версии. Проверяет число внешних и внутренних ссылок. Выводит информацию о просканированных страницах: вложенность, коды ответа, названия, мета информацию и заголовки.
http://www.screamingfrog.co.uk/seo-spider/

Проверка ссылочной структуры и веса внутренних страниц

Программа сканирует сайт, строит матрицу внутренних ссылок, добавляет внешние (входящие) ссылки с заданных URL и, на основании этих данных, рассчитывает внутренние веса страниц сайта. Программа может быть использована для нахождения внешних (исходящих) ссылок для списка URL страниц сайта.

Проверка кодов ответа сервера, видимости сайта поисковыми роботами, технических характеристик сайта

Проверка HTTP заголовков и ответа сервера, видимости страниц для роботов

Проверяет коды ответа сервера, прогнозирует скорость загрузки страницы в зависимости от объема в байтах ее данных, показывает содержимое html тега head, внутренние и внешние ссылки для страницы, содержимое страницы глазами поискового робота.
http://urivalet.com/

Проверяет коды ответа сервера. Дает возможность проверить редиректы (коды ответа 301, 302), заголовок Last-Modified и др.
http://www.rexswain.com/httpview.html

Показывает объемы и содержимое данных, передаваемых при загрузки страницы.
http://www.websiteoptimization.com/services/analyze/

Проверяет редиректы, использование атрибута canonical, мета теги, некоторые аспекты безопасности сайта. Дает рекомендации по улучшению загрузки страниц.
http://www.seositecheckup.com

Проверка информации о домене и об IP адресе

WHOIS-сервис центра регистрации доменов RU center. Дает информацию по IP адресам и доменам по всему миру. Иногда зависает.
https://www.nic.ru/whois/?wi=1

Служба Whois от РосНИИРОС (RIPN). Дает информацию для доменов в зоне RU и IP адресам из базы RIPE (Европа).
http://www.ripn.net:8080/nic/whois/

Определяет, где у домена хостинг и также показывает IP адрес сайта.
http://www.whoishostingthis.com

Проверка не включен ли IP адрес в черный список для рассылки email.
http://whatismyipaddress.com/blacklist-check
http://ru.smart-ip.net/spam-check/

Проверка MX записей для домена. Проверка SMTP сервера для домена. Проверка IP в черных списках для рассылки.
https://mxtoolbox.com/

Поиск по базе зарегистрированных торговых марок в США.
http://tmsearch.uspto.gov/

Проверка файлов robots.txt

Проверяет доступность для индексации страниц сайта роботом Yandex.
http://webmaster.yandex.ru/robots.xml

Проверяет корректность файла robots.txt.
https://www.websiteplanet.com/webtools/robots-txt

Техосмотр сайта

Мониторинг доступности сайта. Дает возможость подключить один сайт бесплатно с минимальными опциями проверки.
http://www.siteuptime.com

Проверка скорости загрузки сайта. Посылает отчет на email. Имеет платные сервисы мониторинга доступности сайта.
http://webo.in

Проверка скорости загрузки страниц сайта.
http://www.iwebtool.com/speed_test

Проверка индексации и отображения сайта поисковиками

Видимость сайта в поисковиках

Сервис, показывающий ключевые слова для сайта, по которым он находится в ТОП 20 (первой двадцатке) выдачи Google во времени. Данные о поисковом и рекламном трафике.
http://www.semrush.com/

Положение в ТОП50 yandex и Google. Тиц сайта и PR главной страницы, наличие в важных каталогах, видимость в топе по ВЧ запросам.
http://pr-cy.ru/

Проверка банов и уровня доверия к сайту

Проверка трастовости сайта. Сервис, утверждающий, что он измеряет траст для Яндекса (проверить все равно никто не может:).
http://xtool.ru/

Проверка наложения фильтров Панда и Пингвин от Гугл. Сервис позволяет визуально определить падал ли сайт в даты апдейтов Панда и Пингвин.
http://feinternational.com/website-penalty-indicator/

Проверка Page Rank страниц сайта (при копировании URL в инструмент нужно стереть последнюю букву а потом написать заново).
http://www.prchecker.net/

Проверка истории развития сайта

Показывает историю развития сайта и дает возможность посмотреть скриншоты старых страниц.
http://www.archive.org/web/web.php

История позиций сайта в ТОП Google (ключевые фразы, страницы, заголовки), показателей PR, ТИЦ, Alexa Rank, числа обратных ссылок для популярных сайтов.
http://SavedHistory.com

SEO плагины для проверки сайтов

SEO Doctor - дополнение к Firefox. Показывает ссылки на странице и дает удобный интерфейс к различным SEO сервисам.
http://www.prelovac.com/vladimir/browser-addons/seo-doctor/

SeoQuake - дополнение к Firefox. Показывает важнейшие характериситки сайта: ТИЦ, PR, обратные ссылки, Alexa Rank. Работает как с выдачей Google, так и с выдачей Yandex. Дает возможность быстрого анализа конкурентов.
http://www.seoquake.com/

IEContextHTML - дополнение к Internet Explorer. Проверяет индексацию ссылок в Yandex и Google, показывает список внешних и внутренних ссылок, позволяет импортировать данные c веб страниц.

Видимость сайта в посковиках в зависимосит от места расположения

Обновляемый список бесплатных прокси серверов, в том числе и Российских.
http://www.checker.freeproxy.ru/checker/last_checked_proxies.php
http://spys.ru/proxys/ru/

Анонимный бесплатный прокси с возможностью представиться из трех стран. Работает с поиском Google.
https://hide.me/en/proxy

Эммуляторы поиска Google в разных странах, путем задания параметров поиска.
http://searchlatte.com/
http://isearchfrom.com/

Проверка позиций в Yandex и Google

Сервис дает возможность глубокой проверки (до 500) позиции сайта по регионам в Yandex.

Сетевой анализ сайта, проверка обратных ссылок

Анализ обратных ссылок

Осуществляет анализ ссылочной массы сайта, формирует срезы по различным критериям: тип ссылки, анкоры, страницы. Показывает вес обратных ссылок. Сервис доступен только для зарегистрированных пользователей.
http://ahrefs.com

Проверка наличая обратных ссылок на сайт

Проверяет наличие бэклинков на сайт в предложенном списке URL (до 100 страниц).
http://webmasters.ru/tools/tracker

Проверка популярности сайта в социальных медиа

PlusOneChecker

Показывает число лайков (plusone) в Google+. Можно вводить сразу список проверяемых URl.
http://www.plusonechecker.net/

Facebook Graph API Explorer

SharedCount

Показывает популярность в Твиттере, Google+, Facebook, LinkedIn, Pinterest, Delicious, StumbleUpon, Diggs.
http://sharedcount.com

Cool Social

Показывает популярность первой страницы сайта в Твиттере, Google+, Facebook, Delicious, StumbleUpon. Для российских сайтов данные иногда неверные.
http://www.coolsocial.net

Social-Popularity

Social Crawlytics

Сканирует сайт и формирует отчеты "Shares" основных зарубежных социальных сетей для этих страниц. Регистрирует пользователей через акаунт в твиттере. Отчеты можно видеть уже на следующий день.
https://socialcrawlytics.com

Проверка сайта на вирусы

Dr.Web

Проверяет заданный URL на подозрительный код, показывает подгружаемые скрипты и результаты их проверки.
http://vms.drweb.com/online/

Virus Total

Проверяет URL на вирусы 30 сканерами.
https://www.virustotal.com/#url

Alarmer

Система защиты сайта от вирусов. Ежедневно сканирует файлы сайта и присылает отчет об их изменениях по email.



Загрузка...