вторник, 19 мая 2015 г.

Анализ сайта - приоткрываем Альфу и готовим публичную Бету.




Неверные коды ответов сервера, ошибки в скриптах сайта, приводящие к дублям страниц, отсутствие карты сайта, отсутствие robots.txt или некорректные инструкции в robots.txt, битые внешние и внутренние ссылки, битые иллюстрации - ошибки, которые в той или иной мере служат маркером для поисковых систем - сайт имеет признаки плохого качества.

Используйте данные Вебмастера, следуйте советам, анализируйте и улучшайте индексацию  ваших сайтов - это мантра, которую сотрудники Яндекса повторяют от конференции к конференции, обращаясь к вебмастерам и оптимизаторам.

Можно долго размышлять на тему, является ли наличие карты сайта или robots.txt фактором ранжирования, но некорректно составленная карта и robots.txt могут приводить к печальным последствиям. Не все страницы могут быть проиндексированы или, наоборот, может быть открыто для индексации бесконечное количество дубликатов, сессионных переменных и так далее. Поисковые системы могут заменить релевантные страницы их дублями и это, в том числе, может сопровождаться резким падением позиций и снижением поискового трафика.

Анализ сайта

Разрабатывая модуль Анализа сайта, мы, в первую очередь, уделили внимание техническим аспектам поисковой оптимизации. Приятным моментом для нас, как для разработчиков, конечно же служит факт автоматизации поиска таких ошибок. Всё, что может сделать робот, должен делать робот. И наш робот действительно хорошо справился с рутинными операциями.

Сейчас мы проводим закрытое тестирование, и в публичную Бету гарантированно попадёт весь тот отличный функционал, который пока доступен только разработчикам сервиса. Разрабатывать дополнения, улучшения, оптимизировать будем вместе со всеми нашими пользователями.

Карта сайта и robots.txt

Мы уделили особое внимание карте сайта и файлу robots.txt и немного усложнили подготовку к анализу сайта специально для думающих веб-мастеров. Уверены, что и новички оценят такой подход.

Анализ сайта не будет выполнен без карты сайта в принципе. Если вы не знаете, где лежит карта сайта или название файла (может быть переименован), укажите путь к robots.txt. Файл robots.txt, как правило, всегда находится в корневой директории вашего сайта и содержит путь к файлу в качестве параметра директивы Sitemap.

Если вы не уверены в правильности вашей карты, можете выбрать опцию Сгенерировать, и наш робот сгенерирует её за вас или за вашу CMS ;) и будет использовать для анализа сайта.

Если вы не уверены, что ваш robots.txt составлен корректно, мы рекомендуем сгенерировать небольшую карту. Уверены, что даже новичкам не составит труда понять, что в карту сайта попадает значительное количество страниц, которые желательно скрыть от индексации: страницы пагинации, сортировки, поиска, страницы с сессионными переменными, то есть полные дубликаты уже существующих страниц.

Конечно, в идеале, не robots.txt должен обрабатывать некоторые исключения. Например, для закрытия дублей страниц лучше использовать внутренние средства CMS.  Но вы уже можете анализировать сайт с правильно настроенным robots.txt и не ждать, пока разработчики исправят ошибки, выявленные на этапе генерации карты сайта.

Индексация и ссылки

Анализ индексации страниц вашего сайта не покажет количество проиндексированных страниц в той или иной поисковой системе. Такая задача перед разработчиками не стояла.

Но проверить наличие ошибок, которые могут служить препятствием для поисковых роботов можно уже сейчас.

Внутренние и исходящие ссылки проверяются на наличие анкорного текста, текста в title ссылки, учитывается тип ссылки: Текст или Изображение. Робот также умеет определять наличие атрибута rel со значением nofollow и определять "битую" ссылку (ведет на несуществующую страницу).


Изображения и сниппеты

Изображения на страницах проверяются на наличие атрибутов alt и title. Робот также проверит и определит размер изображений и покажет наличие "битых" изображений.

Краткая информация о странице, которую вы можете передать поисковым системам в заголовке страницы (тег title) и описании (мета-тег description), в том числе участвует в формировании сниппета в выдаче поисковой системы. Правильное заполнение этих параметров не только усиливает релевантность ваших страниц, но и прямо влияет на ранжирование.

Анализ длины заголовков, описаний, наличие дублей в тегах теперь полностью автоматизирован.

Мы попытались собрать большинство факторов для анализа, которые может выполнять робот, и тем самым экономить время вебмастеров и оптимизаторов. Модуль, в том числе, готов к масштабированию, а мы, в свою очередь, готовы дополнить, улучшить и расширить текущий функционал другими, не менее полезными, инструментами.

PS Если Дмитрий Севальнев будет читать этот мини-обзор, просьба не сильно волноваться по поводу такого большого количества проблем и замечаний. Всё верно, анализировали сайт замечательной компании http://www.pixelplus.ru/, но пока анализатор в статусе альфы в замечания могут попадать такие незначительные и малозначимые данные как title изображений, а в проблемы - незаполненный атрибут alt.  Возможно пересмотрим политику.

Но вот на дубли некоторых заголовков рекомендуем обратить внимание ;)

PPS Друзья, если вы хотите попробовать анализ сайта до официального релиза (намечен на 1 июня), напишите нам в Твиттер, и мы откроем вам альфу за неделю до публичной беты.