Как закрыть от индексации страницы сортировки и фильтров
Перейти к содержимому

Как закрыть от индексации страницы сортировки и фильтров

  • автор:

Как правильно закрыть Фильтры в Robots.txt

Hello! Вопрос такой. Есть сайт с более чем 40к товаров, в нём само собой есть множество фильтров(выбор по брендам и т.д) пример — . Так вот, нужно ли их закрывать от индексации ? Они влетают в индекс ( Но не вижу от них толку, так как они по сути не нужны и к тому же забирают статический вес страниц. В роботсе поставлен запрет на индексацию, тем не менее это не очень помогает. — http://ravta.ru/robots.txt Спасибо!:)

На сайте с 18.04.2013
8 августа 2013, 08:51
Никитос:
Так вот, нужно ли их закрывать от индексации ?
и да, и нет. Вот поучительная статья на эту тему, друг мой)
На сайте с 29.02.2012
8 августа 2013, 08:56

Что-то я совсем не заметил, что бы фильтры были закрыты от индексации К примеру фильтр на вывод кол-во товаров http://ravta.ru/catalog/elektronika-bytovaya-tekhnika/malaya-bytovaya-tekhnika-dlya-kukhni/myasorubki-i-lomterezki/?count=40 Вот сам фильтр (count=40) — Но я ненашел в robots.txt строки которая бы защищала от индексации такой урл, Disallow: /*count=* К примеру фильтр на вывод товаров от низкой цены к высокой http://ravta.ru/catalog/elektronika-bytovaya-tekhnika/malaya-bytovaya-tekhnika-dlya-kukhni/myasorubki-i-lomterezki/?count=30&sort=price_asc Вот сам фильтр (sort=price_asc) — Disallow: /*sort=* Добавь в robots.txt и тогда страницы будут закрыты, но в таком случае в индексе будет меньше страниц. Чем больше страниц, тем больше у пользователя точек входа.

Кластеризатор ключевых слов (https://seoquick.com.ua/keyword-grouping/) — Группировка 20,000 слов за 1 минуту. Калькулятор качества Title (https://seoquick.com.ua/calculator-title/) — Калькулятор качества заголовков Генератор объявлений Google Ads (https://seoquick.com.ua/adwords-generator/) — Генерируй сотни объявлений

На сайте с 14.05.2013
8 августа 2013, 11:19
amelta:
и да, и нет. Вот поучительная статья на эту тему, друг мой)

Спасибо за статью:):):)

ezon:
Что-то я совсем не заметил, что бы фильтры были закрыты от индексации
К примеру фильтр на вывод кол-во товаров
http://ravta.ru/catalog/elektronika-bytovaya-tekhnika/malaya-bytovaya-tekhnika-dlya-kukhni/myasorubki-i-lomterezki/?count=40
Вот сам фильтр (count=40) — Но я ненашел в robots.txt строки которая бы защищала от индексации такой урл, Disallow: /*count=*
К примеру фильтр на вывод товаров от низкой цены к высокой
http://ravta.ru/catalog/elektronika-bytovaya-tekhnika/malaya-bytovaya-tekhnika-dlya-kukhni/myasorubki-i-lomterezki/?count=30&sort=price_asc
Вот сам фильтр (sort=price_asc) — Disallow: /*sort=*
Добавь в robots.txt и тогда страницы будут закрыты, но в таком случае в индексе будет меньше страниц. Чем больше страниц, тем больше у пользователя точек входа.

Спасибо, но возникает вопрос, зачем эти странички нужны в индексе. они ведь могут только забирать статический вес.

Стоит ли закрывать от индексации страницы сортировки и как правильно это сделать?

Как нужно закрывать и нужно ли закрывать от индексации страницы с параметрами сортировки? Например: сайт.ру/категория?sort=reviews… И еще по висячим узлам: если закрыть страницы от индексации, например корзину, поиск, регистрацию, то стоит ли в ссылках на эти страницы прописать robots nofollow, чтобы им не передавался ссылочный вес? Или он сейчас не так важен?

Ответ

Страницы с параметрами сортировки дублируют содержание основной страницы и не несут в себе уникальной информации для пользователя, поэтому их необходимо закрывать от индексации. Аналогично должны быть закрыты от индексации и страницы корзины, поиска по сайту, регистрации и прочие, так как они не несут смысловой нагрузки для ПС.

Наш опыт показывает, что для закрытия страниц от индексации достаточно прописать соответствующую директиву файле robots.txt (в данном случае Disallow: */?sort=) и указать в атрибуте Canonical страниц сортировки ссылку на основную версию страницы.

Однако, если ваша страница уже находится в индексе и вы хотите ее оттуда исключить, нужно использовать метатег robots. Для этого в разделе страницы прописываем . При этом, данная страница не должна быть закрыта в robots.txt (чтобы робот мог ее обнаружить и исключить).

Важно понимать, что сам факт наличия ссылки означает, что страница-донор теряет ссылочный вес. Атрибут nofollow означает лишь то, что поисковые роботы не будут переходить по ссылкам на странице-акцепторе и что она не получит ссылочный вес. Так как на висячих узлах нет исходящих ссылок и им не нужен ссылочный вес, на них можно использовать атрибут nofollow. Подробнее о том, что ещё необходимо закрывать от индексации на сайте и как правильно это сделать читайте в нашей статье.

Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓

Подписаться на рассылку

  • Как продвигать страницы фильтров, чтобы они не соперничали с основными страницами листингов? Часто слышу, что страницы фильтров каннибализируют запросы основного листинга. Из-за этого долгое время не решаюсь на продвижение таких страниц. Подскажите, как подготовить страницы фильтров к.
  • Как проверить, нужен ли шаблонный текст на страницах фильтров? Есть сайт по продаже недвижимости с умным ЧПУ фильтром. Все страницы (их около 10 000) оптимизированы и имеют уникальный заголовок h1 и метатеги. Встал вопрос.
  • Могли ли проиндексированные некачественные страницы фильтров привести к падению позиций? В robots.txt случайно убрали запрет на индексацию страниц фильтров до 3 уровня. В результате в поиск попало огромное количество новых страниц, частотность у которых в.
  • Как и зачем продвигать сложные страницы фильтров? В вашем последнем кейсе по продвижению завода металлопроката, одним из блоков вы описали работы со сложносочинёнными страницами — страницами созданными двумя или более значениями фильтров.
  • Какие есть способы организации фильтров на продающем сайте? Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число.

Какие страницы надо закрывать от индексации

Из-за особенностей CMS и ошибок, допущенных при разработке сайта, появляются страницы, которые необходимо скрывать от индексации:

  1. С GET-параметрами (фильтрация, сортировка, поиск, сравнение товаров). Такие страницы не уникальны, на них дублируется контент и мета-теги, поэтому они являются некачественными для поисковых систем и их необходимо скрывать от индексации.
  2. Пользовательские: личный кабинет, регистрация, авторизация, оформление заказа. Эти страницы бесполезны для продвижения, так как они никогда не станут источником поискового трафика.
  3. Системные каталоги и файлы.
  4. «Мусорные» страницы сайта.

Какие страницы закрывать от индексации не надо

  1. Иногда на сайте появляются страницы-дубликаты. Например: ошибочное создание дублирующихся категорий, привязка товаров к нескольким категориям и их доступность по различным адресам или выставление дублированной статьи. В таких случаях закрывать от индексации страницы не надо. Необходимо оценить каждую такую страницу: объем трафика, который они принесли, количество внешних ссылок на эти страницы. После анализа данных необходимо настроить 301 редиректы с малоэффективных страниц на эффективные, и удалить первые.
  2. Страницы пагинации в каталоге товаров и прочих разделах, предварительно настроив автоформирование уникальных мета-тегов title, description и keywords.
  3. Страницы смарт-фильтра. Умный фильтр позволит увеличить объем поискового трафика благодаря НЧ запросам. Главное, правильно настроить мета-теги, отдачу 404 ошибки для пустых страниц и карту сайта для полученных страниц смарт-фильтра.

Страницы сортировок и пагинаций

У многих интернет-магазинов возникает подобная ситуация с индексацией неинформативных страниц (сортировок, ряда фильтров), давайте разберемся как правильно действовать в данной ситуации. Ответим на данный вопрос как на приоритетный, так как уверены, что данная проблема волнует многих оптимизаторов.

Страницы постраничной навигации

Пагинацию — не нужно закрывать от индексации. Данный вопрос подробно рассмотрен в ответе на вопрос по скрытию пагинации, где указан оптимальный алгоритм действий.

Коротко: страницы постраничной навигации должны оставаться в индексе, иметь свой уникальный тег title, meta-теги и текстовое описание (при необходимости). Если на страницы не ведут какие-либо НЧ-запросы, то текстовое описание может быть пустым.

Страницы сортировок

Рекомендованная сортировка по умолчанию от Яндекса: по возрастанию цены. Но, как мы знаем, для повышения конверсии на листингах часто стоит производить сортировку товаров/предложений по степени из привлекательности, которая может выражаться как комбинация таких факторов как:

  • CTR товара на листинге (необходимо использовать CTR по умолчанию для новых товаров, пример представлен ниже);
  • показатели конверсии карточки (аналогично, необходимо рассчитать средний показатель конверсии для категории);
  • маржинальности (выручки от продажи в рублях или у.е.);
  • иногда, сезонных и прочих факторов;

Пример вычисления CTR для товара с использованием среднего значения

Ссылки на прочие сортировки рекомендуется скрывать с помощью AJAX и закрыть от индексации посредством атрибута rel=»canonical» тега (делать их неканоническими, а страницу с основной сортировкой — канонической).

Страницы изменения числа товаров на листинге

Для страниц с выводом отличного от дефолтного числа товаров на листинге «?show=60» (или отличного шаблона для вывода «?display=block») требуется использовать аналогичное правило: скрывать ссылки на них и закрыть от индексации посредством атрибута rel=»canonical» тега .

Страницы фильтрации

Если на листинге предусмотрена возможность фильтрации выводимых товаров по ряду свойств, то здесь рекомендуется следующее:

  • Настроить ЧПУ для страниц фильтров первого, второго уровня.
  • Осуществлять переход пользователей на данные URL с ЧПУ для набора ими поведенческих факторов.
  • Прочие фильтрации — закрыть от индексации настройкой атрибута rel=»canonical» тега .
  • На базе популярных настроек фильтров рекомендуется организовать систему тегирования на сайте. Далее привлекать целевой поисковый трафик за счёт их оптимизации под НЧ и, иногда даже, СЧ-запросы.

Общее правило остаётся неизменным: все страницы доступные к индексации должны иметь уникальные тег title, meta-теги и текстовое описание.

Как видите, для разных страниц оптимально использовать различный подход для оптимизации привлекаемого трафика.

Удачи вам в проведении самостоятельной технической оптимизации сайта и привлечению максимального поискового трафика на страницы интернет-магазина.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *