🥇 Победители в номинации Search Innovation
Google Premium Partner Award

Что такое supplemental results, или сопли Google

Автор: Олег Гаврилюк
Руководитель оптимизаторов
5,00 2 оценки
4 031 5 комментариев

Поисковая система Google непрерывно борется за качество результатов поиска. Основными критериями качества поисковой выдачи являются: релевантность, актуальность, полнота результатов поиска. Если за релевантность отвечают алгоритмы ранжирования, то определение актуальности и полноты — задача алгоритмов сканирования (краулинг) и хранения (индексирования) информации.

При сканировании огромного объема информации в сети поисковая система сталкивается с проблемой ограниченности ресурсов для хранения данных. Одним из инструментов оптимизации базы (индекса) поисковой системы является механизм supplemental results (дополнительный индекс Гугла), который компания Google реализовала в 2003 году .

В дополнительный индекс Гугла попадают низкокачественные документы (страницы), которые не соответствуют критериям качества поисковой системы. За счет отсеивания низкокачественных страниц во второстепенный индекс Гугл оптимизирует объем и качество основного индекса.

Негативное влияние supplemental results

  1. Документы (страницы) с второстепенного индекса не участвуют в ранжировании и, как следствие, не привлекают трафик на сайт.

  2. На общее ранжирование сайта негативно влияет наличие во второстепенном индексе большого количества страниц. Крайне важно, чтобы во второстепенном индексе было как можно меньше страниц.

Причины попадания страниц в supplemental index

Ключевая причина попадания страницы в дополнительный индекс — на странице нет полезного для посетителей контента.

  1. На странице нет уникального контента (контент скопирован с другого источника).

  2. Пустая страница (страница не содержит текстового наполнения/иллюстраций/видео).

  3. Страница содержит дублированный контент в рамках одного сайта (страницы пагинации, версий для печати, неоптимизированные страницы фильтраций).

  4. Страница имеет очень большой уровень вложенности (более 4).

Как определить, что страница находится в дополнительном индексе?

Раньше для обнаружения страниц в дополнительном индексе использовался поисковый запрос формата:

site:site.com -site:site.com/&,

где site.com — домен анализируемого сайта.

Результатом такого запроса был список страниц, который находится во второстепенном индексе.

К сожалению, сейчас данная команда не работает. Единственный способ обнаружить попадание страниц сайта во второстепенный индекс — перейти на последнюю страницу результатов поиска по запросу:

site:site.com,

где site.com — домен анализируемого сайта,

и выявить наличие строки: «Мы скрыли некоторые результаты, которые очень похожи на уже представленные выше».

Как вывести/удалить страницы из второстепенного индекса?

  1. Наполнить страницы уникальным контентом.

  2. Удалить с дополнительного индекса страницы, которые не содержат полезный контент:

а) закрыть страницы от индексации через мета-тег robots;

b) настроить на странице 301 редирект на страницу, содержащую полезный контент;

c) использовать свойство rel=«canonical» для указания страницы с полезным контентом.

  1. Перестроить структуру сайта таким образом, чтобы уровень вложенности страниц был не выше 4-го.

Выполнив указанные действия, вы сократите количество страниц в supplemental index и увеличите объем трафика с поисковых систем.

  • Драго

    прокомкетируйте пожалуйста следуеще если в гугле набрать запрос site:site.com/& , результат существенно оиличается от просто site:site.com значит ето всетаки первый вариант ето все страници которые попали в основной индекс? а не в суплементал ?

  • Для удаления страниц из супла не всегда есть возможность сделать 301, по опыту — работает мета noindex,nofollow — проверено. Robots.txt гугл не хавает, то есть страница останется в индексе, если нет 301 или noindex, nofollow.

  • Страница с фотографиями (страница галереи где только фото) считается полезным контентом?

  • Сейчас у Google есть инструмент удаления страниц из индекса вручную, через панель вебмастера. Ну и конечно же нужно дополнить это Robots.txt регулярками.
    Также для дублирующего контента можно указать каноническую страницу.
    Только представьте, сколько редиректов придется засунуть в .htaccess. Можно конечно по другому прописать эти правила через внешний файл или для каждой страницы отдельно (но этот вариант не для CMS).
    И следуя советам еще вручную пройтись по выдаче и удалить все лишнее.

  • Страница, на которой есть полезный текстовый или графический контент считается полезной.