Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров)
Yandex.Webmaster сообщает о дублях страниц и рекомендует использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице.
Примеры страниц и дублирующих их страниц с незначащими GET-параметрами:
https://drupal.ru/user/login https://drupal.ru/user/login?destination=node/98019%23comment-form
https://drupal.ru/user/register https://drupal.ru/user/register?destination=node/36072%23comment-form
Предлагаемое решение
Добавить в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
Код для robots.txt
User-agent: Yandex
Disallow:
Clean-param: destination
Подробнее: https://yandex.ru/support/webmaster/robot-workings/clean-param.html