Тимофей Мартынов
Тимофей Мартынов личный блог
20 августа 2021, 16:51

SEO-вопрос

SEO-вопрос: в своё время для анализа переходов внутри сайта, мы обвешали свои внутренние ссылки utm-метками. Потом внезапно осознали, что страницы с utm-меткой, это отдельные страницы вообще говоря, и это может негативно влиять на ранжирование страниц в поисковых системах.Внимание, вопрос: действительно ли это так? Например

https://smart-lab.ru/q/shares_fundamental/?utm_source=main_menu
https://smart-lab.ru/q/shares_fundamental/?utm_source=quotes


Так лучше не делать ссылки внутри себя?Как тогда лучше считать откуда сколько переходят внутри сайта?
28 Комментариев
  • Константин Лебедев
    20 августа 2021, 16:56

    Это такая же история что с amp или тубо страницами, я не проверял есть ли они, но лучше запариться за низ.
    В заголовках необходимо указать все доступные адреса для одной страницы контента 

    Смотри пример тут https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls?hl=ru 

  • Сберегатель
    20 августа 2021, 16:58
    убери, пожалуйста, рекламу в мобильном приложении, которая в самом верху. Нажимаешь на новость, а из-за этой епаной рекламы смещение происходит и открываешь совсем другую новость.
    • Чужой
      20 августа 2021, 17:07
      Отец русской демократии, это все равно что сказать «Тимофей, сократи себе пожалуйста доход на 100 000 руб в месяц, мне так хочется»
      • Иван Егоров
        20 августа 2021, 17:40
        Чужой, ну может чтобы контент не скакал надо сразу зарезервировать место под рекламу и пусть себе грузится когда хочет…
      • Сберегатель
        20 августа 2021, 21:43
        Чужой, ну ведь не на рекламу же я тыкаю, а на пост, который не собирался смотреть, еще и увеличивая количество просмотров этого поста. По уеб2нски организовано и подбешивает иногда.
  • Так и не нашёл сео готового за ужин отдаться? Кто то предлагал же по скайпу проклнсультрировать
  • И кто поменял шрифт?)
      • Тимофей Мартынов, хз у меня в телефоне в хроме шрифты поменялись на сайте, точно никто не копался в стилях сегодня? вот сейчас на компе  — всё без изменений
  • Станислав Потемкин
    20 августа 2021, 17:04
    $_SERVER['HTTP_REFERER'] с фильтром по доменному имени чем-то не устраивает?
    А ссылки да, разные, как сказывается на поисковиках не знаю.
  • Ну да, кука и рефереры
  • КриптоУлитка
    20 августа 2021, 17:13
    Как минимум надо изменить тег link в коде.
    Сейчас отдает каноничную страницу с учетом хвоста из меток

    link rel=«canonical» href="smart-lab.ru/q/shares_fundamental/?utm_source=main_menu"

    А надо сделать так: link rel=«canonical» href="smart-lab.ru/q/shares_fundamental"

    UPD. Движок сайта для безопасности теги обработал, вставил без "<> и https"
  • Плюс у тебя всякие метрики стоят, они тоже всё палят
  • EUGENICS
    20 августа 2021, 17:17
    Нужно сделать запрет индексации в robots.txt для таких страниц с утм метками
    • КриптоУлитка
      20 августа 2021, 17:19
      EUGENICS, это тоже можно сделать. Но каноникал тоже нужно верный установить. Кто-нибудь поделится ссылкой с ютм в соцсетях и вес уйдет на страницу с метками.
      • EUGENICS
        20 августа 2021, 17:27
        КриптоУлитка, да, согласен
  • 3Qu
    20 августа 2021, 17:18
    Есть же в HTML события. Так, по событию отсылать инфу на сайт, а ссылка сама по себе.
    Наверно можно куки использовать, но с этим я плохо знаком.
  • Мальчик buybuy
    20 августа 2021, 17:33
    Бро!

    У меня есть оч. способный SEO, но дорогой.
    Однако на основной работе полностью не загружен.
    Думаю, на удаленке можно договориться за разумный прайс.

    Сигналь, если че

    С уважением
      • Мальчик buybuy
        20 августа 2021, 17:41
        Тимофей Мартынов, ты же все читаешь) На работе, ессно

        Это была моя последняя работа в этой жизни) Ну или крайняя (чтобы не зарекаться). Я ушел в 2018, он остался ))) Подробности — в моем сраче с Криптокритикой.

        С уважением
  • Раиль
    20 августа 2021, 17:39
    Обрезаем utm метки или на уровне настроек сайта htaccess (или скриптами, но по уму в htaccess) или на уровне сервера (например, ngnix)
  • Oleg
    20 августа 2021, 17:44
    Robots.txt надо поправить и canonical
  • ruru42
    21 августа 2021, 23:58
    Рел каноникал для каждой страницы решает этот вопрос.

    А так да, дубли плохо.
  • master1
    22 августа 2021, 10:29
    Дублирование страниц
    yandex.ru/support/webmaster/robot-workings/double.html


    Как найти дубли страниц с незначащими GET-параметрами

    webmaster.yandex.ru/blog/kak-nayti-dubli-stranits-s-neznachaschimi-get-parametrami

    Зачем отслеживать дубли

    1) Скорость обхода. Когда на сайте много дублей, роботы тратят больше времени и ресурсов на их обход, вместо того, чтобы обходить ценный контент. А значит, ценные страницы вашего сайта будут медленнее попадать в поиск.

    2) Неуправляемость. Так как поисковой робот произвольно выбирает, какой из дублей показывать в поиске, то на поиск могут попасть не те страницы, которые вам нужны.

    3) Влияние на поиск. Если незначащие параметры не добавлены в clean-param, робот может обходить эти страницы и считать их разными, не объединяя их в поиске. Тогда поисковый робот будет получать разные неагрегируемые сигналы по каждой из них. Если бы все сигналы получала одна страница, то она имела бы шансы показываться выше в поиске.

    4) Нагрузка на сайт. Лишний обход роботом также дает нагрузку на сайт.

    Я бы эти utm просто убрал.

    clean-param поисковик Google не поддерживает.

    support.google.com/webmasters/thread/68778044/%D0%94%D1%83%D0%B1%D0%BB%D0%B8-sa-x-ved-%D0%B8-clean-param-%D0%B2-robots?hl=ru
  • master1
    22 августа 2021, 10:32
    Как оставить в поиске нужную страницу

    1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.

    2. Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.

    3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
  • master1
    27 августа 2021, 18:48
    А вот title, не везде индивидуальные.
    smart-lab.ru/forum/sectors/

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн