dr-mart

SEO-вопрос

SEO-вопрос: в своё время для анализа переходов внутри сайта, мы обвешали свои внутренние ссылки utm-метками. Потом внезапно осознали, что страницы с utm-меткой, это отдельные страницы вообще говоря, и это может негативно влиять на ранжирование страниц в поисковых системах.Внимание, вопрос: действительно ли это так? Например

https://smart-lab.ru/q/shares_fundamental/?utm_source=main_menu
https://smart-lab.ru/q/shares_fundamental/?utm_source=quotes


Так лучше не делать ссылки внутри себя?Как тогда лучше считать откуда сколько переходят внутри сайта?
  • Ключевые слова:
  • SEO
28 комментариев

Это такая же история что с amp или тубо страницами, я не проверял есть ли они, но лучше запариться за низ.
В заголовках необходимо указать все доступные адреса для одной страницы контента 

Смотри пример тут https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls?hl=ru 

убери, пожалуйста, рекламу в мобильном приложении, которая в самом верху. Нажимаешь на новость, а из-за этой епаной рекламы смещение происходит и открываешь совсем другую новость.
avatar
Отец русской демократии, это все равно что сказать «Тимофей, сократи себе пожалуйста доход на 100 000 руб в месяц, мне так хочется»
avatar
Чужой, )))
Чужой, ну может чтобы контент не скакал надо сразу зарезервировать место под рекламу и пусть себе грузится когда хочет…
avatar
Чужой, ну ведь не на рекламу же я тыкаю, а на пост, который не собирался смотреть, еще и увеличивая количество просмотров этого поста. По уеб2нски организовано и подбешивает иногда.
avatar
Так и не нашёл сео готового за ужин отдаться? Кто то предлагал же по скайпу проклнсультрировать
И кто поменял шрифт?)
Центурио́н, где шрифт поменял?
Тимофей Мартынов, хз у меня в телефоне в хроме шрифты поменялись на сайте, точно никто не копался в стилях сегодня? вот сейчас на компе  — всё без изменений
$_SERVER['HTTP_REFERER'] с фильтром по доменному имени чем-то не устраивает?
А ссылки да, разные, как сказывается на поисковиках не знаю.
Ну да, кука и рефереры
Как минимум надо изменить тег link в коде.
Сейчас отдает каноничную страницу с учетом хвоста из меток

link rel=«canonical» href="smart-lab.ru/q/shares_fundamental/?utm_source=main_menu"

А надо сделать так: link rel=«canonical» href="smart-lab.ru/q/shares_fundamental"

UPD. Движок сайта для безопасности теги обработал, вставил без "<> и https"
avatar
КриптоУлитка, да, спасибо.
Плюс у тебя всякие метрики стоят, они тоже всё палят
Нужно сделать запрет индексации в robots.txt для таких страниц с утм метками
avatar
EUGENICS, это тоже можно сделать. Но каноникал тоже нужно верный установить. Кто-нибудь поделится ссылкой с ютм в соцсетях и вес уйдет на страницу с метками.
avatar
КриптоУлитка, да, согласен
avatar
Есть же в HTML события. Так, по событию отсылать инфу на сайт, а ссылка сама по себе.
Наверно можно куки использовать, но с этим я плохо знаком.
avatar
Бро!

У меня есть оч. способный SEO, но дорогой.
Однако на основной работе полностью не загружен.
Думаю, на удаленке можно договориться за разумный прайс.

Сигналь, если че

С уважением
avatar
Мальчик Buybuy, где взял?:)
Тимофей Мартынов, ты же все читаешь) На работе, ессно

Это была моя последняя работа в этой жизни) Ну или крайняя (чтобы не зарекаться). Я ушел в 2018, он остался ))) Подробности — в моем сраче с Криптокритикой.

С уважением
avatar
Обрезаем utm метки или на уровне настроек сайта htaccess (или скриптами, но по уму в htaccess) или на уровне сервера (например, ngnix)
avatar
Robots.txt надо поправить и canonical
avatar
Рел каноникал для каждой страницы решает этот вопрос.

А так да, дубли плохо.
avatar
Дублирование страниц
yandex.ru/support/webmaster/robot-workings/double.html


Как найти дубли страниц с незначащими GET-параметрами

webmaster.yandex.ru/blog/kak-nayti-dubli-stranits-s-neznachaschimi-get-parametrami

Зачем отслеживать дубли

1) Скорость обхода. Когда на сайте много дублей, роботы тратят больше времени и ресурсов на их обход, вместо того, чтобы обходить ценный контент. А значит, ценные страницы вашего сайта будут медленнее попадать в поиск.

2) Неуправляемость. Так как поисковой робот произвольно выбирает, какой из дублей показывать в поиске, то на поиск могут попасть не те страницы, которые вам нужны.

3) Влияние на поиск. Если незначащие параметры не добавлены в clean-param, робот может обходить эти страницы и считать их разными, не объединяя их в поиске. Тогда поисковый робот будет получать разные неагрегируемые сигналы по каждой из них. Если бы все сигналы получала одна страница, то она имела бы шансы показываться выше в поиске.

4) Нагрузка на сайт. Лишний обход роботом также дает нагрузку на сайт.

Я бы эти utm просто убрал.

clean-param поисковик Google не поддерживает.

support.google.com/webmasters/thread/68778044/%D0%94%D1%83%D0%B1%D0%BB%D0%B8-sa-x-ved-%D0%B8-clean-param-%D0%B2-robots?hl=ru
avatar
Как оставить в поиске нужную страницу

1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.

2. Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.

3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
avatar
А вот title, не везде индивидуальные.
smart-lab.ru/forum/sectors/
avatar

теги блога Тимофей Мартынов

....все тэги



UPDONW
Новый дизайн