Доллар как бенефициар нефтяного шока: почему рынок снова идет в защиту
Во вторник укрепление доллара выглядело не просто реакцией на рост глобальной тревожности, а результатом наложения сразу факторов. Первый — классический спрос на защитный актив на фоне риска...
Brent по $90, Urals по $61, а золото по $6000: к чему может привести конфликт на Ближнем Востоке
Из-за известных военных событий вокруг Ирана в начале недели произошел скачок цен на нефть на 8,5%: стоимость Brent достигла $80/барр. – самый высокий уровень с января 2025 года. Активные...
Какие инвестидеи открывает война в Иране: видеообзор аналитика Т-Инвестиций
Какие инвестидеи открывает война в Иране: видеообзор аналитика Т-Инвестиций
Новая война на Ближнем Востоке может пойти по разным сценариям — от этого зависит, какие активы и как будут...
Хэдхантер. Ситуация на рынке труда в феврале. Мы в … трудном положении
Вышла статистика рынка труда за февраль 2026 года, которую Хедхантер публикует ежемесячно, что же там интересного: Динамика hh.индекса с 2022 года:
Это такая же история что с amp или тубо страницами, я не проверял есть ли они, но лучше запариться за низ.
В заголовках необходимо указать все доступные адреса для одной страницы контента
Смотри пример тут https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls?hl=ru
А ссылки да, разные, как сказывается на поисковиках не знаю.
Сейчас отдает каноничную страницу с учетом хвоста из меток
link rel=«canonical» href="smart-lab.ru/q/shares_fundamental/?utm_source=main_menu"
А надо сделать так: link rel=«canonical» href="smart-lab.ru/q/shares_fundamental"
UPD. Движок сайта для безопасности теги обработал, вставил без "<> и https"
Наверно можно куки использовать, но с этим я плохо знаком.
У меня есть оч. способный SEO, но дорогой.
Однако на основной работе полностью не загружен.
Думаю, на удаленке можно договориться за разумный прайс.
Сигналь, если че
С уважением
Это была моя последняя работа в этой жизни) Ну или крайняя (чтобы не зарекаться). Я ушел в 2018, он остался ))) Подробности — в моем сраче с Криптокритикой.
С уважением
А так да, дубли плохо.
yandex.ru/support/webmaster/robot-workings/double.html
Как найти дубли страниц с незначащими GET-параметрами
webmaster.yandex.ru/blog/kak-nayti-dubli-stranits-s-neznachaschimi-get-parametrami
Зачем отслеживать дубли
1) Скорость обхода. Когда на сайте много дублей, роботы тратят больше времени и ресурсов на их обход, вместо того, чтобы обходить ценный контент. А значит, ценные страницы вашего сайта будут медленнее попадать в поиск.
2) Неуправляемость. Так как поисковой робот произвольно выбирает, какой из дублей показывать в поиске, то на поиск могут попасть не те страницы, которые вам нужны.
3) Влияние на поиск. Если незначащие параметры не добавлены в clean-param, робот может обходить эти страницы и считать их разными, не объединяя их в поиске. Тогда поисковый робот будет получать разные неагрегируемые сигналы по каждой из них. Если бы все сигналы получала одна страница, то она имела бы шансы показываться выше в поиске.
4) Нагрузка на сайт. Лишний обход роботом также дает нагрузку на сайт.
Я бы эти utm просто убрал.
clean-param поисковик Google не поддерживает.
support.google.com/webmasters/thread/68778044/%D0%94%D1%83%D0%B1%D0%BB%D0%B8-sa-x-ved-%D0%B8-clean-param-%D0%B2-robots?hl=ru
1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
2. Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
smart-lab.ru/forum/sectors/