Отличная работа! Несмотря ни на что, аналитики Mozgovik Research проделали качественную работу в 2025 году👍
Конец года — время задуматься, какие акции могли принести наилучший результат. В этом году хороших акций было не так много, но мне приятно отметить, что многие из по-настоящему качественных идей...
Обновление кредитных рейтингов в ВДО и розничных облигациях
⚪️ПАО «ТрансФин-М» Эксперт РА продлило статус «под наблюдением» по рейтингу кредитоспособности нефинансовой компании, что означает высокую вероятность рейтинговых действий в ближайшее время....
OsData и Тестер. Качаем слепки стаканов и запускаем тестер. Видео.
Сегодня будем учиться скачивать с биржи слепки стаканов и запускать на них тестер.
Видео предназначено для программистов, которые уже умеют писать роботов на OsEngine или только планируют это...
Это такая же история что с amp или тубо страницами, я не проверял есть ли они, но лучше запариться за низ.
В заголовках необходимо указать все доступные адреса для одной страницы контента
Смотри пример тут https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls?hl=ru
А ссылки да, разные, как сказывается на поисковиках не знаю.
Сейчас отдает каноничную страницу с учетом хвоста из меток
link rel=«canonical» href="smart-lab.ru/q/shares_fundamental/?utm_source=main_menu"
А надо сделать так: link rel=«canonical» href="smart-lab.ru/q/shares_fundamental"
UPD. Движок сайта для безопасности теги обработал, вставил без "<> и https"
Наверно можно куки использовать, но с этим я плохо знаком.
У меня есть оч. способный SEO, но дорогой.
Однако на основной работе полностью не загружен.
Думаю, на удаленке можно договориться за разумный прайс.
Сигналь, если че
С уважением
Это была моя последняя работа в этой жизни) Ну или крайняя (чтобы не зарекаться). Я ушел в 2018, он остался ))) Подробности — в моем сраче с Криптокритикой.
С уважением
А так да, дубли плохо.
yandex.ru/support/webmaster/robot-workings/double.html
Как найти дубли страниц с незначащими GET-параметрами
webmaster.yandex.ru/blog/kak-nayti-dubli-stranits-s-neznachaschimi-get-parametrami
Зачем отслеживать дубли
1) Скорость обхода. Когда на сайте много дублей, роботы тратят больше времени и ресурсов на их обход, вместо того, чтобы обходить ценный контент. А значит, ценные страницы вашего сайта будут медленнее попадать в поиск.
2) Неуправляемость. Так как поисковой робот произвольно выбирает, какой из дублей показывать в поиске, то на поиск могут попасть не те страницы, которые вам нужны.
3) Влияние на поиск. Если незначащие параметры не добавлены в clean-param, робот может обходить эти страницы и считать их разными, не объединяя их в поиске. Тогда поисковый робот будет получать разные неагрегируемые сигналы по каждой из них. Если бы все сигналы получала одна страница, то она имела бы шансы показываться выше в поиске.
4) Нагрузка на сайт. Лишний обход роботом также дает нагрузку на сайт.
Я бы эти utm просто убрал.
clean-param поисковик Google не поддерживает.
support.google.com/webmasters/thread/68778044/%D0%94%D1%83%D0%B1%D0%BB%D0%B8-sa-x-ved-%D0%B8-clean-param-%D0%B2-robots?hl=ru
1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
2. Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
smart-lab.ru/forum/sectors/