Перейти к содержимому


Дубли Страниц


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 104

#61 singleseo

singleseo

    Новичок

  • Пользователи
  • Pip
  • 9 сообщений

Отправлено 03 Август 2017 - 18:17

по опыту скажу, что из ссылок товара надо убирать всякие приписки типа ?from ?mod_id , т.к. у вас со страниц категорий идут ссылки на товары именно с этими приписками, хотя поисковикам вы "говорите" с помощью canonical, что эти страницы не нужны им. В результате поисковики "не дают вес" вашим нужным адресам (т.к. на них нет настоящих ссылок и переходов внутри сайта), в итоге вы проигрываете в ранжировании конкурентам.

#62 Minna

Minna

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 148 сообщений

Отправлено 03 Август 2017 - 20:49

Просмотр сообщенияsingleseo (03 Август 2017 - 18:17) писал:

по опыту скажу, что из ссылок товара надо убирать всякие приписки типа ?from ?mod_id , т.к. у вас со страниц категорий идут ссылки на товары именно с этими приписками, хотя поисковикам вы "говорите" с помощью canonical, что эти страницы не нужны им. В результате поисковики "не дают вес" вашим нужным адресам (т.к. на них нет настоящих ссылок и переходов внутри сайта), в итоге вы проигрываете в ранжировании конкурентам.
Не совсем поняла вас, надо убирать или не надо?
Но ведь с помощью canonical мы говорим поисковикам, что это предпочтительный адрес, не запрещая обходить другие ссылки. Так что я считаю, что вес сохраняется.
А у вас какой опыт относительно подобной ситуации?

#63 singleseo

singleseo

    Новичок

  • Пользователи
  • Pip
  • 9 сообщений

Отправлено 11 Август 2017 - 14:54

Просмотр сообщенияMinna (03 Август 2017 - 20:49) писал:

Не совсем поняла вас, надо убирать или не надо?
Но ведь с помощью canonical мы говорим поисковикам, что это предпочтительный адрес, не запрещая обходить другие ссылки. Так что я считаю, что вес сохраняется.
А у вас какой опыт относительно подобной ситуации?

Однозначно надо убирать.

И да, поисковикам мы говорим какая страница основная, но фактически переходы реальных посетителей происходят на "не основные" страницы,  т.е. весь поведенческий фактор сохраняется для "не основной" страницы, которая не участвует в ранжировании.

По опыту: сайты двигаю давно - скоро 10 лет в сео отмечу)

#64 krijovnikmichail

krijovnikmichail

    Новичок

  • Пользователи
  • Pip
  • 3 сообщений

Отправлено 25 Декабрь 2017 - 18:41

Каноникал, вебмастера (удалить url), проверьте htcacess, прогоните в Labrika -  в техническом аудите проверьте количество дублей

#65 grappp

grappp

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 298 сообщений
  • ГородСанет-Петербург

Отправлено 03 Март 2018 - 22:52

Здравствуйте!

Стали сильно падать позиции в поиске. Озадачился разумеется данной проблемой и выяснили, что Яндекс "обиделся" на кучу дублей. И из-за этого понижает основные страницы.

Страницы типа:

?&page=3
?form[filter][price][max]=24000&form[filter][price][min]=3450&page=4
&page=7?&page=5
?goods_view_type=2&page=5
&yclid=5813177220211508866?page=13
?goods_search_field_id=1&per_page=100&page=4

Прошу помощи разобраться с данной проблемой.
Как мне кажется нужен грамотно составленный robots.txt

Заранее спасибо.

#66 grappp

grappp

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 298 сообщений
  • ГородСанет-Петербург

Отправлено 03 Март 2018 - 23:48

Я вот так сделал:

User-agent: *
Disallow: /cart
Disallow: /order
Disallow: /user
Disallow: /search
Disallow: /compare
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ?form%5Bfilter%5D%5Battr%5D%5B2061031%5D%5B6177493%5D=1&form%5Bfilter%5D%5Battr%5D%5B2061031%5D%5B7340935%5D=1&page=5
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ?page=25
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ&page=2
Disallow: *?form*
Disallow: *?only_body=*
Disallow: *?*
Disallow: *&page=
Disallow: */?page=
Disallow: */?goods_search_field_id=
Disallow: *=&page=*
Disallow: *?page=*
Disallow: *?&page=*
Disallow: *?goods_view_type=*
Disallow: *?goods_search_field_id=*
Disallow: *&yclid=*
Host: https://сайт.ru
Sitemap: https://сайт.ru/sitemap

Подскажите, пожалуйста, это правильно?

#67 Stasya

Stasya

    Активный участник

  • Модератоpы
  • 4 007 сообщений

Отправлено 14 Март 2018 - 13:44

Просмотр сообщенияgrappp (03 Март 2018 - 23:48) писал:

Я вот так сделал:

User-agent: *
Disallow: /cart
Disallow: /order
Disallow: /user
Disallow: /search
Disallow: /compare
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ?form%5Bfilter%5D%5Battr%5D%5B2061031%5D%5B6177493%5D=1&form%5Bfilter%5D%5Battr%5D%5B2061031%5D%5B7340935%5D=1&page=5
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ?page=25
Disallow: /catalog/НАЗВАНИЕ_КАТЕГОРИИ&page=2
Disallow: *?form*
Disallow: *?only_body=*
Disallow: *?*
Disallow: *&page=
Disallow: */?page=
Disallow: */?goods_search_field_id=
Disallow: *=&page=*
Disallow: *?page=*
Disallow: *?&page=*
Disallow: *?goods_view_type=*
Disallow: *?goods_search_field_id=*
Disallow: *&yclid=*
Host: https://сайт.ru
Sitemap: https://сайт.ru/sitemap

Подскажите, пожалуйста, это правильно?
Здравствуйте. Это конечно выход из положения, но вот такая запись Disallow: *?page=* запретит к индексации все не первые страницы навигации каталога.

#68 grappp

grappp

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 298 сообщений
  • ГородСанет-Петербург

Отправлено 14 Март 2018 - 18:33

Просмотр сообщенияStasya (14 Март 2018 - 13:44) писал:

Здравствуйте. Это конечно выход из положения, но вот такая запись Disallow: *?page=* запретит к индексации все не первые страницы навигации каталога.

Но вы же  ничего не можете предложить! И даже не хотите признавать проблему. Если так не сделать, то появляется куча вот таких страниц в индексе:

https://site.ru/cata...in]=7300&page=2
https://site.ru/cata...АТАЛОГА?&page=2

Из-за которых яндекс понижает в поиске основные страницы. Мы из-за этого на такое дно упали. А вы все ничего не делаете с правильной настройкой пагинации.

#69 support 2.0

support 2.0

    Активный участник

  • Модераторы
  • 4 950 сообщений

Отправлено 20 Март 2018 - 10:54

Просмотр сообщенияgrappp (14 Март 2018 - 18:33) писал:

Но вы же  ничего не можете предложить! И даже не хотите признавать проблему. Если так не сделать, то появляется куча вот таких страниц в индексе:

https://site.ru/cata...in]=7300&page=2
https://site.ru/cata...АТАЛОГА?&page=2

Из-за которых яндекс понижает в поиске основные страницы. Мы из-за этого на такое дно упали. А вы все ничего не делаете с правильной настройкой пагинации.
Здравствуйте, если поисковой робот решил проиндесировать данные страницы не смотря на запрет в sitemap или в robots.txt, значит он посчитал их уникальными, отличными от других страниц каталога сайта. В нашей платформе прописаны ограничения на индексацию страницы избранных, лк, поиска, корзины, дублей страниц и прочих. Однако робот не смотря на запрет может посмотреть содержимое этих сайтов. Если он посчитает, что эта страница нужна в поиске, то он ее все равно там разместит. Также если на той странице высокая посещаемость, то также поисковик будет заинтересован в том, чтобы ее разместить. Если на странице стоит тег canonical, то таким образом мы ставим ограничение и сообщаем поисковику, что данную страницу индексировать не нужно. Возможно, Вы увидели список всех этих страниц в таблице проиндексированных страниц вашего сайта. Уже потом из этого списка яндекс размещает те, на которые не стоит никакого запрета индексации. По вашему сайту в поиске 12тыс. страниц. Это довольно хороший результат для сайта. Если ваш сайт яндекс бы "не полюбил", а т.е. попал бы сайт под фильтр из-за дублирующихся страниц разрешенных для индексации, то кол-во страниц в поисковике было в разы меньше. В списке проиндексированных ссылок в поисковике не нашла запрещенных страниц.

#70 trueseo

trueseo

    Новичок

  • Пользователи
  • Pip
  • 5 сообщений
  • ГородОдесса

Отправлено 20 Март 2018 - 17:55

Просмотр сообщенияwild_mind (08 Апрель 2011 - 11:40) писал:

Подскажите, пожалуйста, как справляться с дублями страниц. Создал товары, которые надо поместить в несколько категорий(для облегчения поиска). Яша проиндексировал, в результате, у меня по 7 дублей товара. Насколько я знаю, подобное явно негативно повлияет на продвижение Изображение

1. Не меняйте урлы, когда добавляете товар в категорию.
2. Поставьте rel="canonical" со неосновных товаров. Т.е, у вас будет один товар, который будет продвигаться и участвовать в поиске, а с остальных будет рел-каноникал стоят. Яндекс и Гугл его хорошо воспринимает.
3. Или еще проще. Сделайте все похожие товары на одном урле. Например, у вас есть карточка товара, на ней есть выбор товара по цвет, например. При клике на товар определенного товара у вас происходит перезагрузка страницы, но без изменения урла.
Таким образом, у вас один урл для карточки товара, который оптимизирован и продвигается.
И дублей нет

#71 grappp

grappp

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 298 сообщений
  • ГородСанет-Петербург

Отправлено 20 Март 2018 - 19:28

Просмотр сообщенияsupport 2.0 (20 Март 2018 - 10:54) писал:

Здравствуйте, если поисковой робот решил проиндесировать данные страницы не смотря на запрет в sitemap или в robots.txt, значит он посчитал их уникальными, отличными от других страниц каталога сайта. В нашей платформе прописаны ограничения на индексацию страницы избранных, лк, поиска, корзины, дублей страниц и прочих. Однако робот не смотря на запрет может посмотреть содержимое этих сайтов. Если он посчитает, что эта страница нужна в поиске, то он ее все равно там разместит. Также если на той странице высокая посещаемость, то также поисковик будет заинтересован в том, чтобы ее разместить. Если на странице стоит тег canonical, то таким образом мы ставим ограничение и сообщаем поисковику, что данную страницу индексировать не нужно. Возможно, Вы увидели список всех этих страниц в таблице проиндексированных страниц вашего сайта. Уже потом из этого списка яндекс размещает те, на которые не стоит никакого запрета индексации. По вашему сайту в поиске 12тыс. страниц. Это довольно хороший результат для сайта. Если ваш сайт яндекс бы "не полюбил", а т.е. попал бы сайт под фильтр из-за дублирующихся страниц разрешенных для индексации, то кол-во страниц в поисковике было в разы меньше. В списке проиндексированных ссылок в поисковике не нашла запрещенных страниц.

Так, а знаете почему Вы их не нашли? Потому что их яндекс уже исключил из поиска благодаря новому роботсу (я там все запретил). А было знаете сколько страниц? Больше 30000. И все дубли. И позиции у меня просели так, что даже уши свернулись в трубочку. Яндекс сразу написал, что позиции упали из-за дублей.
В движке явно какая-то бага.

#72 Sharlex

Sharlex

    Продвинутый пользователь

  • Пользователи
  • PipPipPip
  • 166 сообщений

Отправлено 21 Март 2018 - 08:07

Ну баг движка сайта уже известный и выявленный. Большинству новичков он в принципе не страшен, они появляются на 2 недели и исчезают, но те, кто умудряются тут остаться начинают испытывать его на себе...

https://forum.storel...ии/#entry273961

#73 support 2.0

support 2.0

    Активный участник

  • Модераторы
  • 4 950 сообщений

Отправлено 21 Март 2018 - 15:13

Просмотр сообщенияSharlex (21 Март 2018 - 08:07) писал:

Ну баг движка сайта уже известный и выявленный. Большинству новичков он в принципе не страшен, они появляются на 2 недели и исчезают, но те, кто умудряются тут остаться начинают испытывать его на себе...

https://forum.storel...ии/#entry273961
Никакого бага движка нет! У платформы несколько тысяч интернет-магазинов и в том числе, есть достаточно крупные и с хорошей индексации в поисковой выдаче. Если возникает у пользователей какая-то ситуация с падением позиций в поисковой выдаче, то зачастую это из-за того, что они сами начинают редактировать файл robots.txt или загружают свой sitemap.

#74 support 2.0

support 2.0

    Активный участник

  • Модераторы
  • 4 950 сообщений

Отправлено 21 Март 2018 - 15:24

Просмотр сообщенияgrappp (20 Март 2018 - 19:28) писал:

Так, а знаете почему Вы их не нашли? Потому что их яндекс уже исключил из поиска благодаря новому роботсу (я там все запретил). А было знаете сколько страниц? Больше 30000. И все дубли. И позиции у меня просели так, что даже уши свернулись в трубочку. Яндекс сразу написал, что позиции упали из-за дублей.
В движке явно какая-то бага.
Посмотрела Ваш файл robots.txt. Я бы не советовала так делать, т.к. это ограничивает индексацию и страниц каталога. Вы прописали слишком много ограничений, не будут индексироваться в том числе необходимые страницы интернет-магазина. Страниц категорий в поиске скорее всего не будет. Все же уточню, что наш файл изначально прописан верно и на всех необходимых страницах уже стоит тег canonical.

#75 grappp

grappp

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 298 сообщений
  • ГородСанет-Петербург

Отправлено 21 Март 2018 - 18:39

Просмотр сообщенияsupport 2.0 (21 Март 2018 - 15:24) писал:

Посмотрела Ваш файл robots.txt. Я бы не советовала так делать, т.к. это ограничивает индексацию и страниц каталога. Вы прописали слишком много ограничений, не будут индексироваться в том числе необходимые страницы интернет-магазина. Страниц категорий в поиске скорее всего не будет. Все же уточню, что наш файл изначально прописан верно и на всех необходимых страницах уже стоит тег canonical.

Хорошо, как тогда быть?
Если с вашим роботс индексируется всякий мусор, типа:


Цитата


Вот, что с этим делать?

#76 status321

status321

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 445 сообщений

Отправлено 20 Август 2021 - 07:53

Доброе утро.Яндекс выявил КРИТИЧЕСКИЕ ошибки (дубли) и это связано с mod_id. На вашем сайте некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров).Рекомендует использовать директиву Clean-param в robots.txt Что это и как исправить?

#77 Ирина345

Ирина345

    Активный участник

  • Модераторы
  • 5 709 сообщений

Отправлено 20 Август 2021 - 08:19

Просмотр сообщенияstatus321 (20 Август 2021 - 07:53) писал:

Доброе утро.Яндекс выявил КРИТИЧЕСКИЕ ошибки (дубли) и это связано с mod_id. На вашем сайте некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров).Рекомендует использовать директиву Clean-param в robots.txt Что это и как исправить?
Здравствуйте,
Чтобы убрать критическую ошибку связанную с Get-параметром ?from=

зайдите в раздел Настройки-->Основные -->Ссылки и установит галочку в поле:

" Отключить передачу навигационной информации в ссылках вида «?from=ab34» "

Далее убрать критическую ошибку связанную с Get-параметром ?mod_id= зайдите в раздел Сайт-->Robots.txt и найдите:

# Не индексировать страницу добавления товаров в избранное

Disallow: /favorites

после него вставьте:

# Не индексировать разные модификации товара

Disallow: /*?mod_id=*


#78 status321

status321

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 445 сообщений

Отправлено 20 Август 2021 - 08:50

Спасибо.Давно отключил передачу навигационной информации в ссылках вида «?from=ab34
Добавлю: # Не индексировать разные модификации товара
Disallow: /*?mod_id=*
Посмотрим на результат.Отпишусь.

#79 Alex-2

Alex-2

    Новичок

  • Пользователи
  • Pip
  • 6 сообщений

Отправлено 20 Август 2021 - 09:17

Добрый день! Еще две проблемы. Яндекс индексирует ненужные или несуществующие URL:
?goods_view_type=2 (обычно с пометкой неканоническая, но иногда в поиске выводит именно ее). Как избавиться от проблемы или вообще убрать такой вывод товаров?
?&page=1 и ?&page=2 и так далее с неполными/пустыми листингами товаров (в вебмастере с разными пометками Дубль, Неканоническая, Канонический адрес не указан) и в итоге выкидывает весь каталог из ранжирования. Какой способ решения проблемы самый эффективный?

#80 status321

status321

    Активный участник

  • Пользователи
  • PipPipPipPip
  • 445 сообщений

Отправлено 20 Август 2021 - 09:26

Поддерживаю.




Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных