Страницы

Поиск по вопросам

понедельник, 9 декабря 2019 г.

Динамические url . Как лучше скрывать их?

#php #seo


Доброго времени. 
Сайт имеет статичные страницы и перелинкован весь статичными . Но, если запрашивать
динамические адреса в ручную, то также открываются те же страницы .

Хотелось бы уточнить пару вопросов на тему, что лучше :


делать редиректы на статические ?
при запросе динамических юрлов  выдавать 404?
использовать каноникалы?
закрывать от индексации ?
ваши варианты

    


Ответы

Ответ 1



Во главу угла нужно ставить удобство пользователя. Согласитесь, неприятно когда вы переходите по одной ссылке, а вас перебрасывают на другую. Принцип наименьшего удивления в действии. Учет удобства пользователя никак не мешает указать поисковиками какая же страница является исходной. Этот тег поддерживает Google и учитывает Яндекс. Все это подразумевает что вы не можете совсем устранить возможность ручного выбора вот этих динамических страниц, например, потому что они уже где-то пролинкованы в сети. Если можете, то лучше чтобы их не было вовсе.

Ответ 2



Самое лучшее из предложенных вами вариантов -- это 301вый редирект (браузеры пользователей проходят по ним без проблем, поисковики редиректы не сохраняют в свой индекс). Наихудший из вариантов -- это выдавать 404 ошибку, потому что вам нужно будет следить за диапазонами IP-адресов поисковиков и юзер-агентами, а обычным пользователям показывать страницу. Вероятность ошибки очень большая, однако опытных клоакеров это никогда не останавливало... как и то, что у поисковиков всегда есть купленные диапазоны, которые они стараются не афишировать и юзер-агенты прикидываются обычными пользователями. Закрытие от индексации через robots.txt - это способ раскрытия информации, а не сокрытия, его даже рассматривать нечего. Канонические url - это неплохой вариант... для хорошего веб-мастера, который думает о пользователях, а не о поисковиках. Что ещё из того, что вы не предложили можно добавить? Из пришедшего в голову по материалам searchengines.ru -- вы явно не думаете о том, что нужно для динамических страниц выключать метрики и аналитики, а то они "стучат" в поисковики. Как-то так в общих чертах. PS «Я девочка, я не хочу ничего решать, я хочу туфли и платье!» Я не хочу баунти, я согласен на один upvote и шляпу This is Fine :)

Ответ 3



Неплохо было бы написать о каком движке (CMS) идет речь. Если проблема в дублях страниц, когда на одну и ту же страницу ведут несколько url-адресов, то самый просто способ решения правки в robots.txt или rel-canonical (а лучше и то и другое). Встречается у всех популярных движков типа Wordpress, Joomla и подобных. Особенно в старых версиях движков. Для примера, для старых версий Wordpress при и использовании ЧПУ было актуально прописывать: Disallow: */? Disallow: */feed Disallow: /?s= Таким образом мы закрывали от индексации все ненужные url (фид, страницы поиска, динамические url) и оставили только ЧПУ. Если этого не сделать то поисковики проиндексируют кучу мусорных страниц, с дублированным контентом. Вместо реальных 100 страниц сайта будет проиндексировано гораздо больше, что само по себе обесценивает ценность страниц сайта, плодит лишнюю конкуренции между страницами внутри сайта и затрудняет продвижение сайта (например, вместо нужной страницы в поисковиках отображается ее дубль, а на нее нужно купить ссылки либо заказать рекламу, получается все последующие действия будут иметь меньшую отдачу). Для того чтобы убедиться в своей правоте можно зарегистрировать в google-webmaster и посмотреть какие страницы находятся в индексе. В принципе, можно делать 301 редирект для небольших сайтов для полного контроля, либо в рамках многостраничных сайтов для отдельных "прокачанных" и специально продвигаемых страниц.

Ответ 4



по пунктам и в контексте php (есть и другие решения и выбор лучшего определяется критериями, которые в рамках задачи на момент написания ответа не определены): 1) делать редиректы на статические ? 2) при запросе динамических юрлов выдавать 404? решение для обоих пунктов в php это функция header() 3) использовать каноникалы? если есть дублирующие ссылки на одну и ту же страницу то использование rel=canonical - обязательно 4) закрывать от индексации ? реализуется тегами noindex, nofollow Ответ:на сколько я понял для поисковых систем важно чтобы пункты 3 и 4 были выполнены обязательно, а пункты 1 и 2 вы можете реализовывать или нет, на ваше усмотрение.

Комментариев нет:

Отправить комментарий