Вебсимка Вебсимка
   

Гугл не наказывает за дубли

16.02.2015

Для успешного ранжирования большинство оптимизаторов прикладывают максимум усилий по "уникализации" сайта. Это означает, что мы стремимся не только создать оригинальный контент, защитив его от несанкционированного копирования и распространения, но и внутри самого сайта каждая страница в идеале должна быть уникальной, как в части текстового контента, так и в части мета-тегов и SEO-параметров.

На последнее уходит очень много времени, а результат зачастую неощутим или малоощутим. Можно утверждать, что таких факторов, как например, "уникальность title" больше тысячи, и от разработчиков поисковых систем редко можно слышать раскрывающую работу алогоритма информацию. В этой связи оптимизаторам приходится работать по всем предполагаемым факторам, чтобы нивелировать негативное влияние каждого из них. Надо думать, что это занимает крайне продолжительное время, особенно, если на сайте имеется большое количество страниц.

Google: мы не наказываем за дубли

ЗаголовокОднако сегодня на чуточку оптимизаторам стало легче: John Mueller, специалист по работе с веб-мастерами Google, заявил что дубли мета-тегов не являются проблемой, за которую Google может понижать сайт в выдаче.

"То, что мы увидели, что где-то title отличается, вовсе не означает, что этот сайт более качественный и должен быть выше сайта с одинаковыми мета-тегами или title. Есть куда более важная информация, на которую и Гугл, и пользователи обращают внимание, и эта информация находится явно не в маленьком кусочке веб-страницы." // Источник: English Google Webmaster Central office-hours hangout

Данное высказывание несколько упрощает работу, хотя бы в части продвижения сайта под Google. Возможно, когда-нибудь мы услышим подобное и от представителей Яндекса.




Подписывайся на обновления

Узнай первым самое важное из области интернета


Нажимая на кнопку, вы даете согласие на обработку своих данных по правилам конфиденциальности.