Заработок в сети-создание и раскрутка сайтов

Все виды заработка в сети - в интернет хожу на работу

Реальный заработок в интернете Joomla Clean-param параметр robots.txt для Яндекса или как удалить дубли страниц

Clean-param параметр robots.txt для Яндекса или как удалить дубли страниц вида - utm_campaign и utm_medium utm_source.

Clean-param параметр robots.txt для Яндекса или как удалить дубли страниц вида - utm_campaign и utm_medium  utm_source.

Привет посетители блога Net-Rabota.ru, сегодня продолжу рассказ связанных с дублированием страниц, а конкретно расскажу про параметр Clean-param для robots.txt созданный поисковой системой Яндекс специально для борьбы с дублями страниц вида utm_campaign и utm_medium и utm_source и т.д.

Ознакомьтесь с сериалом статей, посвященным дублям страниц:

Часть 1 - "Борьба с дублями главной страницы на сайтовом движке joomla".

Часть 2 - "Дубли страниц сайта домена с www и без".

Часть 3 - "Как узнать проиндексированные страницы Яндексом и поиск дублей среди них".

Часть 4 - "Борьба с дублями страниц сайта на joomla (страницы с окончанием index.php) и избавление от различных не нужных страниц (закрытие от индексации поисковиками, профильных, поисковых страниц) при помощи robots.txt".

Часть 5 - "Проиндексированные страницы google"

Часть 6 - "Дубли Joomla с разными категориями и id материала"

Часть 7 - "Избавляемся от дублей страниц при помощи файла .htaccess"


Частенько встречается проблема попадания в индекс яндекса страниц дублей, путем добавления к url адесу страницы вашего сайта разных параметров, проверить все проиндексированные страницы вашего сайта можно в панели инструментов вебмастера от Яндекса.

Допустим Google Analytics, при анализе сайтов, преобразует страницы путем добавления параметров: utm_campaign и utm_medium и  utm_source, теперь допустим, что эти страницы какимто загадочным путем попали в индекс яндекса, даже может быть какойто добрый человек специально добавляет такие страницы в аддурилку яндекса, а яндекс слепо индексирует эти страницы.

Лично на моем примере! Совсем недавно в индексе яндекса стали появляться, очень много дублей вида:

https://Net-Rabota.ru/joomla/vse-dlya-nachinayushhego-vebmastera/vstroennyj-sef-v-joomla-avtomaticheskoe-sozdanie-chpu-cheloveko-ponyatnye-urly?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed:+net-rabota/bbIU+(заработок+в+сети)

https://Net-Rabota.ru/joomla/dubli-joomla-s-raznymi-kategoriyami-i-id-materiala?utm_source=twitterfeed&utm_medium=twitter&utm_campaign=Feed:+net-rabota/bbIU+(заработок+в+сети)

https://Net-Rabota.ru/novie-vidi-zarabotka/zarabotok-na-fajloobmennike-fajlmashina/?utm_source=twitterfeed&utm_medium=twitter&utm_campaign=Net-Rabota.ru&utm_content=%D0%B7%D0%B0%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%
BE%D0%BA%2C%D1%80%D0%B0%D1%81%D0%BA%D1%80%D1%83%D1%82%D0%BA%
D0%B0%2Cjoomla

Как видите, в этих дублях страниц присутствует добавления к url - utm_campaign и utm_medium и  utm_source.

Каким путем яндекс видит и индексирует, эти дубли, я так и не понял, но сразу нашел решение этой проблемы при помощи параметра Clean-param.

Clean-param.

Clean-param - это параметр для файла robots.txt, создан специально поисковой системой яндекс, для того, чтобы указать какие страницы нужно игнорировать к индексации.

Я долго искал такое решение, и вот наконец, нашел параметр Clean-param, который дает возможность запретить к индексации яндексом ссылки, с разными добавлениями к url, не только, utm_campaign и utm_medium и  utm_source, но и других.

И так, про составление правильного robots.txt я писал в статье: «улучшаем robots.txt», в дополнение к правильному robots.txt, можно добавить параметр Clean-param, для запрета к индексации не нужных мусорных страниц или страниц дублей, при условии что они уже попали в индекс яндекса.
Допустим это может выглядеть так:

User-agent: Yandex


Clean-param: utm_source *
Clean-param: utm_medium *
Clean-param: utm_campaign *


Ознакомитесь со следующими объявлениями:

Рекомендую также ознакомиться со следующими статьями:

Похожие статьи:
  • Счетчик Яндекс.Метрика — регистрация, получение кода счетчика и установка на Joomla и WordPress. Привет всем посетителям блога Net-Rabota.ru, сегодня я расскажу как зарегистрировать, получить код счетчика Яндекс Метрика, и установить его на Joomla и WordPress. В начале статьи сразу скажу, не нужно устанавливать счетчик Яндекс. Метрика себе на сайт, если на нем много отказов. Яндекс при помощи счетчика Яндекс.Метрика, будет собирать статистику поведения посетителей у вас на сайте, и …
    ', 400);" onmouseout="hidettip();">Счетчик Яндекс.Метрика — регистрация, получение кода счетчика и установка н…
  • Проверка доступности сайта с Яндекс метрика. Статья 3. Статья 1. Проверка доступности сайта Статья 2. Проверка доступности сайта с сервисом uptimerobot Привет вебмастера зашедшие на блог Net-Rabota.ru, продолжаю сериал статей про проверку доступности сайта, и сегодня я обьясняю как проверить доступности сайта с помощью яндекс метрика. Я думаю многие из вас слышали, что такое яндекс метрика, для тех кто не знает это очень полезный счетчик посещаемости для сайта. В дальнейшем я нап…
    ', 400);" onmouseout="hidettip();">Проверка доступности сайта с Яндекс метрика
  • Кнопки социальных сетей для сайта - как установить кнопки от яндекса. Привет уважаемый читатель блога о заработке в сети, сегодня я хочу рассказать вам об одном из способов размещения кнопок социальных сетей у себя на сайте. Кнопки социальных сетей для сайта очень важны, в статье «Бесплатная раскрутка сайта на автомате при помощи кнопок социальных сетей и кнопок социальных закладок» я писал о важности иметь у себя на сайте кнопки социальных сетей. Благодаря кнопкам социальных сетей …
    ', 400);" onmouseout="hidettip();">Кнопки социальных сетей для сайта - как установить кнопки от яндекса.
  • Битые ссылки на сайте - поиск битых ссылок в панелях инструментов для вебмастеров Яндекса и удаление не нужных страниц и ссылок с индекса Яндекса. Часть 3 Приветствую вебмастеров которые зашли на блог Net-Rabota.ru, сегодня я продолжу сериюстатей о битых ссылках (не работающие ссылки, которые отдают ошибку 404), и конкретно рассмотрим  поиск битых ссылок в панелях инструментов для вебмастеров Яндекса и как в дальнейшем удалить не нужные страницы и битые ссылки с индекса Яндекса. В преды…
    ', 400);" onmouseout="hidettip();">Битые ссылки на сайте - поиск битых ссылок в панелях инструментов для вебма…
  • Избавляемся от дублей страниц при помощи файла .htaccess Часть 1 - "Борьба с дублями главной страницы на сайтовом движке joomla". Часть 2 - "Дубли страниц сайта домена с www и без, joomla не причем или как склеить домен с www и без при помощи директивы Host и 301 редиректа (переадресаци)". Часть 3 - "Как узнать проиндексированные страницы Яндексом и поиск дублей среди них". Часть 4 - "Борьба с дублями страниц сайта на joomla (страницы с окончанием index.php) и избавление от различных не н…
    ', 400);" onmouseout="hidettip();">Избавляемся от дублей страниц при помощи файла .htaccess
  • Борьба с дублями страниц сайта на joomla (страницы с окончанием index.php) и избавление от различных не нужных страниц (закрытие от индексации поисковиками, профильных, поисковых страниц) при помощи robots.txt – статья 4. Часть 1 - "Борьба с дублями главной страницы на сайтовом движке joomla". Часть 2 - "Дубли страниц сайта домена с www и без". Часть 3 - "Как узнать проиндексированные страницы Яндексом и поиск среди них дублей при помощи панели вебмастеров Яндекса" Часть 5 - "Проиндексиро…
    ', 400);" onmouseout="hidettip();">Борьба с дублями страниц сайта на joomla (страницы с окончанием index.php) …
  • Как узнать проиндексированные страницы Яндексом и поиск среди них дублей при помощи панели вебмастеров Яндекса - часть 3. Часть 1 - "Борьба с дублями главной страницы на сайтовом движке joomla". Часть 2 - "Дубли страниц сайта домена с www и без". Часть 4 - "Борьба с дублями страниц сайта на joomla (страницы с окончанием index.php) и избавление от различных не нужных страниц (закрытие от индексации поисковиками, профильных, поисковых страниц) при помощи robots.txt" Часть 5 - "Прои…
    ', 400);" onmouseout="hidettip();">Как узнать проиндексированные страницы Яндексом и поиск среди них дублей пр…
  • Улучшаем robots.txt - создание правильного файла robots.txt для Joomla, WordPress, добавляем в robots.txt директиву Host для Яндекса. Привет дорогие читатели сайта net-rabota.ru, в данной статье мы поговорим о правильном составлении файла robots.txt, этот файл играет очень важную роль, для правильной, быстрой индексации вашего проекта. Для раскрутки  вашего основного проекта очень важно как индексируется данный проект и поэтому нужно знать правила написания robots.txt. Если в файле robots.txt…
    ', 400);" onmouseout="hidettip();">улучшаем robots.txt
  • Система контекстной рекламы Яндекс.Директ. Яндекс.Директ - одна из крупных систем контекстной рекламы русском интернете. Единственным достойным соперником ей в данный момент является только Бегун. Конечно же любой пользователь сети интернет знает поисковую систему Yandex, и наверное видел контекстную реклама Янекс-Директа. Раньше Директ размещал рекламу только на страницах собственного поисковика, но сейчас приглашает к партнерству владельцев хороших сайтов. А требования к сайтам предьявля…
    ', 400);" onmouseout="hidettip();">Яндекс.Директ

 


Введите ваш email:


Добавить комментарий


Обновить

РАЗДЕЛЫ

Webnet-rabota.ru

RSS на E-MAIL

Введите ваш email:

ПОДПИСАТЬСЯ НА RSS



ПОСЛЕДНИЕ КОММЕНТАРИИ

© 2008-2011 Net-Rabota.ru – заработок в сети, seo, личный опыт. Все права защищены. Полное или частичное использование материалов без согласия редакции или без прямой ссылки на блог Net-Rabota.ru запрещено и наказывается.