Приветствую Вас ГостьЧетверг, 16.05.2024, 13:25

программы и драйвера


Каталог статей

Главная » Статьи » Мои статьи

Создание robots.txt под uCoz
Еще раз всем здраствуйте
В этой статье я расскажу как правильно заточить документ robots.txt под поисковые системы и как быстро попасть в индекс поисковых систем.
Ну начнем:
1. Создание robots.txt под uCoz

Рассмотрим основные теги этого документа:
Disallow: это дистрибутив запрещающий индексацию страницы или каталога.
Allow: это дистрибутив разрешающий индексацию страницы или каталога.
Таким образом мы можем запретить индексацию любого каталога,но разрешить индексацию некоторых страниц тогоже каталога.
Возьмем для примера модуль Каталог файлов
Каталог модуля расположен поадресу /load/
Если поставить:
Disallow: /load/

То каталог файлов у нас индексироватся не будет,но если нам нужны 2-3 странички этого каталога из всех (к примеру всего 10)
То в robots.txt пишем следущие строки:
Allow: /load/адрес страницы

Внимание: строки с разрешением индексации страницы должны быть выше чем строка с запрещением индекса каталога.
Пример:

Allow: /load/адрес страницы
Allow: /load/адрес страницы
Allow: /load/адрес страницы
Disallow: /load/

Таким образом у нас будет индексироватся только те страницы которые указаны под тегом Allow
Теперь разберемся с тегом User-agent
это тег открывающий информацию о боте для которого будут доступны настройки всего того что ниже.
Тег User-agent ставится в самом верху и после него указывается имя бота для проверки
например:
User-agent: uBot

Но если вы хотите указать для каждого бота поисковой системы,либо каталога сайтов и т.п. один и тот же дистрибутив, то ставим следущий тег:
User-agent: *

И ниже перечисляем запреты и открытия разных страниц и каталогов.
Итак основная работа сделана и уже можно использовать этот документ для всех ботов, но если вы хотите лучшей индексации сайта и лучшего отоброжения его поисковым системам, лучше вписать еще такие строки:

Sitemap:http://www.имя.домен/sitemap.xml
Sitemap:http://www.имя.домен/sitemap-forum.xml

Это адресация на стандартные карты сайта системы uCoz, если у вас есть свой карта сайта, впишите свою.
Далее тоже не маловажно указать основной домен сайта.
(Если у вас стандартный домен от uCoz то вам ничего делать ненадо)
Если же вы прикрепили какой то домен к сайту, к примеру возьмем net.ru
Он будет отображаться поисковикам как зеркальный домен и будет хуже индексироватся чем основной.
Поэтому многие ошибочно говорят что net.ru и другие подобные домены хуже индексируются чем стандартные от uCoz.
Для того что бы поисковый бот определил прикрепленный домен как основной нам надо прописать в robots.txt такую строчку:
Host: www.имя-сайта.домен
Пример:
Host: www.web-mir.net.ru

Также есть еще много всего,но это особо ненужно и уже по этой инструкции можно составить отличный robots.txt для поисковиков.
Пример готового robots.txt для uCoz:

User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search

Host: www.web-mir.net.ru
Sitemap:http://www.web-mir.net.ru/sitemap.xml
Sitemap:http://www.web-mir.net.ru/sitemap-forum.xml

Так с robots.txt разобрались.

2.Теперь разберемся со скоростью индексации сайта созданного в системе uCoz.

На uCoz есть такая штука под название Карантин
Подробнее о нем можно узнать тут: http://forum.ucoz.ru/forum/21-13447-1
Ну а теперь и я расскажу все что знаю про этот карантин:
После создания каждого сайта у него есть некоторые ограничения, одним из них является закрипление стандартного robots.txt
и его к сожалению никак нельзя отредактировать... если залить свой в корень сайта, тоже останется стандартный.
Казалось бы ну и что в том, что он стандартный?
Да ничего хорошего, в нем прописана такая строка:
User-agent: *
Disallow: /

Эта строка запрещает всем поисковым системам индексировать ваш сайт.
Итак как же снять карантин?
есть 3 способа
1) По каким то не умным действиям администрация uCoz снимает карантин если сайт хорошо посещается. Но они не подумали как он будет хорошо посещатся если он закрыт для индекса.
2) Подождать отведенное время карантину (1-2 месяца)
3) Приобрести Премиум аккаунт (любой).
Вот в админке видем такой тариф:
Базовый ($3.09)
Если его приобрести, у нас автоматически снимается карантин и мы можем спокойно заявить поисковикам о нашем сайте.
Спасибо за внимание :)
Автор: ser15
Источник: http://web-mir.net.ru/
Категория: Мои статьи | Добавил: bob (04.07.2011)
Просмотров: 1678 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Категории раздела
Мои статьи [40]
книги [43]
Поиск
Наш опрос
Откуда вам удобно скачать ?

Результат опроса Результаты
Все опросы нашего сайта Архив опросов
Всего ответов: 159
Обсудить на форуме
Форма входа
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0
Яндекс.Метрика