Регистрация Войти
Вход на сайт

SEO оптимизация форума LogicBoard

SEO оптимизация форума LogicBoard

Форум LogicBoard может устанавливаться как модуль для DLE, так и как отдельная CMS. Стоимость лицензии данного форума доступна, популярность его растёт, а значит и растёт спрос на его внутреннюю оптимизацию и модификации скрипта.
Года три назад мы начинали работать с внутренней оптимизацией DLE, решая проблемы с дублированием контента посредством управления индексированием при помощи мета-тега "robots". Параллельно с нами MSW(0-web.ru) решил написать хак запрещающий индексирование страниц ошибок в DLE. Его реализация оказалась более простой, поэтому в итоге мы взяли её за основу. Позже был выпущен модуль Metarobots для DLE. А ещё позже реализацией использования данного мета-тега занялся Алаев(alaev.info), но это уже к делу не относится.

Поисковые роботы Google строгие значения в robots.txt расценивают только как рекомендации, а не запрет. Поэтому значение мета-тега robots возросло.

Цитата:
Файл robots.txt необходим только в том случае, если на вашем сайте есть содержание, которое не следует включать в индекс поисковых систем. Если вы хотите, чтобы поисковые системы включали в свои индексы все содержание вашего сайта, файл robots.txt (даже пустой) не требуется.

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.

Чтобы использовать файл robots.txt, необходимо иметь доступ к корневому каталогу вашего домена (в случае сомнений обратитесь к поставщику услуг веб-хостинга). Если у вас нет доступа к корневому каталогу домена, вы можете ограничить доступ с помощью метатега robots.
Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex или x-robots-tag. По мере сканирования страниц, робот Googlebot обнаружит метатег noindex и не станет отображать страницу в индексе. HTTP-заголовок x-robots-tag рекомендуется использовать, чтобы исключить из индекса файлы, формат которых отличается от HTML (например, изображения или другие типы документов).

источник: support.google.com


Сейчас я начал использовать форум LogicBoard на своих проектах и решил заняться постепенной его оптимизацией. И так начнём.

Мета-тег "robots" используется в LogicBoard, но совершенно на всех страницах форума имеет значение all, т.е. его наличие в скрипте в том виде в котором он есть бесполезно.

Попробуем его использовать с пользой!

Установка:

# Подключаем мета-тег "robots" в Центр управления
Открыть файл:
/control_center/template/template.class.php
после:
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />


вставить:
<meta name="robots" content="noindex, nofollow">


# Подключаем вывод мета-тега "robots"
Открыть файл:
/index.php
после:
if (!$meta_info_forum_keys) $meta_info_forum_keys = $meta_info_text;


вставить:
if(!$robots_noindex) $robots_noindex = "<meta name=\"robots\" content=\"all\" />";


Там же
после:
$tpl->tags( '{meta_keyword}', meta_info ($meta_info_forum_keys, "keyword", $meta_info_forum) );


вставить:
$tpl->tags( '{meta_robots}', $robots_noindex );


# Обратная связь
Открыть файл:
/components/modules/feedback.php
после:
$meta_info_other = $lang_m_feedback['location'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Восстановление пароля
Открыть файл:
/components/modules/lostpass.php
после:
$meta_info_other = $lang_m_lostpass['location'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Регистрация
Открыть файл:
/components/modules/registration.php
после:
$meta_info_other = $lang_m_registration['location'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Правила
Открыть файл:
/components/modules/rules.php
после:
$meta_info_other = $lang_m_rules['location'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Список модераторов/администраторов форума
Открыть файл:
/components/modules/users/moderators.php
после:
$meta_info_other = $lang_m_u_moderators['meta_info'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Список online
Открыть файл:
/components/modules/users/online.php
после:
$meta_info_other = $lang_m_u_online['meta_info'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Репутация
Сам по себе модуль не оптимизирован и создаёт множество внутренних ссылок, закрытие их в robots.txt не решает проблему потери веса, вот если бы они были с хеш-тегом, было бы не плохо.
Открыть файл:
/components/modules/users/reputation_history.php
после:
$meta_info_other = str_replace("{name}", $row['name'], $lang_m_u_reputation_history['meta_info']);


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Список активных и последних тем, а также всех тем пользователя
Открыть файл:
/components/modules/board/topics_out.php
после:
$_SESSION['back_link_board'] = $_SERVER['REQUEST_URI'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, follow\">";


# Список последних ответов, а также всех сообщений пользователя
Открыть файл:
/components/modules/board/posts_out.php
после:
$_SESSION['back_link_board'] = $_SERVER['REQUEST_URI'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, follow\">";


# Страница поиска
Открыть файл:
/components/modules/search.php
после:
$meta_info_other = $lang_m_search['location'];


вставить:
$robots_noindex = "<meta name=\"robots\" content=\"noindex, nofollow\">";


# Выводим мета-тег robots в шаблон
Открыть файл:
/templates/Standart/global.tpl
найти:
<meta name="robots" content="all" />


и заменить на:
{meta_robots}


# Правим адрес sitemap
Открыть файл:
/.htaccess
после:
RewriteRule ^rss.xml$ components/modules/rss.php [L]


вставить:
RewriteRule ^sitemap.xml$ uploads/sitemap.xml [L]


Теперь можно в конце файла robots.txt прописать значение Sitemap

Также можно закрыть от индексирования ссылки в шаблоне global.tpl на:
- Правила форума
- Очистить Cookies
- Отметить все темы и форумы прочитанными
- Обратная связь
добавив к ним атрибут rel="nofollow"

По поводу значения мета-тега robots "noindex, follow" - не индексировать, но учитывать и переходить по ссылкам многие спорят, что оно не работает или бессмысленено, я с этим не согласен, дубли уходят из индекса, а индексация, например, архивных и глубокой вложенности страниц улучшается и это подтверждается экспериментами с сайтами на DLE.

Спасибо за внимание буду работать дальше.

Автор статьи: Yeti(myseogid.ru)
Категория: Скрипты
Актуальные версии, стоимость и возможности сервисов и программ уточняйте на сайтах их авторов.
comments powered by Disqus
» » SEO оптимизация форума LogicBoard