
Продолжение ответа на вопрос: Возможно ли продвижение сайта с нулевым бюджетом и, если да, то как это реализовать на практике?
Теперь мы займёмся выявлением и устранением основных технических ошибок сайта.
Выявление и устранение основных технических ошибок
5. Файл robots.txt
Robots.txt — это файл, в котором указаны параметры для индексации сайта. Необходимо, чтобы файл robots.txt был составлен правильно. Проверить это можно с помощью специального сервиса от Яндекс. Файл должен содержать несколько обязательных директив, корректно составлен и загружен в корень сайта.
6. XML-карта сайта
С помощью sitemap.xml мы сообщаем поисковой системе о том, какие страницы вашего ресурса необходимо проиндексировать и как часто они обновляются. Подробно о том, как создать sitemap и каким требованиям она должна отвечать, написано здесь.
7. 301 редирект домена без www на домен с www (или наоборот)
Для поисковых систем домен с www и без www – это два абсолютно разных сайта. Для того чтобы показать им, что это один сайт, чтобы они индексировали и ранжировали его как единое целое, необходимо поставить 301 редирект с второстепенного домена на основной (SEO-оптимизаторы называют его главное зеркало). Как это сделать?
Яндекс. Заходим в Помощь вебмастеру и выбираем пункт «Сообщить о новом сайте»:
Вводим название сайта с www и без www. Если возникнет вот такое сообщение (см. ниже), то введенный домен не является главным.
Google. Вбиваем в строку поиска «site:домен вашего сайта с www и без www» и смотрим, где больше проиндексировано страниц:
О том, как сделать 301 редирект с домена с www на домен без www (или наоборот), подробно и очень доходчиво написано здесь. В случае, если поисковые системы считают главными разные версии сайта, необходимо посмотреть, откуда идет больше трафика и выбрать ту, которая более важна для продвижения вашего бизнеса.
P.S. После настройки редиректа не забудьте прописать директиву в файл robots.txt. Host: www.site.ru (с www или без www соответственно).

Главное зеркало нашего сайта
8. Дубли главной страницы
Дублирование ссылок на одну и ту же страницу сайта не приветствуется поисковиками. Поэтому, если у вашей главной страницы есть несколько дублей (например, http://www.site.ru/, http://www.site.ru/index.html и http://www.site.ru/index.php), от них нужно срочно избавиться. Для этого снова воспользуемся 301 редиректом. Действия точно такие же, как и в предыдущем пункте, только немного меняется код.

Код, который позволит вам избавиться от /index.php

Код, который позволит вам избавиться от /index.html
9. Дублированный контент
Чтобы найти дублированный контент, воспользуемся бесплатной программой Xenu. Скачиваем по ссылке, устанавливаем и запускаем. После этого нажимаем File – Check URL, вбиваем домен своего сайта и жмем ОК. После того как приложение просканирует ваш сайт, выбираем сортировку по Title и смотрим, какие заголовки повторяются.
10. Тег noindex
Тег noindex необходим, чтобы помочь поисковому роботу сориентироваться на конкретной странице, например, не индексировать пункты меню, данные форм и прочую служебную информацию. Данный тег понимает только Яндекс, для Google он ничего не значит. Тем не менее, его использование немного повышает уровень доверия поисковика к сайту. Подробно о теге noindex и о том, как его использовать, можно почитать здесь.
11. ЧПУ (человеко-понятные урлы)
Хороший урл (не слишком длинный и состоящий из понятных и легкочитаемых слов) – это еще один фактор доверия поисковиков к сайту. Чтобы настроить ЧПУ на WordPress или Joomla, необходимо воспользоваться специальными плагинами:
WordPress – плагин Rus-To-Lat
Joomla – плагин JoomSEF или sh404SEF
Чтобы настроить ЧПУ на Битриксе, необходимо выполнить следующие действия:
Включить режим правки
Навести на нужный компонент и нажать «Редактировать параметры компонента»
Поставить галочку напротив пункта «Включить поддержку ЧПУ»
Заполнить строку «Символьный код»
Заполнить строку «Символьный код»
12. Скорость загрузки сайта
Быстрая скорость загрузки сайта улучшает пользовательский опыт, увеличивает коэффициент конверсии и способствует улучшению позиций сайта в выдаче. Один из лучших сервисов, с помощью которых можно узнать скорость загрузки сайта и получить рекомендации по ее увеличению, – Google PageSpeed insights.
13. Вредоносный код
Если ваш сайт выводится в результатах поиска с пометкой «Этот сайт может угрожать безопасности вашего компьютера», значит, на нем присутствует вредоносный код. Чтобы его удалить, необходимо следовать вот этой инструкции Яндекса.
14. Снятие фильтров
Главная хитрость поисковых систем заключается в том, что они не спешат оповещать владельцев сайтов о наложении того или иного фильтра. Чтобы узнать, есть ли на вашем сайте санкции от Яндекса, придется писать в техподдержку и запрашивать данную информацию. Чтобы узнать, если на вашем сайте санкции от Гугла, необходимо зайти в «Инструменты для вебмастеров Google» – «Поисковый трафик» – «Меры, принятые вручную» (автоматические фильтры придется вычислять самостоятельно).
Снятие фильтров – это отдельная и очень большая тема для обсуждения. В данном материале останавливаться на ней не будем. Приведем лишь несколько неплохих статей на эту тему:
Рекомендации Google по работе с обратными ссылками и отправке запросов на перепросмотр
Как вывести сайт из-под автоматических санкций Google Panda
Фильтр Яндекса АГС-40. Анализ причин и советы пострадавшим
Продолжение следует….
Часть 2 по материалам статьи Продвижение сайта с нулевым бюджетом: 65 шагов бесплатного покорения поисковых ТОПов от Жени Крюковой
Прочесть первую часть можно здесь
Прочесть третью часть можно здесь