Аудит-летучка или быстрый SEO-анализ сайта

Зачастую случается так, что результат хочется получить быстро, не слишком заботясь о фундаментальных исследованиях. В этом случае на помощь оптимизаторам спешат их собственные наработки. Другой вопрос: какого они уровня? В действительности выходит так, что чем быстрее требуется достижение цели, тем сложнее происходит движение на пути к ней. Опытные сеошники могут по наитию выявлять проблемы сайта, мешающие его продвижению в ТОП, однако существует несколько прописных истин, позволяющих не потеряться в пучине информационного коллапса. В тоже время, сосредотачивая внимание на более главных вещах, можно на время позабыть о не столь значимых факторах, влияющих на ранжирование. Итак, давайте рассмотрим основы основ, знание и понимание которых повысит ваш уровень как специалиста продвижения.

 

Индексирование сайта – фундамент продвижения

Первоочередная задача оптимизатора — проиндексировать сайт любой ценой, так как альтернативы попросту нет. Если поисковые роботы не сочтут достаточно интересными те материалы, которые содержит продвигаемый ресурс, то они не включат его в индекс. Это равнозначно непопаданию в основной состав команды, что повлечет за собой незаметное и бесцельное времяпрепровождение на скамейке запасных. Таким образом, не будучи проиндексированными, страницы вашего ресурса никто не сможет найти. Показать себя поисковым системам очень важно. Проверить состоялась ли индексация можно с помощью специальных сервисов. Введя структуру для Яндекса url:www.site.ru*, url:site.ru* и/или для Google site:site.ru, можно точно определить находитесь ли вы в основном составе.

Чаще всего на практике можно столкнуться с частичным попаданием страниц продвигаемого ресурса в индекс. Такой поворот событий еще можно достаточно скоро повернуть в нужное русло. Однако если в индекс не попадает огромное количество страниц сайта или вообще весь сайт целиком, время серьезно задуматься. Худшим вариантом будет то обстоятельство, которое называется – попадание под фильтр, то есть поисковик, руководствуясь своими принципами ранжирования, никак не может пропустить ваши страницы на просторы глобальной сети. Возможно также, что не все еще потеряно и достаточно всего-то создать карту сайта и, тем самым, облегчить работу поисковым роботам, проводящим индексирование.

Как только стало известно, что сайт попал под фильтр, предстоит принять тяжелое решение. Это может быть выбор пути трудоемкого вывода ресурса из под фильтра или же отказ от сайта.

Разговор с роботом по душам или robots.txt

Казалось бы, всего-то обыкновенный небольшой текстовый файлик, а как много он может поведать о вашем сайте измученному страннику, который зовется поисковым роботом. Формирование файла robots.txt преследует цель предотвращения попадания не нужной информации в индекс, тем самым можно выставить свой ресурс в лучшем свете перед поисковиком. Одновременно с этим нужно показать и «проводить» робота во все «залы», «комнаты» и «помещения» вашего сайта, которые вы хотите продемонстрировать гостям. Пропишите в этом файле адрес sitemap.xml, а также укажите главное зеркало своего сайта. О том, как это сделать читайте далее.

Всегда можно воспользоваться полезным сервисом Яндекс.Вебмастер, чтобы проверить правильность составления файла robots.txt — http://webmaster.yandex.ru/robots.xml.

Надежный путеводитель по вашему сайту — sitemap.xml

Этот файл, который лучше всего формировать не вручную, а с помощью специальных программ или онлайн сервисов, он создан для улучшения качества индексации. Однако в официальных источниках поисковых систем нигде нет точного утверждения, что при наличии файла sitemap.xml сайт точно будет полностью проиндексирован и никакие страницы не затеряются. Важно не забывать периодически обновлять этот файл, желательно по мере появления новых страниц на ресурсе. Лучше всего иметь в наличии на сайте не только сформированного программой XML-файла, но и карты сайта в виде HTML.

Наличие на сайте уникального текстового контента – ключ к успеху

Наверно не стоит говорить избитые фразы о важности присутствия на раскручиваемом ресурсе уникального контента. Проблема в том, что некогда бывший уникальный текст быстро превращается в неуникальный. Это происходит путем незаконного копирования материалов с вашего сайта на другие ресурсы. Рекомендуем, перед публикацией нового материала, застолбить свое право на нее в сервисе Яндекса, призванном защитить авторство контента. Однако если кража текста уже состоялась, необходимо определить масштабы этого воровства. Это легко сделать с помощью программ, выявляющих уровень уникальности текста – Advego Plagiatus или Антиплагиат ETXT. В случае большого количество «дублей» материала есть смысл задуматься о создании нового контента, который поможет не только порадовать поискового робота, но и систему ранжирования.

В качестве небольшого примечания отметим, что текст считается уникальным, если его уровень уникальности достигает не менее 80%.

Кто на свете всех милей? Настраиваем зеркала сайта

Для недопущения перегрузки сайта принято использовать дубликаты с иными именами домена. Такие дубликаты и зовутся зеркалами. Если неверно настроены зеркала сайта, то это грозит выпадением его из индекса, а также хаосом при распределении ссылочного веса. Поисковику совсем нетрудно самостоятельно определить какое из зеркал будет считаться главным, однако, как известно, решения по умолчанию не всегда бывают полезными. Лучше всего довериться в этом вопросе SEO-специалисту, который в унисон разработанной тактике расставит приоритет зеркал для сайта и определит, что будет для него выигрышней. Это может быть определение главного зеркала как с www, так и без тройного www.

Снова мы возвращаемся к уже полюбившемуся нам файлу robots.txt и грамотно прописываем необходимые настройки зеркал с помощью директивы host. Кроме этого можно проверить склейку зеркал с помощью 301-го редиректа. Вводим в браузер адрес своего сайта сначала с www, а потом без тройного www. Если в URL вы увидите www после перехода на сайт, хотя изначально вы их не вводили, значит, редирект настроен не верно.

Где находится нофилет?

Продвижение продающего сайта с помощью коммерческих геозависимых запросов не может обойтись без указания контактного номера телефона на ресурсе. Данный аспект поможет поисковому роботу точно отнести ваш сайт к какому-либо региону. Если раскрутка ресурса ведется по Санкт-Петербургу, то и номер телефона должен соответствовать данному региону.

Оформление страницы «О нас» или «Контакты» ни в коем случае не должно обходиться также без указания адреса, который в свою очередь должен соответствовать продвигаемому региону, который вы указали в Яндекс.Вебмастер. Кроме этого, в случае указания всех этих параметров, заметно облегчится задача попадания сайта в Яндекс.Справочник, что в дальнейшем поспособствует увеличению притока трафика на ресурс.

Борьба с клонами – нет аффилиатам!

Чтобы избежать попадания под фильтр, отвечающий за слежение за аффилиатами, необходимо избавиться от сайтов, которые действуют от той же организации и занимаются сбытом идентичных товаров или услуг, что и раскручиваемый вами ресурс. Поисковики жестко пресекают такого рода клонов, так как это может ввести пользователя, ищущего товар, в состояние недопонимания и растерянности.

В самом начале работы нужно определиться есть ли у сайта аффилиаты, так как продвижение ресурса может оказаться абсолютно бесполезным барахтаньем в мутной воде, в случае его существования. Используйте онлайн сервисы, позволяющие определить клонов — http://tools.promosite.ru/use/clones.php. Можно ввести номер телефона компании в поисковике и таким образом определить есть ли еще сайты, где используется данный номер.

Срок использования домена

Длительность существования домена также оказывает некое влияние на продвижение сайта. Чем больше срок службы домена, тем больше возможности продвигать ресурс по высокочастотным запросам. Домены с маленьким стажем работы, примерно менее одного года, достаточно тяжело продвигать по ВЧ запросам. В этом случае остается уповать только лишь на низкочастотные и среднечастотные запросы.

Стоит учесть, что из всех вышеперечисленных аспектов, влияющих на процесс продвижения сайта в ТОП, на этот фактор СЕО-специалисты никак не смогут повлиять. Однако если они знают точный срок существования домена, то могут грамотно разработать стратегию продвижения ресурса, которая окажется наиболее эффективной. При этом данные знания повлекут за собой ощутимую экономию финансовых ресурсов, которой, в противном случае, можно было бы не ожидать, пытаясь тщетно раскручиваться по ВЧ запросам.

Итоги летучки

Естественно данный экскурс в процесс оперативного анализа работы по оптимизации сайта, будет полезен только в случае если требуется сиюминутный результат. Однако никто не застрахован от риска не достичь желаемой цели малой кровью и провала всей кампании. Приведенные методы хороши только при нехватке времени, и во всех других случаях мы рекомендуем проводить исследование на более серьезном уровне. Начиная с оптимизации самых элементарных технических параметров и заканчивая разработкой и внедрением глобальной идеи всего интернет проекта.

Leave a comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *