В интернете можно найти много публикаций на тему, как составить лучший (или даже самый лучший) файл robots.txt для WordPress. При этом в ряде таких популярных статей многие правила не объясняются и, как мне кажется, вряд ли понимаются самими авторами. Единственный обзор, который я нашел и который действительно заслуживает внимания, — это статья в блоге wp-kama. Однако и там я нашел не совсем корректные рекомендации. Понятно, что на каждом сайте будут свои нюансы при составлении файла robots.txt. Но существует ряд общих моментов для совершенно разных сайтов, которые можно взять за основу. Robots.txt, опубликованный в этой статье, можно будет просто копировать и вставлять на новый сайт и далее дорабатывать в соответствии со своими нюансами.
Яндекс
Robots.txt для MODx
Сайты на системе администрирования MODx встречаются не так часто, информацию по правильной настройке SEO для этой системы найти сложнее. В этой статье рассмотрим один из наиболее важных вопросов оптимизации сайта — составление правильного файла robots.txt. С одной стороны, размещение текстового файла в корне сайта является одной из самых простых задач оптимизации. С другой стороны, малейшая ошибка в файле роботс может привести к нехорошим последствиям вплоть до закрытия всего сайта от индексации и, следовательно, исчезновения его из поиска.
UTM-метки, как правильно настроить?
На сегодняшний день, UTM-метки самый удобный инструмент получения дополнительных данных о рекламных переходах на сайт. Стандарт поддерживается Google Analytics и Яндекс.Метрикой. Часто возникает вопрос, как правильно настроить ютм-метки, чтобы, во-первых, сбор данных был корректным, и во-вторых, получить максимум возможной статистики. Об этом поговорим в этой статье.
Robots.txt для 1С-Bitrix
Битрикс является одной из самых распространенных систем администрирования в российском сегменте интернета. С учетом того, что на этой CMS, с одной стороны, нередко делают интернет-магазины и в достаточной степени нагруженные сайты, а с другой стороны, битрикс оказывается не самой быстрой системой, составление правильного файла robots.txt становится еще более актуальной задачей. Если поисковый робот индексирует только то, что нужно для продвижения, это помогает убрать лишнюю нагрузку на сайт. Как и в случае истории с robots для WordPress, в интернете почти в каждой статье присутствуют ошибки. Такие случае я укажу в самом конце статьи, чтобы было понимание, почему такие команды прописывать не нужно.
Мета-теги
Правильная настройка мета-тегов очень важна для SEO. Работы по заполнению, прописыванию, корректировке мета-тегов всегда выполняются при запуске проекта, сразу после того, как собрано семантическое ядро. И продолжаются по мере необходимости в течение всего периода продвижения сайта. Иногда достаточно лишь небольших изменений в метатегах, чтобы сайт вышел в ТОП10. Особенно это актуально для низкочастотных запросов, а также в тех случаях, когда сайт уже находится достаточно высоко по данному запросу (например, 11-15-я позиция в поисковой выдаче), и нужно совсем немного, чтобы выдвинуть его в ТОП. Зачастую под SEO-тегами подразумеваются Title, Description и Keywords. Однако тегов намного больше. И в этой статье мы постараемся охватить этот вопрос максимально полно.
Расширенные сниппеты (Rich Snippets) в Google и Яндекс
Занимаясь продвижением сайта, все больше внимания оптимизаторы уделяют тому, как выглядит сниппет. Технология расширенных сниппетов не нова. Яндекс и Google позволяют использовать дополнительные возможности для того, чтобы ссылка на ваш сайт была более информативной, а поисковая выдача — релевантной и лучше отвечала на запросы пользователя. Ваша задача — только воспользоваться этими возможностями.
В этой статье я предлагаю рассмотреть все варианты, как можно улучшить сниппеты на вашем сайте, которые сейчас актуальны в Google и Яндекс. Это будет обзор возможностей + ссылки на техническую информацию с примерами.
Robots.txt
Файл robots.txt является одним из самых важных при оптимизации любого сайта. Его отсутствие может привести к высокой нагрузке на сайт со стороны поисковых роботов и медленной индексации и переиндексации, а неправильная настройка к тому, что сайт полностью пропадет из поиска или просто не будет проиндексирован. Следовательно, не будет искаться в Яндексе, Google и других поисковых системах. Давайте разберемся во всех нюансах правильной настройки robots.txt.
Яндекс теперь выводит ссылки в сниппет
Ранее я писал о том, что заметил в сниппетах Яндекса ненумерованные списки.
Сегодня обратил внимание еще на один момент. Если описание взято из текста, в котором есть ссылка, то в она выводится в сниппет.
Ссылочное продвижение по-прежнему актуально! В том числе по Москве
Когда Яндекс объявил об отключении ссылок, многие забеспокоились. Кто-то решил срочно сэкономить и отключить все ссылки, кто-то стал изучать изменения в выдаче, кто-то вздохнул с облегчением, что это пока только по Москве. Продвинутые клиенты стали звонить еще когда это было у Яндекса только в планах и интересоваться, что мы собираемся делать по проекту в свете грядущих изменений. Кстати, Яндекс «отключил» учет ссылок только по коммерческим запросам. Google тоже заявил о том, что ссылки на сайт будут все меньше учитываться в ранжировании.
Но… похоже Великий день, когда ссылки больше не будут ни на что влиять, наступит еще не скоро. Потому что есть наблюдения, что анонсированные изменения в алгоритмах Яндекса, вступили в силу лишь частично.
- 1
- 2