google core web vitals

Core Web Vitals: как оптимизировать сайт и улучшить его ранжирование в Яндексе и Google

В этой статье я подробно раскрою процесс работы с Google Core Web Vitals для качественной технической оптимизации сайта. А также поясню, почему это важно не только для Google, но и для Яндекса. Читать полностью

Robots.txt для Wordpress

Robots.txt для WordPress

В интернете можно найти много публикаций на тему, как составить лучший (или даже самый лучший) файл robots.txt для WordPress. При этом в ряде таких популярных статей многие правила не объясняются и, как мне кажется, вряд ли понимаются самими авторами. Единственный обзор, который я нашел и который действительно заслуживает внимания, — это статья в блоге wp-kama. Однако и там я нашел не совсем корректные рекомендации. Понятно, что на каждом сайте будут свои нюансы при составлении файла robots.txt. Но существует ряд общих моментов для совершенно разных сайтов, которые можно взять за основу. Robots.txt, опубликованный в этой статье, можно будет просто копировать и вставлять на новый сайт и далее дорабатывать в соответствии со своими нюансами.
Читать полностью

скорость

Протокол HTTP/2 — как проверить и почему это важно для SEO?

С ноября 2020 года поисковый робот Google, который индексирует сайты в интернете, начнет производить сканирование по протоколу HTTP/2. Если ваш сайт не поддерживает этот протокол, вам необходимо это исправить в ближайшее время. И вот почему это важно.
Читать полностью

Robots.txt для MODx

Robots.txt для MODx

Сайты на системе администрирования MODx встречаются не так часто, информацию по правильной настройке SEO для этой системы найти сложнее. В этой статье рассмотрим один из наиболее важных вопросов оптимизации сайта — составление правильного файла robots.txt. С одной стороны, размещение текстового файла в корне сайта является одной из самых простых задач оптимизации. С другой стороны, малейшая ошибка в файле роботс может привести к нехорошим последствиям вплоть до закрытия всего сайта от индексации и, следовательно, исчезновения его из поиска.
Читать полностью

utm-метки

UTM-метки, как правильно настроить?

На сегодняшний день, UTM-метки самый удобный инструмент получения дополнительных данных о рекламных переходах на сайт. Стандарт поддерживается Google Analytics и Яндекс.Метрикой. Часто возникает вопрос, как правильно настроить ютм-метки, чтобы, во-первых, сбор данных был корректным, и во-вторых, получить максимум возможной статистики. Об этом поговорим в этой статье.

Читать полностью

Генератор ключевых слов

Сервис перемножения ключевых слов

Этот сервис полезен SEO-оптимизаторам и специалистам по контекстной рекламе. Вы сможете перемножить до 3-х групп слов (лемм).

Вы можете ввести пустую строку!

Также предусмотрена ситуация: если в вашем списке будет дублироваться то или иное слово, то оно будет использовано только один раз. Таким образом, у вас не появится дублей запросов в результирующем списке.
Читать полностью

Robots.txt для 1С Bitrix

Robots.txt для 1С-Bitrix

Битрикс является одной из самых распространенных систем администрирования в российском сегменте интернета. С учетом того, что на этой CMS, с одной стороны, нередко делают интернет-магазины и в достаточной степени нагруженные сайты, а с другой стороны, битрикс оказывается не самой быстрой системой, составление правильного файла robots.txt становится еще более актуальной задачей. Если поисковый робот индексирует только то, что нужно для продвижения, это помогает убрать лишнюю нагрузку на сайт. Как и в случае истории с robots для WordPress, в интернете почти в каждой статье присутствуют ошибки. Такие случае я укажу в самом конце статьи, чтобы было понимание, почему такие команды прописывать не нужно.
Читать полностью