В этой статье я подробно раскрою процесс работы с Google Core Web Vitals для качественной технической оптимизации сайта. А также поясню, почему это важно не только для Google, но и для Яндекса.
Robots.txt для WordPress
В интернете можно найти много публикаций на тему, как составить лучший (или даже самый лучший) файл robots.txt для WordPress. При этом в ряде таких популярных статей многие правила не объясняются и, как мне кажется, вряд ли понимаются самими авторами. Единственный обзор, который я нашел и который действительно заслуживает внимания, — это статья в блоге wp-kama. Однако и там я нашел не совсем корректные рекомендации. Понятно, что на каждом сайте будут свои нюансы при составлении файла robots.txt. Но существует ряд общих моментов для совершенно разных сайтов, которые можно взять за основу. Robots.txt, опубликованный в этой статье, можно будет просто копировать и вставлять на новый сайт и далее дорабатывать в соответствии со своими нюансами.
Профессия веб-аналитик в современном мире
Интервью для проекта газеты Комсомольская Правда «Образование в России и за рубежом».
Robots.txt для MODx
Сайты на системе администрирования MODx встречаются не так часто, информацию по правильной настройке SEO для этой системы найти сложнее. В этой статье рассмотрим один из наиболее важных вопросов оптимизации сайта — составление правильного файла robots.txt. С одной стороны, размещение текстового файла в корне сайта является одной из самых простых задач оптимизации. С другой стороны, малейшая ошибка в файле роботс может привести к нехорошим последствиям вплоть до закрытия всего сайта от индексации и, следовательно, исчезновения его из поиска.
UTM-метки, как правильно настроить?
На сегодняшний день, UTM-метки самый удобный инструмент получения дополнительных данных о рекламных переходах на сайт. Стандарт поддерживается Google Analytics и Яндекс.Метрикой. Часто возникает вопрос, как правильно настроить ютм-метки, чтобы, во-первых, сбор данных был корректным, и во-вторых, получить максимум возможной статистики. Об этом поговорим в этой статье.
Сервис перемножения ключевых слов
Этот сервис полезен SEO-оптимизаторам и специалистам по контекстной рекламе. Вы сможете перемножить до 3-х групп слов (лемм).
Вы можете ввести пустую строку!
Также предусмотрена ситуация: если в вашем списке будет дублироваться то или иное слово, то оно будет использовано только один раз. Таким образом, у вас не появится дублей запросов в результирующем списке.
Robots.txt для 1С-Bitrix
Битрикс является одной из самых распространенных систем администрирования в российском сегменте интернета. С учетом того, что на этой CMS, с одной стороны, нередко делают интернет-магазины и в достаточной степени нагруженные сайты, а с другой стороны, битрикс оказывается не самой быстрой системой, составление правильного файла robots.txt становится еще более актуальной задачей. Если поисковый робот индексирует только то, что нужно для продвижения, это помогает убрать лишнюю нагрузку на сайт. Как и в случае истории с robots для WordPress, в интернете почти в каждой статье присутствуют ошибки. Такие случае я укажу в самом конце статьи, чтобы было понимание, почему такие команды прописывать не нужно.