Статьи по технической оптимизации сайтов

301-редиректы: какие должны быть на сайте по умолчанию

Даже на новом сайте почти всегда необходимо проставлять 301-редиректы, чтобы избежать дублирования страниц и других проблем.

Читать статью
Как правильно составлять URL

При составлении адресов страниц мы придерживаемся перечисленных далее правил.

Читать статью
Как и зачем проверять аптайм сервера

Аптайм сервера — это по сути процент времени непрерывной работы сервера, на котором расположен сайт.

Читать статью
Проверка noindex, nofollow на всём сайте

Полезный контент может быть закрыт тегом noindex по ошибке, например, вебмастер забыл поставить закрывающий тег.

Читать статью
Мета-теги canonical: проверка

При помощи тега мета-тега canonical можно указывать главную из ряда похожих страниц поисковыми системам, чтобы только одна, основная страница, участвовала в поиске.

Читать статью
Поиск изображений, уменьшенных атрибутами width и height

Для оптимизации скорости загрузки страниц сеошникам довольно часто требуется найти на сайте изображения, уменьшенные атрибутами width и height. Другими словами, нужно найти изображения, в атрибутах width и height которых указаны не реальные размеры картинки, а уменьшенные. Такие изображения пользователю кажутся нормальными, но в реальности они могут весить много и заметно замедлять отображение документа. В статье рассматриваю два способа поиска.

собака с биноклем

Читать статью
Пакетное сжатие JPEG-изображений в нескольких директориях

irfanviewОптимизаторы в работе нередко сталкиваются с необходимостью быстро сжать большое количество изображений.

Это необходимо:

  • для увеличения скорости загрузки страницы;
  • для улучшения оценки в тесте PageSpeed Insights от Google.

Массовое сжатие .jpg изображений, расположенных в нескольких директориях, реализовывал при помощи программы IrfanView. Программа может как перезаписать старые изображения, так и создать папки в новом месте. Названия папок при этом сохранятся. IrfanView видит и обрабатывает также вложенные директории.

Читать статью
Главное зеркало сайта при продвижении

Главное зеркало сайта нужно указывать для того, чтобы предотвратить дублирование страниц в индексе поисковых систем.

зеркало

Читать статью
Закрываем бесполезные страницы от индексации директивой в robots.txt

Эта статья об использовании файла robots.txt на практике применительно к удалению ненужных страниц из индекса поисковых систем. Какие страницы удалять, как их искать, как убедиться, что не заблокирован полезный контент. По сути статья — об использовании одной лишь директивы — Disallow. Всесторонняя инструкция по использованию файла роботс и других директив в Помощи Яндекса.

мусор

Читать статью
Создание sitemap.xml, проверка и регистрация в консолях поисковых систем

Карта сайта sitemap.xml необходима для того, чтобы сообщить поисковым системам страницы, которые необходимо проиндексировать.

карта сайта

Читать статью