Закрываем бесполезные страницы от индексации директивой в robots.txt

Эта статья об использовании файла robots.txt на практике применительно к удалению ненужных страниц из индекса поисковых систем. Какие страницы удалять, как их искать, как убедиться, что не заблокирован полезный контент. По сути статья — об использовании одной лишь директивы — Disallow. Всесторонняя инструкция по использованию файла роботс и других директив в Помощи Яндекса.

мусор

Читать статью
Из чего состоит анализ юзабилити сайта. Примеры

На что я обращаю внимание, когда делаю анализ и исправляю ошибки в юзабилити сайта:

  1. 1. Логотип:
    • наличие уникального логотипа, а не просто текста;
    • наличие ссылки на главную страницу.
  2. 2. Навигация:
    • количество и структура разделов меню сайта;

      Пример неудачного вертикального меню:

      left-menu-bad-small

      Такое меню тяжело для восприятия. Близкие по назначению товарные категории следует объединять в группы.

      Читать статью