1. Одна страница – один ключ
Если поместить на одну страницу 30 ключевых запросов, никакого эффекта не будет. Если же для 30 поисковых фраз создать 30 индивидуальных страниц, шансы на успех увеличатся в разы.
2-3 ключевых словосочетания для одной странички веб-ресурса – это максимальный предел.
Собрав несколько запросов в единую фразу или предложение, получаем наилучший результат. Для примера попытаемся объединить поисковые фразы:
- «подобрать хостинг»;
- «как подобрать хостинг для сайта»;
- «как подобрать хостинг для сайта самому».
Получаем объединенную ключевую фразу, вмещающую все вышеозначенные ключи: «как подобрать хостинг для сайта самому». Прием очень хорош для главной страницы ресурса, но даже в этом случае рекомендуется написать не 1, а 3 полноценных, информативных и релевантных текста.
2. CSS и JavaScript в отдельные файлы
Участки вспомогательного кода, кода функций и стилей, помещенные в общий с контентом файл (основной загрузочный файл), мешают нормальной работе поисковых роботов. Ориентация робота в области контента в данном случае затрудняется участками кода, поэтому CSS и JavaScript лучше вынести в отдельные файлы, подключаемые по мере загрузки страниц.
ПЛОХО
ХОРОШО
3. CSS вместо картинок
Фоновые изображения и заливку рекомендуется заменить стилями CSS. При грамотном использовании эти же стили позволяют выделять необходимые участки контента с помощью выравнивания, цвета, заливки, фона, размера шрифта и так далее.
Все эти операции существенным образом уменьшают размер и «вес» страниц сайта, делая их более быстрыми и привлекательными для пользователей и поисковых систем.
4. Текстовая навигация
Система навигации на сайте может быть самой разнообразной. Нередко для навигационных ссылок применяются картинки, кнопки, программные скрипты и даже анимация. Выпадающее динамическое меню, безусловно, привлекает внимание посетителей, но в меньшей мере способствует поисковому продвижению.
Все эти элементы (лишенные альтернативного текста-подписи) не индексируются поисковыми роботами, отчего веб-ресурс утрачивает дополнительные баллы рейтинга.
Текстовая навигация является идеальным решением данной проблемы. Если же таковая отсутствует, то ключевыми фразами можно продублировать имеющиеся графические навигационные компоненты. Эффект будет похожим.
5. URL
Важно понимать, что адреса страниц (URL) могут быть статического и динамического характера. Динамический адрес в 90% случаев работает с файлами «PHP», оканчивается большим количеством всевозможных символов и знаков, не очень хорошо воспринимается поисковыми роботами.
С другой стороны, статические адреса страниц, работающие под стандартным расширением «HTML», характеризуются постоянством, разборчивостью и читабельностью, наличием ключевых фраз, отчего более приемлемы для пользователей и поисковых машин.
Для примера, сравните две ссылки. Первая ссылка не ЧПУ(Человеку Понятный Урл), вторая ссылка ЧПУ:
http://ru.wh-db.com/pwd.php?ac=sdso2mmksdf00lklasmmknnvd33
http://ru.wh-db.com/article/kachestvennyy-sayt-7-klyuchevykh-svoystv/
/article/ - Статья
/kachestvennyy-sayt-7-klyuchevykh-svoystv/ - Название статьи
По возможности рекомендуется динамические адреса страниц сайта (если такие используются) перевести в статические и постоянные URL.
6. Карта сайта (Sitemap.xml)
Индексация площадки поисковыми роботами значительно упрощается (и ускоряется), если на веб-ресурсе присутствует файл, содержащий ссылки на все прочие страницы.
Карта сайта также отражает структуру виртуального проекта, предоставляя ссылки в любимом для поисковиков формате – в виде текста.
Создание карты не вызывает трудностей при работе с системами управления контентом (CMS), так как каждая из них имеет специальную функцию генерации данного файла.
В случае, когда программный код сайта пишется вручную, для создания столь важного файла можно использовать сторонние онлайн-сервисы, отыскать которые нетрудно в Интернете. «XML» - основой формат карты сайта.
7. Robots.txt
Особый файл, содержащий команды и инструкции для поисковых роботов, обязательно должен присутствовать в структуре каждого сайта (в корневой директории).
Содержание этого документа может варьироваться, но принцип и суть всегда сохраняются. Указание на запрет индексации системных файлов и папок, рабочих скриптов и личных данных пользователей, дублирующихся страниц и компонент, – вот смысл большинства записей в Robots.txt.
Закрыть все лишнее от индексации, выдать индивидуальные команды различным поисковым роботам, переключить внимание поисковиков на основное содержание ресурса, – все это можно с легкостью проделать, используя вышеуказанный файл.
Итак, если вы будете придеживаться этих семи принципов, вы сможете повысить позиции в поисковых системах и сделаете сайт удобнее для пользователей. Также важно, чтобы ваш сайт быстро открывался. Для этого нужен качественный хостинг, например веб-хостинг Таймвеб.
Читайте также
Все материалы с сайта wh-db.com и ru.wh-db.com защищены авторским правом. Копирование, публикация, продажа и распространение материала строго запрещены.