блог8

Регламент разработки сайтов

Регламент создании сайтов

Технические требования к разработке сайта

Валидность кода сайта

Код должен максимально валиндным и соответствовать стандартам HTML5 и CSS3, при проверке средствами validator.w3.org количество ошибок не должно превышать 5 единицы.

Валидность кода принципиально важна для поискового продвижения и обеспечения положительного пользовательского отображения, чтобы вебсайт мог одинаково
хорошо работать в любых браузерах, на разных операционных системах, в мобильных и стационарных компьютерах.

Валидность HTML кода проверяется инструментом, который называется валидатором. Самый известный валидатор w3c .

Время и скорость загрузки сайта

Размер соданного вебпроекта  должен быть минимальным, средний размер одной страницы  не более 100 Кб, максимальное критическое значение 120 Кб.

Скорость загрузки страницы не более 0,8 секунды, максимальное критическое значение 1 секунда. Проверить размер страницы и скорость загрузки можно с помощью сервиса 2ip.ru.

Это простой и понятный сервис, который обычно используют для проверки IP-адреса. Чтобы узнать, сколько весит страница  и скорость ее загрузки, нужно выбрать в списке инструментов «Информация о сайте». Вбиваете URL и проводите проверку.

Соответвие требовниям Page Speed Insights

Этот сервис проверяет относительную скорость загрузки веб страниц. Оценка PageSpeed может составлять от 0 до 100 баллов. Чем больше оценка – тем лучше. Если страница набрала более 85 баллов, значит она полностью соответсвует требованиям по скорости загрузки поисковой машины Google.

Я на практике придерживаюсь более мягких стандартов в 70 баллов для мобильной версии и 75 для стационарной. Это связанно с тем, что Google очень не любит встроенный код сторонних поисковых систем. Так например наличие в коде созданного сайта метрики Яндекс приводит к снижению количества баллов.

Для проверки требованиям Page Speed Insights необходимо перейти по этой ссылке , ввести url и долее следовать инструкции.

Так как скорость подключения у разных пользователей различна, PageSpeed Insights рассматривает только независимые от сети аспекты работы страницы: конфигурация сервера, структура HTML, использование внешних ресурсов (изображений, JavaScript и CSS).

Абсолютная же скорость загрузки в конечном итоге все равно зависит от скорости подключения к сети.

В созданном  сайте обязательны к заполнению мета-теги

Метатеги это структурные элементы кода сайта предназначенные для передачи структурированных данных о веб-страницах поисковым роботам и браузерам.

Они выполняют следующие функции:
Передают поисковикам и браузерам информацию о веб-странице;
Содержат управляющие команды для поискового робота и браузера;
Сообщают информацию о веб-странице и авторе.

Наиболее важные метатеги Description, Keywords и тег Title передают информацию поисковому роботу и браузерам о веб-странице. При правильном их заполнении улучшается индексация страницы, поэтому правильному их заполнению уделяется особое внимание.

Description — в этом метатеге указывается описание веб-страницы, которое обычно используется поисковыми системами в сниппетах;

Keywords — здесь указываются ключевые слова которым соответствует контент на странице;

Title — заголовок страницы, который вы можете увидеть в результатах поисковой выдачи и на вкладке браузера. Этот тег не относится к мета тегам, но он выполняет схожие функции с вышеперечисленными.

Xml-карта

Если интернет-проект не является одностраничным, наличие xml-карты обязательно.

Карта используется для того, чтобы продублировать базу ссылок, тем самым предоставляя дополнительный шанс поисковым роботам открыть те страницы, которые они не обнаружили с первого раза.

Карта сайта — это очень практичный вариант для корректной индексации сайта. Проверить есть ли в структуре проекта карта можно очень просто достаточно после имени сайта в браузере добавить /sitemap.xml (www.имясайта.ru/sitemap.xml).

Если откроется файл со служебной информацией, карта сайта присутствует. Если браузер вернет ошибку, карты нет и ее необходимо будет создать и разместить на хостинге.

Файл robots.txt

Этот файл  нужен для того, чтобы указать поисковику (Яндексу, Google и др.) как правильно нужно индексировать информацилнный ресурс. Какие страницы, разделы, товары, статьи нужно индексировать, а какие наоборот, не нужно.

Robots.txt это обыкновенный текстовый файл (с разрешением .txt) , который был принят консорциумом W3C 30 января 1994 года, и который используют большинство поисковых систем.

Наличие файл robots.txt можно посмотреть в Интернет, для этого достаточно после адреса сайта добавить /robots.txt.

линия создания сайтаВернуться в блог