На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

AdIndex

3 313 подписчиков

Свежие комментарии

  • Александр Любицкий
    Пародия на оригинал 😂Коровьев, Бегемот...
  • Evgenija Palette
    Надо ВОСПИТЫВАТЬ ЛЮДЕЙ. Ни в одной стране мира нет такого, чтобы в разговоре кто-нибудь мог сказать пожилому человеку...ОК против эйджизм...

SEO-проектирование: как подготовить сайт к продвижению

Спроектировать успешный сайт = спроектировать успешный бизнес

На сегодняшний день уже тяжело найти пример бизнеса, который не представлен в интернете. Онлайн для многих стал устойчивым и часто основным каналом привлечения покупателей. И если рядовой пользователь редко обращает внимание на то, как он попадает на сайт продавца, то специалисты-рекламщики легко насчитают несколько десятков путей привлечения аудитории из глобальной сети. Каждый из них имеет свои преимущества и недостатки, но как бы там ни было, приводит потенциального клиента на сайт продавца. Насколько успешной будет его конверсия в покупателя, в немалой степени зависит от самого ресурса. Безусловно, ценовая политика, сервис, доверие и еще целый ряд мотивирующих факторов также имеют свое влияние, однако смело можно говорить, что проектируя сайт, вы, по сути, проектируете свой бизнес. Особенно это значимо для тех видов бизнеса, которые делают ставку на онлайн.

SEO (search engine optimization) или поисковая оптимизация держится особняком среди всех каналов привлечения трафика. Наибольшим ее преимуществом считается цена привлечения посетителя, а наибольшим недостатком – низкий уровень прогнозируемости посещаемости и длительный период выхода на приемлемый уровень окупаемости. Однако так было не всегда, бывалые оптимизаторы могут вспомнить времена, когда позиции в органическом поиске достигались регистрацией в бесплатных каталогах сайтов. Полученных таким образом ссылок вполне хватало, чтобы обеспечить достаточный уровень ссылочной поддержки сайта и тем самым повысить его видимость. Буквально за десятилетие поисковые машины сделали огромный шаг в направлении сбора и анализа информации. Число учитываемых факторов уже давно измеряется сотнями, а общая парадигма их существования изменилась с простого поиска текстовых страниц до решения задач пользователей.

Ключевыми нововведениями последних лет стали внедрение машинного обучения и учет поведенческих факторов. И если первое из них позволило «сшить» воедино известные закономерности в рамках одного алгоритма, то второе утвердило акцент поисковых систем на удовлетворенности пользователя и в значительной степени способствовало переформатированию SEO-отрасли в целом. Требования к уровню самой услуги и компетенции исполнителей заметно возросли. Во многом благодаря этому продвижению сайта стала присуща «комплексность», когда помимо традиционно выполняемых работ (устранение технических проблем сайта, контентная оптимизация и т.п.) в процесс добавилась, как минимум, юзабилити-экспертиза для повышения уровня поведенческих факторов. Для серьезных и масштабных проектов может делаться более мощный акцент на учете user experience.

Как ни странно, в поиске все еще можно найти сайты, которые осуществляют локальные манипуляции с контентом страницы, например, переписывая один и тот же абзац от апдейта к апдейту. Меняется плотность ключевых слов и их расположение, изменяется общий объем текста. Это классический пример так называемого «механистического» подхода к продвижению, при котором основная ставка делается на манипуляции с контентом или внешними ссылками. С учетом всего вышесказанного, назвать его сейчас продуктивным довольно тяжело, но в ряде случаев он еще может принести результат в виде роста видимости в поиске по низконкурентным запросам.

Справедливости ради стоит отметить, что SEO практически всегда находилось в «серой» зоне методов привлечения трафика на сайт. Тонкая грань, отделяющая «белые» и «серые» методы, связана только с устремлениями вебмастера проводить те или иные правки на сайте. Так, если внесение ключевых фраз в текст или в метаданные не связано с желанием улучшить восприятие страницы для пользователя, а нацелено на алгоритм поисковой системы, то само такое решение может быть расценено как попытка накрутки контентных факторов. Чаще всего такое SEO легко обнаруживается на страницах сайта даже без скрупулезного анализа, но, как будет видно дальше, возможны более гармоничные варианты оптимизации.

Часто одной из причин, по которой рекомендации оптимизатора остаются не внедренными, является низкий уровень обоснования необходимости таких рекомендаций. Усложнение алгоритмов поисковых машин действительно затруднило понимание значимых факторов для того или иного сайта, находящегося на верхних строчках выдачи. Неудивительно, что в последнее время многие SEO-компании делают ставку на поисковую аналитику, а число подобных внешних сервисов в последнее время резко возросло.

Казалось бы, обоснованные рекомендации должны сильнее мотивировать клиента к их выполнению. Но, как показывает практика, по мере работы над сайтом в таком ключе возникает необходимость его кардинальной переработки. Иными словами, часто его проще сделать заново, чем вносить изменения в текущий сайт. Поэтому SEO-проектирование или проектирование сайта с учетом необходимости его ответа на поисковые запросы крайне необходимо еще на этапе разработки сайта. А если учесть периодические изменения философии поисковых систем, то SEO-проектирование (перепроектирование) должно стать одним из неотъемлемых этапов жизни и продвижения сайта. При этом чем профессиональнее оно будет выполнено, тем незаметнее SEO будет интегрировано в сайт.

Идея интеграции SEO в сайт непосредственно в процессе его разработки далеко не нова. Традиционно считается, что в таком случае наиболее сложным моментом является увязка дизайнерских решений с требованиями SEO-специалистов. В реальности такая проблема возникает чаще всего в случае специфического дизайна, в рамках вариантов, близким к стандартным, ее, как правило, нет.  Гораздо сложнее, оказывается, дать ответ на вопросы, связанные с тем, какие элементы должны быть на странице и в каком количестве, чтобы обеспечить наилучший ответ на поисковые запросы. По сути, оптимизатор должен пройти путь от запроса к странице, ответив на целый ряд вопросов:
 

Перечень возможных вопросов варьируется в зависимости от списка запросов для страницы, конкурентности тематики, характера запросов и еще целого ряда факторов, связанных как с реализуемым дизайном сайта, так и с особенностями поисковой выдачи. Чтобы ответить на эти вопросы, необходимы знания с приемлемым  уровнем достоверности. То есть предлагаемые решения должны быть обоснованы хотя бы на уровне статистики, чтобы ожидать от них положительного эффекта в плане поисковой видимости.

Информация о поисковых алгоритмах представляет собой коммерческую тайну и недоступна никому, за исключением ограниченного числа людей. Учитывая постоянное их усложнение, мысль о том, чтобы написать формулу ранжирования, является полнейшей утопией. Это даже при условии знания всех факторов ранжирования, что, конечно же, не соответствует действительности. В таком случае механизм ранжирования, согласно техническому представлению, подобен системе «черный ящик» с неизвестным устройством. Получить некоторое представление об устройстве или даже построить его модель возможно путем изучения отклика такой системы на различного рода внешние воздействия. В случае с поисковыми системами роль воздействия выполняют поисковые запросы, а отклик – это поисковая выдача. По сути, это наиболее распространенный подход к изучению поисковых систем, к тому же, положенный в основу многих аналитических сервисов (analyzethis.ru, www.megaindex.ru и др.).  В результате хорошо видны основные тренды в поисковой выдаче:
 

Изучив возможности подобных сервисов, можно легко заметить, что при соответствующей классификации поисковых запросов и дальнейшем анализе поисковой выдачи можно выделять различного рода закономерности.

Особый интерес представляют сайты, демонстрирующие устойчивую динамику роста позиций в поиске. В этом случае появляется возможность предположить, что их страницы дают «релевантный+» ответ на поисковые запросы в рамках текущего алгоритма. Не стоит забывать, что существуют и также влияют две других обширных группы факторов (поведенческие и ссылочные). Поэтому корректность тех или иных гипотез относительно успеха в поиске тесно связаны с умением специалиста или сервиса выделять главное в исходных данных, полнотой сбора такой информации и в целом с «продвинутостью» алгоритма их анализа.

Влияние ссылочных факторов на текущий момент заметно уменьшено, а кроме того, как отмечают многие оптимизаторы, ссылки начинают оказывать влияние не сразу после простановки, а через довольно длительный промежуток времени. Иногда такой интервал времени может исчисляться месяцами. Помимо традиционного наблюдения, специалисты по поисковой оптимизации нередко проводят собственные эксперименты с простановкой тестовых ссылок и, конечно же, отслеживают данные сервисов вебмастеров. По этой причине во многих случаях выделить влияние внешних факторов возможно с высокой степенью достоверности. Обновления поведенческих факторов, как показывают исследования, также проводятся с периодичностью в несколько месяцев.  То есть, при соответствующей постановке эксперимента, задача выделения сайтов, повышающих свою видимость именно за счет ответа на поисковый запрос, становится вполне решаемой.

Убедившись, что эксперимент проведен корректно, можно переходить к следующему шагу анализа. Если сайт демонстрирует рост видимости в поиске по некоторым запросам, и это, согласно выводам, обусловлено его ответом на запрос, то вероятнее всего, этот самый ответ формируется за счет элементов, находящихся на конкретных страницах и сайте в целом. Остается провести декомпозицию страниц, выделив области, значимые с точки зрения поисковых запросов, и функциональные области страниц. Исходя из подобной логики, важно также следить за сайтами, которые постепенно теряют в видимости, а также за теми, которые демонстрируют устойчивый результат в поиске. Элементы и компоновка их страниц, наоборот, могут подсказать, что не так принципиально с точки зрения поисковой машины, или что не стоит реализовывать на своем сайте. Тем самым появляется возможность подтвердить/опровергнуть ранее сделанные выводы.

Декомпозицию рекомендуется проводить по принципу от общего к частному, переходя от области страницы к ее элементам и далее к html структуре документа. Традиционно значимыми элементами остаются: метаданные страницы (элементы title, description, keywords), заголовки H1-H6 (H1, H2 наиболее важны) и наличие ключевых слов в ЧПУ адресах страниц. В зависимости от характера поискового запроса (к примеру, он информационный или коммерческий) значимость тех или иных элементов страницы может меняться. Поэтому нельзя абсолютизировать из них те или иные, что еще часто можно встретить в практике специалистов. В одном из недавних аудитов, выполненных одной из SEO-компаний, встретилась формулировка о том, что поисковая система Яндекс не учитывает более 70 символов тега title.

Тем не менее, нетрудно найти поисковые запросы, когда поисковая система выделяет ключевые слова из поисковой фразы во фрагменте метатега title, находящемся за пределами 70 символов.

Вероятнее всего, нельзя говорить о равнозначности всех фрагментов обсуждаемого элемента страницы, но факт того, что поисковая система в данном случае обрабатывает фрагмент больший, чем 70 символов, очевиден. К сожалению, подобных догм встречается еще достаточно много, и следование им при проектировании страниц с точки зрения SEO может привести к малоприглядному результату.

На приведенном выше эскизе страницы сайта строительной тематики показаны области, которые были выделены при анализе его тематической области и затем после некоторой переработки помещены на страницу шаблона. Помимо той смысловой нагрузки, которая на них возложена, они важны с точки зрения поискового продвижения, а именно:

При проектировании страниц сайта с точки зрения SEO важно не только изучать структуру страниц сайтов-лидеров и копировать ее. Только лишь этим нельзя обеспечить высокую видимость в поиске для создаваемого таким образом сайта, хотя, безусловно, она повышается. Это объясняется, прежде всего, тем, что численный результат, получаемый по формуле ранжирования, определяется сочетанием факторов (так называемыми мономами). При этом значимыми для любого сайта из первой десятки в поиске могут оказаться совершенно разные мономы или, проще говоря, сочетания факторов. К тому же, необходимо учесть целый ряд технологий, колдунщиков и фильтров в поисковых системах, которые вносят изменения в процесс ранжирования.

Заметно повысить вероятность успешного ранжирования дают возможность опыт и профессиональные знания SEO-специалистов, часто собираемые буквально по крупицам на профильных мероприятиях, из открытых научных публикаций, собственных исследований и т.п. Одним из характерных и важных моментов является учет «переколдовок». Переколдовка – предварительная обработка запроса поисковой машиной, которая заключается в его переформулировке и приведению к виду, наиболее подходящему для поиска алгоритмом соответствий в текстах. В Яндексе она записывалась ранее (и, вероятнее всего, записывается и сейчас) с помощью языка поисковых запросов и представляет собой строку подобную следующей (шкаф:: 15479 ^ шкафчик:: 653542) & / (-64 64) для:: 218 & / (-64 64) одежды:: 8335 softness:6, из которой помимо обратной частоты ключевых слов и других параметров можно выделить контекстные ограничения, накладываемые на расположение слов фразы относительно друг друга. В данном случае символ & требует расположения слов в одном предложении, а числа в кавычках (-64 64) задают возможный порядок их следования (обратный и прямой) и расстояние в словах относительно друг от друга. Понимание этих аспектов позволяет более грамотно сформировать требования к контенту страницы. 

Переколдовкой конечно же уровень профессионализма оптимизатора не ограничивается. Существует гораздо большее число закономерностей, правил, видов алгоритмов и т.п., применяемых в той или иной степени в поисковых системах. Кроме того, алгоритмы развиваются, ведутся постоянные исследования в области извлечения полезной информации из «сырых неструктурированных» данных (Data Mining). И чем выше уровень знаний SEO-специалиста, тем грамотнее будет спроектирована страница.

Ниже приведены эскизы страниц сайта до и после внедрения результатов SEO-проектирования. Из сравнения двух макетов легко видны внесенные изменения, но все же кратко их охарактеризуем:

Эскиз страницы подраздела сайта до проведения SEO-проектирования

Эскиз страницы подраздела сайта после внедрения результатов SEO-проектирования

Отражением проведенных работ стало изменение поисковой видимости по различным группам запросов, что показано ниже. На графиках разными тонами показаны ВЧ, СЧ и НЧ запросы, от более темного к более светлому соответственно.

Видимость в поиске (запросы группа 1)

Видимость в поиске (запросы группа 2)

Видимость в поиске (запросы группа 3)

Поисковые алгоритмы динамично совершенствуются, и SEO-сообществу необходимо также стараться не отставать или хотя бы понимать основные тренды. Конкретные требования к элементам сайта часто очень быстро устаревают, как например, учитываемая длина метатега title или необходимая плотность ключевых слов. А чаще они становятся элементами более сложных комбинаций факторов. В таких условиях необходимы общие методики, которые бы позволяли исследовать алгоритмы и получать информацию о том, что же необходимо делать с сайтом, чтобы повышать его поисковую видимость. Зародившись однажды, SEO-проектирование в совокупности с профессиональным уровнем специалиста демонстрирует высокий потенциал к тому, чтобы стать эффективным инструментом поискового продвижения и, что самое главное, «белым». Надеемся, что к его развитию в дальнейшем подключатся остальные игроки рынка.

 

Ссылка на первоисточник

Картина дня

наверх