Новость 9
Поиско́вая оптимиза́ция (англ. search engine optimization, SEO) — комплекс мер по внутренней и внешней оптимизации для поднятия позиций сайта в результатах выдачи поисковых систем по определённым запросам пользователей, с целью увеличения сетевого трафика (для информационных ресурсов) и потенциальных клиентов (для коммерческих ресурсов) и последующей монетизации (получение дохода) этого трафика. SEO может быть ориентировано на различные виды поиска, включая поиск информации, товаров, услуг, изображений, видеороликов, новостей и специфические отраслевые поисковые системы.
Обычно чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учётом времени вывода сайта на указанные позиции и конверсии сайта.
Поисковые системы учитывают множество внутренних и внешних параметров сайта при вычислении его релевантности (степени соответствия введённому запросу):
- плотность ключевых слов (сложные алгоритмы современных поисковых систем позволяют производить семантический анализ текста, чтобы отсеять поисковый спам, в котором ключевое слово встречается слишком часто (терм. сленг «тошнота»);
- индекс цитирования сайта («ИЦ»), зависящий от количества и авторитетности веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга). Примером метрики являлся PageRank;
- водность текста — показатель, определяющий наличие малозначимых слов, которые не несут никакой полезной информации и служат для разбавления текста (стоп-слова);
- поведенческие факторы (внутренние) — ряд всевозможных действий пользователей, которые они могут произвести на сайте: вход, общее время проведённое пользователем на сайте, количество сессий одного пользователя на сайте, просмотр страниц, количество просмотренных пользователем страниц, возврат пользователя на сайт, клики на ссылки в тексте, переходы по ссылкам в меню;
- поведенческие факторы (внешние) — основной внешний показатель качества поведения пользователя при взаимодействии с сайтом является отказ от дальнейшего поиска по ключевой фразы в поисковой системе;
- индекс качества сайта («ИКС») — это показатель того, насколько полезен конкретный сайт для пользователей с точки зрения Яндекса. ИКС введён в 2018 году взамен тематического индекса цитирования (тИЦ), учитывавшего тематику ссылающихся сайтов.
- скорость загрузки сайта - показатель скорости загрузки сайта. Используется несколько параметров для характеристики скорости загрузки сайта - загрузка до появления первого контента, загрузка первого контент до взаимодействия, скорость ответа сервера на запрос, длина html кода. Общепринятым стандартом скорости загрузки сайта принято считать сервис Google PageSpeed.
История
Вместе с появлением и развитием поисковых систем в середине 1990-х появилась поисковая оптимизация. В то время поисковые системы придавали большое значение тексту на странице, ключевым словам в мета-тегах и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковых систем первые несколько страниц заняли сайты, которые были полностью посвящены рекламе, что резко снизило качество работы поисковиков. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.
Однако оптимизация развивается вместе с поисковыми системами, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам (транзакционные запросы, транзактный анализ).
Наряду с этой глобальной тенденцией, которой активно противостоят ведущие поисковые системы, имеют место и важные изменения внутри отдельных региональных рынков поисковой оптимизации и продвижения. Так, для Рунета последних лет характерен отток действительно стоящих специалистов на зарубежные рынки. Это объясняется тем, что отечественные рынки уже не могут наполнять ликвидностью полноценные SEO компании. И бюджеты поисковой раскрутки на Западе являются более крупными, что делает их привлекательнее для оптимизаторов.
Отношения с Google
В 1998 году два аспиранта из Стэнфордского университета Ларри Пейдж и Сергей Брин разработали поисковую систему «Backrub», которая использовала математический алгоритм для оценки популярности веб-страниц. Число, рассчитываемое по алгоритму PageRank, является функцией количества и силы обратных ссылок. PageRank оценивает вероятность того, что данная страница будет доступна веб-пользователю, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. По сути, это означает, что некоторые ссылки сильнее, чем другие, так как случайный веб-пользователь с большей вероятностью достигнет страницы с более высоким PageRank.
Пейдж и Брин основали Google в 1998 году. Google привлек лояльных последователей среди растущего числа пользователей Интернета, которым понравился его простой дизайн. Были учтены факторы вне страницы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, мета-теги, заголовки, ссылки и структура сайта), чтобы позволить Google избежать манипуляций, наблюдаемых в поисковых системах. это только учитывает факторы на странице для их рейтинга. Хотя PageRank был сложнее для игры, веб-мастера уже разработали инструменты и схемы построения ссылок, чтобы влиять на поисковую систему Inktomi, и эти методы оказались аналогичным образом применимы к игровому PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих схем, или линкоферм, включали создание тысяч сайтов с единственной целью рассылки спама.
К 2004 году поисковые системы включили широкий спектр нераскрытых факторов в свои алгоритмы ранжирования, чтобы уменьшить влияние манипулирования ссылками. В июне 2007 года Сол Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов. Ведущие поисковые системы, Google, Bing и Yahoo, не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые практики SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением. Патенты, связанные с поисковыми системами, могут предоставить информацию для лучшего понимания поисковых систем. В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от истории предыдущих поисков Google создал результаты для зарегистрированных пользователей.
В 2007 году Google объявил о кампании против платных ссылок, которые передают PageRank. 15 июня 2009 года Google сообщил, что они приняли меры по смягчению последствий скульптинга PageRank с помощью атрибута nofollow для ссылок. Мэтт Каттс, известный разработчик программного обеспечения в Google, объявил, что Google Bot больше не будет обрабатывать ссылки nofollowed таким же образом, чтобы запретить поставщикам услуг SEO использовать nofollow для скульптинга PageRank. В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать всего вышесказанного, инженеры SEO разработали альтернативные методы, которые заменяют пустые теги скрытым Javascript и, таким образом, позволяют создавать скульптуры PageRank. Кроме того, было предложено несколько решений, которые включают использование Iframe, Flash и Javascript.
В декабре 2009 года Google объявил, что будет использовать историю веб-поиска всех своих пользователей для заполнения результатов поиска. 8 июня 2010 года была объявлена новая система веб-индексации под названием Google Caffeine. Разработанный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент намного быстрее после публикации, чем раньше, Google Caffeine изменил способ обновления индекса Google, чтобы в Google все быстрее отображалось, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, который объявил Caffeine для Google, «Caffeine обеспечивает на 50 % более свежие результаты для веб-поиска, чем наш последний индекс…». Google Instant, поиск в режиме реального времени, был представлен в конце 2010 года, как попытка сделать результаты поиска более своевременными и актуальными. Исторически администраторы сайта потратили месяцы или даже годы на оптимизацию сайта для повышения рейтинга в поисковых системах. С ростом популярности сайтов социальных сетей и блогов ведущие движки внесли изменения в свои алгоритмы, позволяющие быстро ранжировать свежий контент в результатах поиска.
В феврале 2011 года Google объявил об обновлении Panda, которое наказывает сайты, содержащие контент, дублированный с других сайтов и источников. Исторически сайты копировали контент друг от друга и получали выгоду в рейтинге поисковых систем, участвуя в этой практике. Однако Google внедрил новую систему, которая наказывает сайты, контент которых не является уникальным. В 2012 году Google Penguin попытался оштрафовать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе. Хотя Google Penguin был представлен как алгоритм, направленный на борьбу со спамом в сети, он действительно фокусируется на спам-ссылках путем измерения качества сайтов, с которых эти ссылки приходят. В обновлении Google Hummingbird 2013 года появилось изменение алгоритма, предназначенное для улучшения обработки естественного языка Google и семантического понимания веб-страниц. Система языковой обработки Hummingbird подпадает под недавно признанный термин «Разговорный поиск», где система уделяет больше внимания каждому слову в запросе, чтобы лучше сопоставить страницы со значением запроса, а не несколько слов. Что касается изменений, внесенных в поисковую оптимизацию, для издателей и авторов контента, Hummingbird призван разрешать проблемы, избавляясь от нерелевантного контента и спама, позволяя Google производить высококачественный контент и полагаться на него как на «доверенных» авторов.
Есть вопросы? Оставьте Ваши данные и мы с Вами свяжемся!