В 2021 году встречаются владельцы сайтов, которые продолжают использовать способы поисковой оптимизации, которые уже давно не работают и даже могут принести вред ресурсу.
Специалисты Kokoc Group Павел Талакин и Лилия Голикова – о самых распространенных "устаревших" методах SEO, а также о том, что можно и нужно делать вместо них.
Когда-то, в золотые времена, которые с ностальгией вспоминают владельцы сайтов и сеошники, попасть в топ поисковых систем было легко. Достаточно было проставить как можно больше ссылок на продвигаемые страницы. Не имело особого значения, с каких ресурсов вели линки, соответствовали они тематике вашего сайта или нет, были качественными или мусорными. Главное – их количество. За сравнительно небольшие деньги можно было купить или арендовать целую пачку беклинков.
Сейчас ссылки по-прежнему имеют значение, но не их количество, а качество. Сайт с тысячей ссылок, ведущих с мертвых или некачественных ресурсов, проиграет в позициях сайту с сотней хороших обратных линков. Более того, некачественные ссылки могут увести вас под фильтр Яндекса или Google. Их алгоритмы умеют определять покупные, неестественные ссылки, а также анализировать качество сайтов-доноров.
Поэтому сейчас работа оптимизатора заключается не в том, чтобы купить много ссылок и постоянно следить, чтобы их было больше, чем у конкурентов, а в формировании естественного ссылочного профиля.
Еще один старый способ получения ссылочной массы – автоматическая регистрация во всевозможных каталогах – тематических и не очень. Хотя сейчас все еще встречаются объявления о таких услугах, мы не рекомендуем их использовать. Вспомните, когда вы сами в последний раз обращались к какому-то интернет-каталогу? Вот и никто не обращается, посещаемости у таких ресурсов практически нет.
После прогона вы:
Вместо этого используйте ссылки из социальных сетей, с живых форумов (крауд-маркетинг) – такая ссылочная масса будет гораздо полезнее для продвижения.
Сразу отметим, что нужно отличать крауд-маркетинг, когда ссылки размещаются вручную на посещаемых ресурсах, от обычного спама. В последнем случае комментарий со ссылкой создается с помощью софта, который автоматически добавляет одинаковые комментарии на десятках тысячах ресурсов. Такие беклинки бесполезны, потому что:
Раньше одним из методов оптимизации была массовая внутренняя перелинковка с анкорами. Например, в статьях старались поставить как можно больше ссылок на другие страницы сайта, привязав их к определенным ключевым словам. Так как анкор был важен для продвижения, копирайтерам приходилось вписывать в тексты не всегда подходящие по тематике, нечитабельные слова и фразы.
В 2021 году такие неестественные анкоры не только не работают, но и могут навлечь понижение позиций за переспам текста.
Разумеется, если вы ставите полезные пользователю ссылки с уместным текстом анкора, это не повредит, а напротив, будет положительно влиять на продвижение. Увеличатся время, проведенное пользователем на сайте, количество просмотренных страниц и взаимодействие с сайтом, а также шансы, что человек сделает заказ.
Метод, использование которого еще можно встретить на очень старых сайтах – выделение всех продвигаемых ключевых слов страницы тегами <b> или <strong> (когда-то даже были дискуссии, какой тег лучше влияет на продвижение). Считалось, что таким ключевым словам Google и Яндекс уделяли больше внимания.
Сейчас этот метод уже не работает (по мнению многих, он не особо работал и тогда). Конечно, вы можете выделить ключевое слово или часть текста с ним жирным тегом, если это уместно и нужно для смыслового акцента, но вряд ли это повлияет на ваши позиции.
А вот если выделить жирным все ключевые слова в тексте, это может быть воспринято поисковиком как переоптимизация. Бан за это маловероятен, разве что у вас используются и другие черные/серые методы продвижения – но все же лишние "штрафы" от поисковика вам вряд ли нужны.
Метатеги, в том числе title, важны для продвижения, поэтому оптимизаторы всегда старались "впихнуть" в них больше ключевых слов, под которые продвигалась страница. Часто тайтл из-за этого превращался в совершенно нечитабельную конструкцию: перечень ключевиков, еще и в точной форме, слегка "склеенных" неким подобием смысла.
Однако в 2021 году нет необходимости "подсказывать" поисковым системам, о чем ваша страница, таким методом. Они прекрасно могут определять тематику и релевантность запросам по всему содержанию страницы и по нормальному тайтлу, написанному для людей.
Сейчас для продвижения более значима другая оценка title – его кликабельность в поисковой выдаче. Необходимо формировать заголовок страницы так, чтобы пользователь, увидев его среди других на странице выдачи, заинтересовался и кликнул по нему. Распространенный и работающий метод – составлять title и description как рекламное объявление Google Ads или Яндекс.Директ: указывать не только ключевые слова, но и выгоды, удобства для покупателя.
Если пользователей будет привлекать тайтл-страницы, они будут по нему кликать и переходить на сайт, это будет учтено поисковыми системами как положительный фактор ранжирования. Кроме того, это будет работать на увеличение поискового трафика, конверсий и вашей прибыли: ведь чтобы пользователь что-то у вас купил, нужно чтобы он зашел на сайт.
Те, кто давно работает с SEO, прекрасно помнят этот метод оптимизации, который был одним из основных. Текст на странице насыщался ключевиками по максимуму. На задний план отодвигалась естественность и читабельность текста, важно было "скормить" поисковому краулеру как можно больше продвигаемых ключевых слов. Объяснялось это несовершенством поисковых алгоритмов. Они рассчитывали релевантность страницы запросу довольно примитивно, в том числе по количеству ключевых слов на ней.
Потом алгоритмы усовершенствовались, поисковики внедрили технологии искусственного интеллекта. Сейчас Google и Яндекс отлично понимают запросы пользователей в любой форме и умеют сопоставлять с ними содержание сайта даже по синонимам и общей тематике. За переоптимизированные тексты поисковики стали накладывать фильтры на сайт, понижая позиции или вообще убирая из выдачи. Об этих санкциях сейчас знают практически все, и вряд ли кто-то станет сознательно оптимизировать тексты таким образом.
Однако из-за настороженного отношения поисковиков к плотности ключевых слов на странице необходимо контролировать этот показатель, чтобы случайно не попасть под фильтр. Ведь кто-то может написать текст, перенасыщенный ключевыми словами, и без намерения его оптимизировать. Для проверки можно использовать text.ru, advego.com и другие ресурсы, которые покажут % ключевых слов в тексте.
Возьмем такой список ключей:
Они отличаются, но интент (смысл запроса) у них один и тот же – пользователь хочет купить желтую уточку для ванны.
Раньше под каждый такой запрос создавалась отдельная страница, и ее продвижение прорабатывалось отдельно. Метод довольно неплохо работал, но после усовершенствования алгоритмов Google и Яндекс в нем отпала необходимость. Поисковики научились определять похожие по смыслу слова и понимать, что хочет пользователь.
Теперь можно не тратить усилия на продвижение нескольких страниц, а сосредоточиться на одной, оптимизировав ее сразу под все похожие ключи. Для этого после сбора семантического ядра проводится кластеризация – объединение одинаковых по интенту ключевых слов в кластеры, которые будут продвигаться на одной странице.
Когда-то считалось, что чем больше текста на странице, тем лучше для ранжирования. Отчасти это было связано с необходимостью вписать на страницу побольше ключевых слов. Создавались портянки-описания даже там, где просто не о чем было писать по существу – к гвоздям, шурупам и другим подобным товарам.
Сейчас это совсем не обязательно. Мы не говорим, что длинные тексты вредны – будет только плюсом, если вы добавите на страницу больше полезной для пользователя информации. Но объем только ради объема точно не нужен.
Проанализировав конкурентов в топе Яндекса или Google, вы можете увидеть, что у них на странице большие тексты; в этом случае, да, скорее всего вам также понадобится написать не меньше. Но если у конкурентов на страницах товара описание на 500 знаков, и эти страницы в топе, значит, объем текста для продвижения здесь не имеет особого значения, и вы можете сконцентрироваться на более важных вещах.
Еще два метода черного/серого SEO, которые нанесут сайту вред.
Аффилиаты – сайты-дубли основного сайта, принадлежащие одной организации, которые создавались ради того, чтобы занять больше мест в поисковой выдаче и вытеснить из нее конкурентов. Делали сайт-дубликат довольно простым путем: основной сайт копировали на другой домен, немного изменяли дизайн, размещали другие телефоны, другое название компании. Сайт оптимизировали и выводили в топ. В итоге получалось, что первая и вторая позиции поисковой выдачи были заняты разными ресурсами, но оба принадлежали одной компании.
Сателлиты – сайты для ссылок на основной сайт, т. е. для наращивания ссылочной массы. Также создавались примитивно, конвейерным методом. На сателлитах был простенький дизайн, копипастные тексты (или нечитабельные, заказанные по 10 рублей за штуку на биржах). Они не были предназначены для людей или продвижения, их единственной задачей были ссылки на основной сайт.
Сейчас оба эти метода не работают вообще или могут привести к проблемам в ранжировании.
Аффилиаты легко определяются поисковой системой по:
Если два ваших ресурса будут определены как аффилиаты, Google (или Яндекс) оставит в выдаче только один из них. И хорошо, если это будет основной сайт, а не дубликат.
Использование сателлитов для ссылок перестало работать потому, что для поисковика стало иметь значение качество сайта-донора. Ссылки с созданных массово на коленке ресурсов не только не улучшат ваши позиции, а наоборот, могут их ухудшить.
О значении поведенческих факторов поисковые системы объявили всего лишь несколько лет назад, и практически сразу появились специалисты и целые компании, предлагающие их накрутку. За определенную сумму боты (или живые люди) будут вбивать в Яндекс (или Google) нужные запросы, переходить на ваш сайт из результатов поисковой выдачи, переходить по страницам сайта, кликать на кнопки, даже положат товары в корзину – в общем, будут имитировать действия реального заинтересованного пользователя.
В Google проблема подобной накрутки пока не стоит так остро, а вот Яндекс ведет борьбу с этим явлением уже несколько лет. С переменным успехом, конечно, победа оказывается то на стороне студий-"накрутчиков", то на стороне Яндекса. Прошло уже две волны показательных банов сайтов и контор, искусственно завышающих поведенческие сигналы, однако проблема еще не решена окончательно.
Учтите, что:
Поэтому мы рекомендуем сосредоточить свои усилия на улучшении поведенческих факторов естественными способами:
Что объединяет все перечисленные выше устаревшие методы? Правильно, стремление вывести сайт в топ поисковой системы каким-нибудь хитрым методом, при этом полностью исключая из SEO-стратегии самый важный фактор – пользователя. Для которого, собственно, сайты и должны быть предназначены.
Алгоритмы Яндекса и Google нацелены на то, чтобы высоко ранжировать ресурсы, которые нравятся людям. Все технологии машинного обучения и ИИ работают, чтобы научиться как можно точнее понимать желания пользователя и его оценку сайтов.
Поэтому приоритеты в SEO-стратегии желательно сместить именно в эту сторону: делать сайт удобным, привлекательным и полезным именно с точки зрения пользователя.