Алгоритм ранжирования яндекс. Принципы ранжирования поиска яндекса. Что делать с ссылочным

2 ноября 2016 года Яндекс обьявил о введении нового алгоритма поискового ранжирования «Палех». Теперь вебмастерам придется подстраиваться и под его требования.

Напомню, что алгоритмы поискового продвижения, как это следует из их названия, предназначены для выстраивания очередности в поисковой выдаче по определенному запросу. А это очень важно для нас, вебмастеров, т.к. кому нужен сайт, расположенный в выдаче на 50 месте и более – его никто не найдет и туда никто не придет.

Обычно начинающим вебмастерам советуют делать упор на низкочастотные запросы, где гораздо легче пробиться в ТОП и с гораздо меньшими временными и денежными затратами. Вот как раз на такие запросы и ориентирован Палех.

Причем он ориентирован не просто на низкочастотные запросы, а — на очень-очень низкочастотные и даже уникальные запросы. А такие запросы опытных сеошников, как правило, мало интересуют, что дает нам шанс привлечь на свои сайты больше посетителей.

Суть Палеха заключается в том, что теперь ранжирование идет не только по точным ключевым фразам (их очень трудно угадать), но и по схожим по смыслу.

Для решения этой задачи Яндекс обратился к нейронным сетям, которые не программируются в обычном смысле этого слова, а самообучаются. Благодаря самообучению такие сети и способны улавливать смысл поисковых фраз и искать похожие. Подробнее об этом почитайте на его блоге, посвященной Палеху.

В результате Яндекс получил возможность активнее ранжировать фразы из т.н. «длинного хвоста»; тем, кто забыл, что это, напомню.

Что такое «длинный хвост»

В 2004 году шеф-редактор журнала «Wired» Крис Андерсон провел исследование продаж товара (любого товара). Его интересовал вопрос: что в наибольшей степени приносит прибыль – наиболее популярные сегодня товары (т.н. бестселлеры) или товары, выбывшие из списка бестселлеров и перешедшие в разряд ширпотреба (рестселлеры).

Оказалось, что прибыль от обеих групп товаров примерно одинаковая: бестселлеры дают очень большую прибыль в первый период своего появления, потом, с появлением других бестселлеров – более новых, первые переходят в разряд рестселлеров, но продолжают приносить прибыль – до момента снятия с продажи примерно такую же, как и в период их бестселлерства.

Если расположить все эти данные на графике, то получится примерно такая картина:

Эта теория была применена к разным областям человеческой деятельности, в том числе и к SEO. И дала превосходные показатели: оказалось, что по запросам, составляющими «длинный хвост», переходят до половины пользователей Интернета.

Представьте, что вы живете в Череповце и желаете купить стол. Вы будете писать в адресной строке запрос «мебель» или же «купить двухтумбовый письменный стол в Череповце недорого»?

Запрос «мебель» относится к топовым, а наш длиннющий запрос – к длинному хвосту. Чем больше слов употребляется в запросе, тем быстрее он окажется в самых низкочастотных. Обычно считают, что запросы с число слов более двух- трех относятся к низкочастотным, если слов еще больше — это типичный длинный хвост.

Отличный пример приведен на картинке:

Рис.2

По статистике Яндекса из 280 миллионов ежедневных запросов примерно 100 миллионов – запросы из области длинного хвоста. И на такое количество запросов надо как-то реагировать, он и отреагировал – Палехом.

Почему Палех?

Картинки с «длинным хвостом» изображают по-разному, обычно используя изображения животных: крыс, ящериц и т.д. Вот например, динозавр:

Рис.3

Но поскольку сейчас у нас в стране угар патриотизма, то Яндексу надо было найти что-то такое, чего нет ни у кого, а только у русских. Он и нашел – жар-птицу:

Рис.4

Жар-птица часто изображается на палехских миниатюрах, отсюда и «Палех», понятно?

Но изображение и название – дел десятое, нам-то, вебмастерам, что делать и чего ждать?

Берем курс на Палех

Сразу скажу, ждать от «Палеха» уже особенно нечего: он уже два месяца используется Яндексом и успел отранжировать сайты. Поэтому, если у вас за последнее время как-то изменились позиции сайта, то это его рук дело. Яндекс только обьявил 2 ноября, а так алгоритм уже действует.

Коснулся он прежде всего тех сайтов, где много контента. Если контент был хороший, то сайт начал дополнительно ранжироваться по новым ключевикам – по самым что ни на есть низкочастотным запросам. А если Яндекс посчитал его плохим…

Естественно, Яндекс на хороших, так называемых трастовых, сайтах и контент считает хорошим. А как попасть в трастовые сайты? – Это долго и дорого. Самый быстрый путь ведет через . Там есть бесплатная регистрация, но сразу скажу, что у вас, новичков, шансов мало. И есть – 14.500 рублей плюс НДС. Здесь все попроще, но 100%-й гарантии вам никто не даст.

Ну, или пишите, пишите, пишите и при этом очень старайтесь и будет вам траст. Пути к трасту хорошо описаны в Сети, поищите.

VN:F

...И сообщите о ней друзьям:

А еще Вы можете подписаться на рассылку -
у меня в запасе есть много интересных материалов.

Служебная информация о статье:

В статье кратко расматриваются особенности нового алгори тма Яндекса и даются практические советы начинающим вебмастерам

Written by: Sergey Vaulin

Date Published: 11/08/2016


Палех – новый алгоритм Яндекса , 5.0 out of 5 based on 3 ratings

В течение последних двух лет Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO . Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.

Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015–2016 годах?

Что делать для успешного продвижения в Google?

1. Расширять семантическое ядро с учётом алгоритма «Колибри».

Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.

Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина» , «доставка цветов в день заказа» или «цветочная композиция» . Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»

Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.

  • Информационные запросы (например, «как составить букет?» ) задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
  • Навигационные запросы (например, «магазин ромашка» ) используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
  • Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.

В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.

2. Совершенствовать структуру URL сайта.

Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.

  • Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
  • Множество «битых» ссылок , ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например, Screaming Frog .
  • Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.

3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.

За определение качества ссылочной массы и естественности анкор-листа в Google отвечает алгоритм «Пингвин» , последнее крупное обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). 15 октября 2015 года началась новая итерация апдейта «Пингвина» - многие сайты, торгующие ссылками через биржу Sape, были понижены в выдаче.

Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.

Как адаптировать сайт под мобильные устройства? Используйте, например, фреймворк Twitter Bootstrap. Это распространённая и очень удобная система вёрстки сайтов со стандартизированными шаблонами. А главное, что для дальнейшего улучшения сайта вам не придётся долго искать программиста, который смог бы разобраться в HTML-коде: с «Бутстрапом» знакомо большинство верстальщиков, которым не составит труда внести нужные изменения.

Как не потерять благосклонного отношения «Яндекса»?

1. Относиться к текстам как к основному инструменту продвижения.

Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр» . Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.

Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?

  • Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
  • Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?» , «Недорогие услуги... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
  • Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
  • Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
  • По возможности заменять избыточные «ключи» словами из подсказок и «Спектра ».

2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.

12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России.

Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.

Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.

а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:

  • Истории поиска . Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...
  • Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.
  • Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь») , который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.

б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград» , учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).

Таким образом, вокруг каждого пользователя формируется поисковый пузырь , из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).

Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус , постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса . Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.

Я уже несколько лет занимаюсь поисковым продвижением сайтов Евгения Попова . Для тех, кто не знает, Евгений Попов известен как успешный инфобизнесмен и автор многочисленных обучающих курсов по теме создания сайтов и информационного бизнеса.

Недавно Евгений попросил меня подготовить статью о самых важных факторах ранжирования Яндекса и Google. Я собрал и проанализировал информацию из многих авторитетных источников, плюс дополнительно подкрепил ее комментариями и пояснениями из своего многолетнего опыта по продвижению сайтов.

В итоге был создан довольно полезный PDF-отчет, который получил название «34 основных фактора ранжирования Яндекс и Google ». Данный отчет создавался в конце 2016 года, но все перечисленные факторы все также актуальны и в 2018 году, так как периодически обновляются. Особенно с учетом последних нововведений от поисковых систем. Не так давно было запущены новые алгоритмы: Баден-Баден от Яндекса и Google Fred .

Для тех, кто не любит что-то скачивать, выкладываю ниже полное содержание аналитического материала под названием: «34 основных фактора ранжирования Яндекс и Google в 2016-2017 году».

О ПОДБОРКЕ ФАКТОРОВ

Читать сотни факторов (которые учитывают поисковые системы) интересно, но не очень полезно в плане практического применения. Большинство существующих материалов на эту тему либо уже устарели, либо изначально не адаптированы под русскоязычный Интернет.

Мы проанализировали много публикаций и исследований различных факторов в авторитетных источниках (ссылки представлены ниже). Дополнительно сверили все эти утверждения с заявлениями ведущих разработчиков Google и Яндекс. В итоге получилась подборка наиболее важных факторов, которые учитывают современные поисковые системы Яндекс и Google.

Но мы представили не только описание самих факторов, но и дали по ним подробные пояснения, чтобы вы смогли внедрить те или иные моменты на своих сайтах и получить реальную пользу в
виде роста позиций в поисковых системах.

Подумайте, пожалуйста, за нас. Уберите лишнюю «воду» и дайте нам более приближенную к жизни выборку» — такую просьбу высказал один из веб-мастеров.

Сразу подчеркну, что не стоит пытаться узнать и учесть абсолютно все факторы ранжирования поисковых систем. Это бессмысленная трата времени. И прочитав текст ниже, вы поймете почему.

По известным от разработчиков данным Яндекс учитывает более 800 факторов ранжирования, а Google (как минимум) 271 фактор .

Данные по Яндексу получены из интервью руководителя поисковых сервисов Яндекса Александра Садовского для www.sostav.ru , а также из других заявлений официальных лиц.

Данные по Google получены на основе исследования ресурса northcutt.com .

Дополнительно использовались материалы статьи Брайана Дина (Brian Dean, интернет-ресурс backlinko.com). В своей работе зарубежный SEO-специалист привел описание более 200 факторов, которые учитывает Google при построении поисковой выдачи.

Ниже представлен полезный аналитический материал, но он ни в коем случае не претендует на истину в последней инстанции.

Дополнительное пояснение:

Темным цветом представлен русский перевод и описание фактора с английского языка (информация была взята из материалов статьи Брайана Дина http://backlinko.com/google-ranking-factors).

Синим цветом дается расшифровка конкретного фактора. Вы сможете прочитать не только описание, которое адаптировано под современные реалии русскоязычного Интернета, но и получите ценные советы из 7-ми летнего практического опыта от SEO-специалиста Руслана Савченко.

ФАКТОР №1. ВОЗРАСТ ДОМЕНА

«Разница между шестимесячным доменом и годовалым на самом деле не так уж велика » – Мэт Каттс (Matt Cutts) руководитель отдела веб-спама и качества поиска Google.

Поисковые системы безусловно учитывают возраст домена… но это не очень важный фактор.

Руслан Савченко : На самом деле очень важно различать понятия «возраст домена» и «возраст сайта». Многие начинающие веб-мастера покупают давно зарегистрированные доменные имена, но сайты на этих доменах не развивались.

Поисковые системы учитывают именно «возраст сайта». Если сайт был долгое время недоступен или стояла временная страница («заглушка») — это не засчитывается в возраст. В целом не стоит акцентировать большое внимание на возрасте домена, важнее работать над качеством сайта.

P.S. При покупке нового сайта (домена), обязательно проверьте его историю через сервис https://archive.org/web/ .

ФАКТОР №2. НАЛИЧИЕ КЛЮЧЕВЫХ СЛОВ В ДОМЕНЕ

Не дает такой же эффект, какой был раньше, но наличие ключевых слов в доменном имени по-прежнему учитывается. В конце концов, поисковые системы до сих пор выделяют жирным шрифтом ключевые слова, которые появляются в имени домена.

Ключевые слова в названии доменного имени учитываются, хотя это далеко не самый важный фактор. Но если есть возможность зарегистрировать доменное имя с ключевой фразой, которая точно отражает название и тематику сайта, то почему бы это не сделать?

При наличии ключевых слов в домене, они подсвечиваются. Соответственно повышается показатель кликабельности в поисковой выдаче. Если пользователь видит в адресе сайта выделение слов, которые он набрал в строке поиска, вероятность перехода на сайт повышается. Это положительный фактор, который также учитывается.

ФАКТОР №3. ИСТОРИЯ ДОМЕНА

Домен с частой сменой собственника (через WHOIS) или при не своевременном продлении регистрации («дроп»), может заставить поисковые системы «обнулить» историю сайта, и перестать учитывать ссылки, указывающие на домен.

Очень желательно, чтобы владелец домена не менялся часто. Каждая смена собственника временно «замораживает» накопленное к сайту доверие. Поисковые алгоритмы ждут, что будет делать с сайтом новый собственник.

Стоит отметить: если вы резко поменяете содержимое сайта (не дизайн, а именно тематику и сам контент), то поисковые системы также обнулят доверие к вашему сайту. Возраст домена перестанет оказывать прежнее влияние.

ФАКТОР №4. ДОМЕН ТОЧНОГО СОВПАДЕНИЯ

Домены точного совпадения (EMD) все еще могут дать вам преимущество… если, конечно, у вас качественный сайт. Но когда на таком домене размещается низкокачественный сайт, он слабо защищен от EMD-алгоритма.

Для начала давайте расшифрую, что из себя представляет так называемый домен точного совпадения (EMD).

EMD-домен (Exact Match Domain) - если переводить дословно, то это домен с точным вхождением ключевых слов. Когда вы регистрируете доменное имя, которое состоит исключительно из популярной ключевой фразы, то это может вызвать подозрение у поисковых алгоритмов. В наибольшей зоне риска находятся домены:

  • со словами в названии «купить, скачать, бесплатно и т.п.».
  • если в названии домена присутствуют исключительно слова из популярной ключевой фразы, но отсутствует уникальное имя бренда и т.п..
  • Если домен состоит из 3-х и более ключевых слов, к примеру, «купить недвижимость в Краснодаре недорого». У Google разработан специальный EMD-алгоритм, который борется с так называемыми EMD-доменами.

Фактор вхождения ключевых слов в название домена оказывает всё меньшее влияние на поисковую выдачу, но при прочих равных, поисковые системы отдадут предпочтение сайту с узкотематическим названием (содержащим ключевые слова), чем порталу с общей тематикой.

Какой сайт, по вашему мнению, лучше отвечает на запрос «ремонт BMW». Сайт с доменным именем AvtoMir.com или сайт Remont.BMW-club.com? Уверен на 100%, что (без учета остальных факторов) предпочтение отдается именно 2-му варианту. Точно так же думают Google и Яндекс.

Кстати я не зря привел пример с поддоменом 3-го уровня Remont.BMW-club.com. Вариант с доменом 2-го уровня Remont-BMW.com был бы не самым оптимальным.

Представители поисковых систем отмечали, что с большим недоверием относятся к доменам 2-го уровня, которые состоят исключительно из ключевых слов. Именно такие домены рискуют получить наказание от алгоритма EMD. Это и не удивительно, ведь не так давно, как раз на таких доменных именах создавали бесполезные для людей сайты («дорвеи»).

Но если имя домена – это название вашей фирмы или бренда в сочетании с ключевым словом, то это удачный вариант и EMD ему не грозит.

При этом если у вас стоит выбор: зарегистрировать домен состоящий из ключевых слов или из названия вашего бренда, то лучше отдать предпочтение именно второму варианту.

Ведь даже если вы не боитесь алгоритма EMD, то ссылки, ведущие на ваш сайт, уже не смогут быть полностью безанкорными. А за это можно получить наказание уже от других алгоритмов и фильтров. К примеру, тот же Google Penguin и Минусинск от Яндекса, которые наказывают сайты за большое количество внешних ссылок с прямым вхождением ключевых слов в анкор.

Но это уже тема отдельного большого разговора, поэтому переходим к следующим факторам ранжирования.

ФАКТОР №5. ПРИСУТСТВИЕ КЛЮЧЕВОГО СЛОВА В ТЕГЕ «TITLE»

Тег title является вторым по важности SEO-параметром веб-страницы (после самого контента), и поэтому оказывает сильное влияние на ранжирование по конкретному поисковому запросу.

Не стоит забывать, что именно содержимое тега «title» Яндекс и Google показывают в поисковой выдаче.

Если объяснить работу поисковых систем максимально упрощенно, то ответ на запрос пользователя формируется исходя из ключевых слов, которые присутствуют в теге title, а также в тексте самой страницы. Это один из важнейших SEO-параметров.

Другое дело, что ни в коем случае нельзя перенасыщать текст и title страницы ключевыми словами. За это у современных поисковых систем существуют различные санкции: начиная от фильтра «уникализации заголовков», заканчивая алгоритмами, которые наказывают за переспам, избыточное содержание ключевых слов в тексте страницы и т.д.

ФАКТОР №6. ТЕГ «TITLE» НАЧИНАЕТСЯ С КЛЮЧЕВОГО СЛОВА

Важно понимать, что существует заголовок страницы (он находится в теге title), который пользователи видят в результатах поисковой выдачи.

Но есть ещё заголовок к тексту на странице (он находится в теге H1). Его пользователи видят уже после того как перешли на саму страницу сайта.

Оба эти заголовка очень важны для поисковой оптимизации сайта. Поэтому ключевая фраза должна присутствовать в обоих тегах.

ФАКТОР №9. КЛЮЧЕВОЕ СЛОВО ЧАСТО УПОТРЕБЛЯЕТСЯ В ТЕКСТЕ ДОКУМЕНТА

Если ключевое слово встречается в тексте страницы чаще, чем любые другие, то это является положительным фактором соответствия страницы определенному поисковому запросу.

Именно поэтому ещё несколько лет назад оптимизаторы создавали SEO-тексты с большим вхождением ключевых слов, выделяли их жирным и т.п. В современных условиях за большое количество ключевых слов в тексте можно быстрее получить «спам-фильтр», чем добиться каких-то бонусов к релевантности страницы.

Поэтому пишите тексты, которые будет интересно читать людям, создавайте страницы, которые смогут решать конкретную проблему пользователя. В современных условиях даже одного вхождения ключевой фразы в тексте уже достаточно, чтобы она была релевантна тому или иному поисковому запросу.

ФАКТОР №10. ЛАТЕНТНО-СЕМАНТИЧЕСКИЙ ИНДЕКС КЛЮЧЕВЫХ СЛОВ В КОНТЕНТЕ (LSI)

Ключевые слова LSI помогают поисковым системам определять значения слов с болеe чем одним значением. Например, слово Apple — это компьютерная компания или фрукт. Наличие или отсутствие LSI также может выступать показателем качества контента на сайте.

В последние годы даже появился термин LSI-копирайтинг . И соблюдение определенных требований позволяет повышать релевантность определенного текста и соответственно всей страницы в целом. Давайте попробуем разобраться, что такое LSI.

Для начала приведу цитату, которую ни в коем случае не стоит пытаться понять неопытным людям. Если вы новичок, лучше сразу пропустите этот абзац. Но именно такие понятия даются, когда в некоторых авторитетных источниках подобные термины пытаются объяснить более «научным» языком: «LSI — это сингулярное разложение терм-документной матрицы, которое позволяет выловить ключевые составляющие этой матрицы и проигнорировать шумы. »

Прочитали? А теперь забудьте. Постараюсь дать более понятное объяснение:

LSI – это способ определения тематики и качества текста на основе анализа содержащихся в нем слов. Проще говоря, если в тексте встречаются слова «двигатель», «колесо», «руль» — то, скорее всего, текст про автомобиль.

Поисковые системы начали вводить алгоритмы, которые борются с перенасыщенными одними и теми же ключевыми словами текстами. Если в тексте очень часто употребляется одна и та же ключевая фраза, то у поисковых систем Яндекс и Google возникают вопросы к качеству материала.

Либо это попытка искусственно повысить значимость страницы по определенному поисковому запросу, либо автор не очень компетентен в данной теме, раз он не может использовать синонимы и в целом более богатый лексикон. И первый и второй вариант может привести к понижению страницы сайта в поиске.

Учитываются также качество оформления текста, отсутствие грамматических ошибок и многие другие параметры.

Тексты, которые написаны с учетом требований LSI, крайне редко попадают под какие-то фильтры и намного легче поднимаются на высокие места в поиске. Особенно это актуально в тематиках с высокой конкуренцией.

P.S. Проанализируйте ваших конкурентов, которые находятся на первых местах в Google и Яндекс. Посмотрите на оформление их страниц, какие слова они используют в текстах и т.п. Это даст вам много пищи для размышлений, если ваш сайт ещё не находится в ТОПе.

Но это действительно большая тема, а мне не хотелось бы вас утомлять, поэтому переходим к следующему фактору.

ФАКТОР №11. КЛЮЧЕВЫЕ СЛОВА LSI В ТЕГАХ «TITLE» И «DESCRIPTION»

Как и в случае с контентом сайта, ключевые слова LSI в мета-тегах страницы помогают определить правильное значение слов-синонимов. Это также один факторов релевантности.

Исходя из контекста алгоритмы поисковых систем понимают к какой тематике относится слово с несколькими значениями. К примеру, на сайте появился заголовок: «Зажглась новая звезда эстрады». Если бы в заголовке не было слова «эстрады», то было бы непонятно к какой тематике относить этот фрагмент текста – к астрономии или к шоу-бизнесу.

Именно поэтому важно, чтобы в тегах «title» и «description» всегда были слова, которые четко определяют тематику страницы вашего сайта.

ФАКТОР №12. СКОРОСТЬ ЗАГРУЗКИ HTML-СТРАНИЦЫ И ТЕХНИЧЕСКИЕ ОШИБКИ НА САЙТЕ

Поисковые системы учитывают скорость загрузки страницы в качестве одного из факторов ранжирования. Боты поисковых систем могут оценивать скорость вашего сайта достаточно точно, основываясь на коде страницы и размере загружаемых файлов.

Это не самый важный фактор. Тот же Александр Садовский (руководитель поисковых сервисов Яндекса) заявлял, что алгоритмы не наказывают сайт за какие-то технические ошибки и недостатки.

Но если прямых санкций и нет, то есть косвенное негативное влияние на ранжирование. К примеру, если страницы вашего сайта долго загружаются и на них постоянно возникают ошибки – это раздражает пользователей.

Чаще всего недовольные посетители просто закрывают ваш сайт и уходят к вашим конкурентам. Соответственно у вашего сайта ухудшаются так называемые поведенческие факторы. А они уже напрямую влияют на ранжирование. Более того, существует показатель «отказов». В частности, когда пользователь провел на странице вашего сайта менее 15 секунд и вернулся обратно в поиск.

Соответственно поисковые системы будут понижать ваш сайт в результатах поиска не за сами технические недостатки вашего сайта, а за последствия, которые они вызывают.

ФАКТОР №13. ПОВТОРЯЮЩИЙСЯ КОНТЕНТ (В ТОМ ЧИСЛЕ ДУБЛИ СТРАНИЦ)

Идентичный контент на одном сайте (даже слегка измененный) может отрицательным образом повлиять на видимость сайта в поисковых системах.

Дубли страниц, повторяющийся контент на разных страницах – это довольно негативные факторы. Тем самым вы забираете «вес» у своих же страниц.

Более того, вы заставляете роботов поисковых систем индексировать лишний неуникальный контент (страницы). А у поисковых ботов строго ограниченное время для каждого сайта.

ФАКТОР №14. ОПТИМИЗАЦИЯ ИЗОБРАЖЕНИЙ

Изображения на страницах передают важную информацию о их релевантности. Поисковые системы определяют тематику картинок, анализируя название файла самой картинки, и текст, который находится в тегах: alt, title, description.

В идеале нужно заполнять все теги и делать подписи к картинкам. Особенно тег alt (альтернативный текст картинки). На его содержимое поисковые системы обращают внимание в первую очередь.

Поэтому подписывайте, что изображено на картинках. Также желательно, чтобы в тегах описания изображения присутствовали ключевые слова, под которые оптимизирована сама страница.

ФАКТОР №15. ЧАСТОТА И РАЗМЕР ОБНОВЛЕНИЙ КОНТЕНТА

Поисковым системам нравится недавно обновленный контент, особенно для запросов, которые чувствительны ко времени.

Поисковые системы любят часто обновляемые сайты. Безусловно, ваши старые записи также могут хорошо ранжироваться, но, если вы внесете в них существенные изменения, что-то добавите, улучшите – все это пойдет только в плюс.

Поддерживайте ваши материалы в актуальном состоянии, либо пишите новые записи и ставьте на них ссылки с ваших старых страниц.

ФАКТОР №16. ВИДИМОСТЬ КЛЮЧЕВОГО СЛОВА

Присутствие ключевого слова среди первых 100 слов контента страницы считается значимым сигналом релевантности.

Ведь если пользователь пришел на страницу сайта и уже в начале страницы не нашел ответ на свой запрос, то он, чаще всего, закроет ваш сайт и отправится в поиск искать дальше. Поисковые системы это также понимают, поэтому присутствие ключевого слова в самом начале текста имеет двойное значение.

ФАКТОР №17. КАЧЕСТВО И ТЕМАТИКА ИСХОДЯЩИХ ССЫЛОК

Более того, многие начинающие веб-мастера начитались уже устаревших мифов о том, что исходящие ссылки забирают ценный вес их сайта и поэтому добавляют ко всем исходящим ссылкам параметр rel=«nofollow». Тем самым они не только не сохраняют вес своих страниц, а просто отдают его в никуда.

Плюс ко всему такой подход наносит вред вашему сайту. Ведь rel=«nofollow» стоит ставить только в том случае, если вы ссылаетесь на нетематический ресурс.

Проводились эксперименты на различных сайтах. Так вот страницы, с которых стояли ссылки на качественные тематические материалы по теме, занимали более высокие места в поиске, чем страницы, с которых вообще не было исходящих ссылок.

Логика здесь простая. Даже невероятно авторитетная Wikipedia, у которой показатель ТИЦ 150 000 и огромное доверие от поисковых систем – всегда ссылается на источники и дополнительные материалы по теме. Вы скажете, так у них все исходящие ссылки закрыты параметром rel=«nofollow». Да, это так, но сделано это было для защиты от спамеров. Так как пока не были предприняты эти меры, многие веб-мастера и оптимизаторы пытались любой ценой получить ссылку с Википедии.

Но вывод простой. Если вы не являетесь известным экспертом в своей области и ваш интернет-ресурс не имеет большого доверия со стороны поисковых систем, то алгоритмы Яндекса и Google вряд ли поверят, что вы написали очень качественную статью, не использовав ни одного источника и ни разу никого не процитировав.

Ещё хуже, если вы сделали рерайт или, проще говоря, переписали своими словами чужую статью. Именно с этим и ведут борьбу поисковые системы, и их алгоритмы уже очень хорошо научились определять авторов и плагиаторов.

Кстати в этом кроется небольшой секрет, почему большие аналитические статьи с неуникальными частями текста, но со ссылками на источники или другие материалы по теме, занимают высокие места в поиске. Точно также успешно живут новостные агрегаторы, которые публикуют неуникальные материалы, но всегда ставят активные ссылки на источники.

Есть и другие практические секреты, и нюансы по поводу исходящих ссылок, но нам уже пора переходить к следующему фактору.

ФАКТОР №18. ПОЛЕЗНЫЙ ВСПОМОГАТЕЛЬНЫЙ КОНТЕНТ

В соответствии с ныне общедоступным документом Google Rater Guidelines, полезный вспомогательный контент является показателем качества страницы (и, следовательно, дополнительным фактором ранжирования). К примерам можно отнести: процентные и кредитные калькуляторы, конвертеры валют, интерактивные рецепты и т.п.

Все дополнительные функции и возможности, которые несут пользу для посетителей вашего сайта, также дают дополнительные бонусы к ранжированию. Все дополнительные «фишки» влияют не столько напрямую, как косвенно. Ведь пока пользователь сайта использует калькулятор или другую функцию, он проводит дополнительное время на вашем сайте.

Таким образом, удовлетворяя и заинтересовывая посетителей вашего сайта, вы улучшаете пользовательские факторы – а это очень важно в современных условиях. Именно эти факторы оказывают прямое влияние на позиции вашего сайта в поиске Google и Яндекс.

ФАКТОР №19. МУЛЬТИМЕДИЙНЫЕ МАТЕРИАЛЫ НА САЙТЕ

Изображения, видео и другие мультимедийные материалы могут служить сигналом качества контента.

В продолжение предыдущего фактора. Благодаря красивым картинкам и качественным видео, вы можете задерживать пользователей вашего сайта и улучшать поведенческие данные. Плюс, поисковые системы лучше ранжируют страницы, на которых присутствуют изображения и видео.

При прочих равных, страница, на которой есть хотя бы одна картинка, будет занимать более высокие места в поиске, чем ее исключительно текстовый аналог.

ФАКТОР №20. КОЛИЧЕСТВО И КАЧЕСТВО ВНУТРЕННИХ ССЫЛОК, УКАЗЫВАЮЩИХ НА СТРАНИЦУ

Количество внутренних ссылок на страницу показывает ее важность относительно других страниц сайта.

Важно качество и количество ссылок на целевую страницу. Каждая страница вашего сайта имеет определенный «вес». Он может расти, если на эту страницу ведут внешние ссылки с других сайтов или имеются ссылки со страниц вашего сайта.

Соответственно, когда вы написали новую статью на какую-то тему, подумайте, а может у вас уже есть статья по схожей теме и было бы уместно сослаться на неё по нужной ключевой фразе?

ФАКТОР №21. ДЛИНА URL-АДРЕСА

Search Engine Journal отмечает, что слишком длинные URL-адреса могут навредить релевантности страницы.

Такая тенденция есть. Желательно создавать короткие URL-адреса страниц. В идеале они должны состоять из 2-3 ключевых слов, написанных на транслите.

ФАКТОР №22. ЖИВЫЕ ЛЮДИ-АСЕССОРЫ

Хотя это не было подтверждено, Google подала патент на систему, которая позволяет людям-редакторам влиять на SERP (страницу результатов поиска).

Так называемые асессоры действительно присутствуют и у Яндекса, и у Google. Конечно, сайтов миллионы, и оценить всю поисковую выдачу вручную — нереально. Но самые высокие места (ТОП 10) поисковой выдачи в наиболее конкурентных тематиках оцениваются в том числе специальными асессорами.

Именно поэтому изначально некачественные сайты имеют очень мало шансов выйти в ТОП поисковой выдачи. Даже если предположить, что владельцы «плохих» сайтов разгадают текущие алгоритмы поисковых систем и выйдут на первые места в поиске, то шансов надолго там задержаться будет крайне мало.

ФАКТОР №23. ОПТИМИЗАЦИЯ САЙТА ПОД МОБИЛЬНЫЕ УСТРОЙСТВА

Создание адаптивных сайтов в наше время – это уже не дань «моде», а реальная необходимость. Сайты, которые не адаптированы для мобильных устройств, получают штрафы от поисковых систем и сильно понижаются в результатах мобильного поиска.

Ни для кого не секрет, что большинство современных людей ищут товары и услуги в Интернете в том числе с планшетов, мобильных телефонов и т.п.

В некоторых тематиках процент пользователей, которые заходят на сайты исключительно с мобильных устройств, достигает 80%.

Поэтому если вы до сих пор не сделали дизайн вашего сайта адаптивным, то пора срочно этим заняться. Вы банально теряете новых посетителей и потенциальных клиентов.

ФАКТОР №24. КОММЕРЧЕСКИЕ ФАКТОРЫ

Если у вас коммерческий сайт, то довольно серьезное влияние на его позиции в поиске оказывают современные коммерческие факторы. К ним можно отнести: присутствие страницы контактов, удобная форма заказа, наличие доставки, доступность службы технической поддержки клиентов, широта ассортимента товаров и др.

На самом деле только самых важных коммерческих факторов можно перечислить более 30-ти. Это специфическая тема и здесь есть много нюансов, поэтому подробно данный вопрос будем рассматривать отдельно.

ФАКТОР №25. ССЫЛКИ СО СТАРЫХ ДОМЕНОВ

Полностью согласен. Но стоит отметить, что получать ссылки с авторитетных доменов довольно сложно (или дорого). Конечно, есть определенные интересные методы получения качественных и естественных ссылок (в том числе без затрат). Но это большая отдельная тема, поэтому идем далее.

ФАКТОР №26. КОЛИЧЕСТВО ССЫЛАЮЩИХСЯ ДОМЕНОВ

Количество ссылающихся доменов является одним из самых важных факторов ранжирования в алгоритме Google, в чем вы можете убедиться из графика Moz (горизонтальная ось – позиция в списке результатов поиска):

Мои личные наблюдения также подтверждают описанную выше информацию. Лучше иметь 10 обратных ссылок с 10-ти разных доменов, чем 20 ссылок, но с одного домена.

ФАКТОР №27. ССЫЛКИ С САЙТОВ-КОНКУРЕНТОВ

Здесь речь идет о следующем. К примеру, вы продвигаетесь по запросу: «купить автомобиль в Москве». Если бы вы получили ссылки с сайтов, которые стоят в ТОП 10 по этому же запросу, то это дало бы мощнейший эффект.

Но будем реалистами. В тематиках с высокой конкуренцией никто не захочет ставить ссылку на конкурента. Только если вы не гений угроз или дипломатии.

Хотя в моей практике бывали случаи, когда удавалось получить безанкорную ссылку (просто по URL-адресу) с сайта конкурента в ТОП 10. Но это больше исключение из правил.

При этом не обязательно пытаться получить ссылки с прямых конкурентов. Смотрите сайты за пределами ТОП 10. Более того, можно искать сайты по смежным запросам в этой же тематике.

Кстати в информационных тематиках есть несколько интересных подходов, благодаря которым можно получать ссылки с «непрямых» сайтов-конкурентов. Это важная и большая тема, поэтому мы обязательно рассмотрим её отдельно.

ФАКТОР №28. ССЫЛКИ И УПОМИНАНИЕ САЙТА В СОЦИАЛЬНЫХ СЕТЯХ

Ссылки и упоминание названия вашего сайта в социальных сетях дают как прямой, так и косвенный эффект для продвижения. Кстати некоторые социальные сети лучше работают для Яндекса, а некоторые для Google. И речь идет далеко не только про Facebook, Twitter и Вконтакте.

Более того, существует подход, который позволяет не только повышать доверие к страницам вашего сайта (за счет ссылок из социальных сетей), но и дополнительно продвигать конкретные поисковые запросы.

Также сейчас все более важной становится работа по получению не только ссылок, но и отзывов, упоминаний о вашем сайте на различных форумах, сайтах рекомендаций, в тех же социальных сетях. В том числе, когда на том или ином интернет-ресурсе вообще не стоит обратная ссылка на ваш сайт, а присутствует исключительно упоминание бренда или доменного имени в тексте.

Это направление получило название крауд-маркетинг и для достижения высоких результатов в конкурентных тематиках без него сложно обойтись.

ФАКТОР №29. КАЧЕСТВО КОНТЕНТА, КОТОРЫЙ ОКРУЖАЕТ ССЫЛКУ

Здесь все логично. Если страница-донор, с которой будет стоять ссылка на ваш сайт, имеет качественный и интересный контент, красивое оформление, полезные картинки, видео и т.п., то она может занимать более высокие места в поисковых системах. И такая страница будет иметь больше доверия со стороны Яндекса и Google. Соответственно, и с ссылки с такой страницы будут иметь больший вес и авторитет.

Довольно глупо приобретать ссылку на ваш сайт с качественного сайта, но размещаться в каком-то неинтересном и плохо оформленном контенте. Ещё хуже, если эта страница будет размещена в каком-то разделе с большим уровнем вложенности. К примеру, будет помещена в очень старый материал, находящийся в архиве.

Тем более владельцы качественных интернет-ресурсов вряд ли разрешат размещать на своем сайте материалы плохого качества. А если они разрешают публиковать плохие статьи со ссылками на своем сайте, то сразу же возникают вопросы к перспективам и к ценности такого сайта-донора.

ФАКТОР №30. ПОКАЗАТЕЛЬ ОТКАЗОВ

Поисковые системы вполне могут использовать пользователей, как тестеров качества (если отказов много - сайт, скорее всего, не очень хорошего качества).

«Отказом» считается, когда пользователь провел на конкретной странице сайта менее 15 секунд и ушел с обратно в поисковую выдачу. Этот фактор в сочетании с другими поведенческими данными позволяет поисковым системам дополнительно оценить качество определенных веб-страниц.

ФАКТОР №31. ПОВТОРНЫЕ ПОСЕЩЕНИЯ САЙТА

Поисковые системы также могут смотреть, возвращаются ли пользователи на сайт после первого посещения. Повторный трафик может повысить позиции сайта в списке результатов поиска.

Учитываются не только повторные посещения сайта, но и многие другие действия. К примеру, как часто пользователи сохраняют сайт у себя в закладках, переходят ли на сайт напрямую по URL-адресу, вводят ли название сайта в поиске, делятся ли ссылками на сайт и т.п.

ФАКТОР №32. КОЛИЧЕСТВО КОММЕНТАРИЕВ НА САЙТЕ

Страницы с большим количеством комментариев могут быть сигналом активности пользователей и косвенным подтверждением качества контента.

8 июня вебмастера заметили, что у сайтов изменился один из самых известных показателей – тематический Индекс Цитируемости (тИЦ) . Яндекс в блоге для вебмастеров подтвердил обоснованность наблюдений, опубликовав сообщение об изменениях в алгоритме расчета тИЦ.

Что касается непосредственно изменений, то тут Яндекс был как всегда краток и лаконичен. Понятно одно: что-то изменилось в алгоритме, но что именно – осталось загадкой.

Обновление показателя тИЦ отметили многие сервисы, анализирующие выдачу. Вот такое сообщение появилось на Tools.promosite.ru :

Интересные наблюдения с форумов о том, что тИЦ подрос на сайтах, где ничего не делалось уже достаточно длительный срок:

Также сообщается, что замечены существенные увеличения тИЦ для некоторых ресурсов СМИ и для Яндекс.Каталога:

Мы отметили изменение тИЦ для наших клиентов, проанализировав показатель для сайтов, работы с которыми были закончены в мае 2016 по услуге «Поисковое продвижение », тариф «Продвинутый».

Общее настроение после июньского апа в целом хорошее. Большинство сообщений на форумах о том, что тИЦ вырос. Это же подтверждают и наши наблюдения. По сравнению с апом в апреле, этот был более удачным. При нашей проверке тИЦ изменился у 77% сайтов. И в положительную сторону у 58%.

Скачок выше 10 пунктов был отмечен у 33% сайтов из всех ресурсов с положительной динамикой. Максимальный рост составил 390 пунктов.

Отрицательная динамика наблюдалась в 19% случаев, из них потеряли свыше 10 пунктов только 28% ресурсов. Максимальное падение составило 70 пунктов.

В среднем график изменения тИЦ после апрельского апдейта для сайтов выглядит следующим образом: сначала падение позиций в апреле, потом подъем после обновления в июне. Это же неоднократно отмечалось и в Сети.

Для большинства ресурсов с положительной динамикой мы получили подобные графики изменений в позициях по тИЦ:

Если у вас коммерческий сайт, и вы не занимаетесь продажей ссылок, то, скорее всего, рост или падение тИЦ не играет для вас никакого значения.

Конечно, приятно, что показатель, о котором пишет чуть ли не весь Интернет, у вашего сайта вырос. Но если вы не понимаете, какая от этого польза, и при его изменении с сайтом решительно ничего не происходит, скажем, не меняется количество людей на сайте, позиции в поиске, процент конверсии, размер выручки и т.д., то можно особо и не заострять внимание на колебаниях этого индекса. Вот Google вообще недавно отменил обновление своей пузомерки (PR). Теперь никто не знает, сколько она составляет, насколько упала или выросла, а занимаются продвижением ресурсов.

Собственно, и вам советуем работать над комплексным продвижением сайта , а не над тИЦ. Следить не за пузмерками, а за изменением в большую сторону реальных KPI , по которым вы определяете эффективность своего бизнеса в Сети.

Яндекса опубликована статья о действии нового алгоритма, который назвали «Палех». Он кардинально поменяет выдачу по поисковым НЧ запросам пользователя, так как задача релевантной выдачи решается с помощью нейронных сетей.

По оф. данным на долю уникальных многословных фраз, запрашиваемых не более одного раза за весь период статистики приходится больше половины.

Что такое искусственные нейронные сети?

Сокращенно ИНС – это математическая модель по принципу сетей нервных клеток живых организмов. Т.е. процессы, происходящие в мозге смоделированы в искусственный интеллект с помощью компьютерных алгоритмов. Нейросети не программируются, а обучаются и это явное отличие от прежних поисковых алгоритмов.

Сети выдается очень много примеров правильного ответа на запрос и плохо отвечающих на поставленный пользователем вопрос. Она запоминает и таким образом, обучается распознаванию релевантности запроса и страницы, т.е. понимать что хорошо, а что плохо.

Нейронная сеть после обучения может распознавать изображение на картинках.

Пример работы поиска для микро и нч запросов

На схеме две оси координат: поисковый запрос и заголовки веб-страниц. Чем ближе красная и желтая условные точки, тем релевантней страничка. На этом примере, как раз видно, что в title и в ответе поисковика нет пересекаемых слов. Но по смыслу это самая лучшая пара.

Как повлияет искусственный интеллект поиска на работу вебмастера над оптимизацией сайта?

Основа: запрос – заголовок.

На данном этапе, как заявляют разработчики Яндекса, алгоритм сравнивает задаваемые ключевые слова интернет пользователем и содержание тайтла (Title). Ему не обязательно находить ключи в точном вхождении, чтобы определить наиболее релевантную веб-страницу для выдачи. Более того, в тайтле может вообще не оказаться запрашиваемых слов, но по смыслу речь идет об одном и том же. (См. схему выше).

  1. Уделять особое внимание содержимому title.
  2. Статьи, заточенные по низкочастотные и среднечастотные запросы делать с большим количеством знаков. Чем больше текст, тем легче вставить максимальное число длинных хвостов.
  3. Использовать подзаголовки для мкрч и ассоциаций (предложений по смыслу).

Какие ошибки может допустить оптимизатор, подстраиваясь под новые условия?

В связи с тем, что учитывается содержимое в тайтле, может появиться соблазн повлиять на результат.

Серьезным неправильным шагом будет написание длинных заголовков с использованием микро-частотных хвостов в самом заголовке.

Что делать сео специалистам?

Не нужно впихивать в тайтл нечеловеческие обороты и фразы.

На то это и интеллект, хоть и искусственный, чтобы понять, чему посвящена статья. А все подходящие хвосты вставляйте в большие по объему тексты. При этом, не обязательно добавлять их все слово в слово, можно такие микро предложения разрывать.