Яндекс YATI – алгоритм, основанный на специфических правилах ранжирования. В 2021 году он занял ведущую роль в продвижении даже высокочастотных запросов. Сеошники, продвигающие сайты белыми методами, хорошо понимают его механизмы действия.
С 25 сентября 2020 года после последнего излома позиций поисковых запросов, апдейты и степень изменения выдачи Яндекса показали, что ранжирование происходит совершенно по новому трансформеру. Основная составляющая, которая теперь учитывается, — смысловая. Действие алгоритма обеспечивает работа нейросетей, то есть трансформеров и моделей машинного обучения. Исходя из специфики российского поиска, в русскоязычной среде в него внедрили важные доработки.
Сортировка сайтов проводится вместе с другими полезными составляющими: поведенческими, хостовыми, с учетом ссылок. Поэтому топ выдача поиска по определенному запросу стала содержать сайты, ранжируемые по различным факторам. Поисковая фраза может даже не содержаться целиком, решающую роль играет релевантный смысл текста. Таким образом факторы смысл стали играть решающую роль.
В первую очередь охватываются низкочастотные и среднечастотные запросы. Хотя в некоторых случаях ресурс может повыситься и по ВЧ, после того, как требования нового алгоритма были учтены на сайте.
Для чего разработан YATI
Поскольку основная задача роботов – дать пользователю исчерпывающий ответ на запрос, алгоритм оценивает содержимое страницы и сравнивает его по смыслу, практически как человек. Выбирает ту страницу, которая даст пользователю максимально полную информацию, не перегруженную дополнительными данными.
До 2016 года поисковые роботы учитывали только 1/10 часть текста, рассматривая ключевые фразы. Сам текст просто игнорировался, несмотря на внедрение латентно-семантического индексирования.
Поисковые системы рассматривали сайты поверхностно, понимали лишь заголовки и вхождение ключевых слов, иногда синонимы, общепринятые термины, указанные в тегах.
Более умный робот YATI выполняет другую задачу, оцениваю полностью всю информацию страницы. Ранжирование Яндекса для пользователей впервые улучшилось за последние 10 лет.
Попытки ввести нейросети были и ранее.
Сначала на поиск стал влиять алгоритм Палех – он уже понимал суть самих запросов, заголовков и подзаголовков. Для этого применялись буквенные триграммы и биграммы слов. Анализ подвергались только первые 150 сайтов из поиска, то есть, первая десятка и еще пять страниц.
В 2017 был внедрен алгоритм Королев – он учитывал не только ключевые слова и метатеги, но и сам контент, по крайней мере, важные отрывки. Анализу подверглись уже 200 тысяч документов.
YATIсо своей новой технологией анализа текста работает гораздо продуктивнее, чем Палех и Королев вместе.
Трансформеры для пользы посетителей
Внедрение трансформеров дало возможность оценивать целые документы независимо от размера, выделяя значимые части, с учетом порядка слов и влияния их друг на друга.
При этом алгоритм справляется даже со сложными задачами, когда реальные ключи и документы могут видеть и пользователи.
Робот может прочитать какой материал понравится пользователям больше, и машина обучается ранжировать контент по релевантности запросу.
Конкурентом YATI является западный алгоритм BERT, и некоторые считают, что это усовершенствованные аналоги. Однако в русском языке иностранные алгоритмы делают много ошибок. Несмотря на то, что в глобальном масштабе западная машина круче, многослойная нейронка YATI способна разделять ответы и запросы, искать сущность материала.
Как подготовить сайт по требованиям YATI
- Проводите конкурентный анализ.
- Оптимизируйте текст с учетом ключевых слов и их синонимов.
- Расставляйте акценты в тексте.
Одним из важных аспектов является полное вхождение низкочастотных ключевых фраз для коммерческих сайтов. Что касается средне – и высокочастотных ключей, подобная тенденция отсутствует – их можно разбавлять и заменять синонимами. Также важно для низкочастотников вхождение ключей в Н1 или Н2, тайтл. Требование к статьям может включать вхождение слов из подсветки, использование фраз, задающих тематику, включение около-тематических слов, даже отсутствующих в тематике, но присутствующих у конкурентов.
Тексты важно разбивать на подразделы и составлять грамотные подзаголовки.
Анализировать переходы по URL: иногда проще поменять нерелевантный контент на странице, если количество переходов довольно существенное.
С учетом алгоритма YATI рекомендуется расширять семантику с большим количеством низкочастотных запросов с длинными хвостами. Контент делать более развернутый, чем у конкурентов, однако не забивать его нерелевантной информацией, даже если для этого придется освежить семантическое ядро.
При этом не забывайте, что новые изменения – только дополнение к списку требований, предъявляемых поисковыми системами сайтам в ТОПовой выдаче. По-прежнему актуальны количество страниц ресурса, структура, качество и уникальность контента, ссылочная масса, количество посетителей, ПФ.
Таким образом мы наблюдает прогресс в сторону естественной и качественной подачи информации, который обеспечивают нейронные сети трансформеры.