поисковая выдача была максимально релевантна пользовательской потребности, отраженной в поисковом запросе. Поэтому интернет пользователи до сих пор максимально доверяют “топ 10” от Яндекса и Гугла, считая, что умная машина поставит туда проверенные и надежные сайты.
Но так как доля уникальных неповторяющихся поисковых запросов в сутки составляет 30-40% от общей массы, то задача создания релевантного топа оказалась очень сложна.
Для решения проблемы сложных запросов появился алгоритм “Палех” – он работает на основе использования нейронных сетей для ранжирования сайтов. Если раньше ранжирование базировалось на количестве вхождения ключевых слов, ссылочном профиле сайта, его индикативных показателях, поведенческих характеристиках аудитории, уникальности дизайна и контента и более 150 других разноплановых факторов, то сейчас Яндексу удалось обучить алгоритм распознавать страницы с подходящим содержимым, что должно обеспечить более релевантную поисковому запросу выдачу.
PR в поисковых системах: имидж, продажи, влияние. Как это делать?