Оптимизация для поисковых систем, или SEO, — это большой бизнес. И хотя некоторые методы SEO полезны, большая часть ежедневной мудрости по SEO, которую можно встретить в Сети, сводится к суевериям. Набирающий популярность подход, ориентированный на большие языковые модели (LLM) и называемый «фрагментацией контента» (content chunking), может попасть в эту категорию. В последнем выпуске подкаста Google Search Off the Record Джон Мюллер и Дэнни Салливан заявляют, что разбиение контента на мелкие кусочки для LLM вроде Gemini — плохая идея.
Вы, вероятно, видели сайты, использующие фрагментацию контента, и недоумевали, и на то есть веские причины — этот контент создан не для вас. Идея состоит в том, что если вы разбиваете информацию на более короткие абзацы и разделы, то генеративные ИИ-боты, такие как Gemini, с большей вероятностью смогут усвоить и процитировать её. В результате получаются короткие абзацы, иногда всего из одного-двух предложений, и множество подзаголовков, оформленных в виде вопросов, которые можно задать чат-боту.
По словам Салливана, это заблуждение, и Google не использует подобные сигналы для улучшения ранжирования. «Одна из вещей, которую я постоянно вижу в советах и рекомендациях, когда люди пытаются понять, что делать с LLM или чем-то подобным, — это превращать контент в мелкие кусочки, потому что LLM нравится всё очень маленькое, верно?» — сказал Салливан. «Так вот… мы не хотим, чтобы вы это делали».
Дискуссия, которая начинается примерно с 18-й минуты подкаста, наглядно иллюстрирует тщетность слепого следования последним трендам SEO. Салливан отмечает, что консультировался с инженерами Google, прежде чем делать это заявление. По всей видимости, лучший способ занять высокие позиции в Google по-прежнему заключается в создании контента для людей, а не для машин. Это обеспечивает долгосрочную видимость в поиске, поскольку поведение людей — то, что они выбирают для клика — является важным сигналом для Google.
Google предоставляет лишь общие рекомендации по SEO, оставляя интернет-экспертам в области SEO гадать на костях и читать по кофейной гуще, чтобы понять, как работает поисковый алгоритм. Этот подход приносил плоды в прошлом, но не каждое SEO-предложение оказывается удачным.
Бурное текущее состояние Интернета, характеризующееся нестабильным трафиком и стремительным ростом использования ИИ, может побудить издателей, испытывающих трудности, пробовать больше «змеиного масла» в SEO, такого как фрагментация контента. Когда трафика мало, люди будут замечать любой подъём и связывать его с внесёнными изменениями. Когда происходит обратное, что ж, это просто неудачный день.
Новое суеверие в отношении контента может сперва показаться работающим, но в лучшем случае это артефакт текущих причуд Google — компания не создаёт LLM, чтобы те любили разделённый контент. Салливан признает, что могут существовать «крайние случаи», когда фрагментация контента кажется эффективной.
«Отлично. Это то, что происходит сейчас, но завтра системы могут измениться», — сказал он. «Вы создали всё это специально для системы ранжирования, а не для человека, потому что пытались добиться большего успеха в системе ранжирования, а не сосредоточиться на человеке. А затем системы совершенствуются, вероятно, так, как системы всегда пытаются совершенствоваться, чтобы вознаграждать контент, написанный для людей. Всё то, что вы сделали, чтобы угодить этой системе LLM, что могло сработать, а могло и нет, может не сохраниться в долгосрочной перспективе».
Вероятно, фрагментация не исчезнет до тех пор, пока издатели смогут указывать на положительный эффект. Однако Google, похоже, считает, что «нарезка» контента для LLM не является жизнеспособным будущим для SEO.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Qual-score: 8/9
Bajan-score: 0.599 / 0.563 / 0.597 / new
Автор – Ryan Whitwam




