Проектируйте для человеческих моментов, затем позвольте ИИ масштабировать.

искусственный интеллект,машинное обучение,ранжирование контента,персонализация,социальные сети,llm

Эффективный дизайн продукта начинается с наблюдения за пользователями и определения задач, основываясь на поведении, а не функциях. ИИ и машинное обучение для улучшения ранжирования контента и персонализации в соцсетях.

Эффективный дизайн продукта начинается с наблюдения за тем, как люди естественно используют платформу, и определения основных “задач, которые необходимо выполнить”, основываясь на человеческом поведении, а не на технических функциях. Пользователи приходят с конкретными, часто невысказанными целями — “присоединиться” к сообществу (для нового хобби), “задать” вопрос (чтобы получить инструктивный совет) или просто “смотреть” контент (для развлечения или информации). Стратегическое внимание уделяется пользователям, которых традиционные системы часто недостаточно обслуживают, таким как пользователи с “холодным стартом” (с низким уровнем сигналов) и маргинальные пользователи (с низкой частотой вовлечения). Для многих маргинальных пользователей такие продукты сообщества, как группы и Reddit, являются основным — иногда единственным — вариантом использования; задача состоит в том, чтобы определить их конкретные потребности (коммерция, нишевые интересы, образ жизни) и показать ощутимую ценность, которая поможет им перейти в категорию пользователей с более высокой лояльностью. Решения разрабатываются для непосредственного решения этих задач. Например, рекомендации групп дополнительно настраиваются за пределами оптимизации для опытных пользователей, чтобы выявлять активные сообщества локальной полезности и группы, ориентированные на установление связей, для маргинальных групп, чтобы система отвечала реальным потребностям людей.

Система ранжирования является основным интерфейсом продукта. Необходимо понимать, какой контент приносит наибольшую пользу пользователям и бизнесу, а затем строить цели и циклы обратной связи вокруг этого. Пользователи часто сталкиваются с низким разнообразием и воспринимают некоторые рекомендации как слишком общие; качество характеризуется релевантностью, разнообразием и полезностью. Для количественной оценки субъективного качества мы используем базовые сигналы на основе больших языковых моделей (LLM) — например, классифицируем контент как утилитарный и анализируем комментарии на предмет релевантности и сфокусированности. Эти сигналы улучшают поиск и ленту новостей до начала ранжирования. Затем целевые функции оптимизируют взвешенные результаты (взвешенную сумму действий пользователей и сообщества, веса которых устанавливаются в зависимости от ассоциации с будущими сеансами), а успех подтверждается долгосрочными показателями — вовлечением, которое способствует переходу от низкой к высокой активности, а не просто разовым CTR.

Ключевым моментом является защита круга друзей и семьи при интеграции контента от создателей и сгенерированного контента в пропорциях, которые расширяют возможности поиска, но не подавляют и не крадут его.

Большинство социальных платформ превращаются в поисковые системы для несвязанного контента, которые развивают изучение на основе интересов, продолжая использовать известные интересы. Каннибализация управляется явно, а сигналы переносятся между поверхностями в три этапа: устранение пробелов в сигналах, применение сигналов при извлечении и ранжировании и повышение оперативности, чтобы новые интересы появлялись быстро. Во время масштабирования Reels целевые показатели портфеля сохраняли видимость друзей и семьи, в то время как несвязанные рекомендации расширялись. Передача сигналов позволила группе мягко направлять Reels к смежным интересам, не перегружая ленту, сохраняя основную социальную ценность и расширяя возможности поиска.

Системы AI/ML должны обеспечивать быстрый и надежный опыт в различных условиях — качество сети, ограничения устройства и цифровая грамотность. Постоянной проблемой является задержка между новым сигналом (например, присоединением к группе) и появлением релевантного контента в системе; медленная адаптация подрывает доверие. Мы уделяем приоритетное внимание сигналам в реальном времени от текущих/недавних сеансов и используем счетчики затухания, чтобы новые интересы появлялись в течение нескольких часов, а не дней. Для поиска мы используем гибридное извлечение, которое сочетает сопоставление ключевых слов с вложениями и передовыми языковыми моделями, обеспечивая релевантность даже для расплывчатых запросов (например, сопоставление “маленьких индивидуальных пирожных с глазурью” с “кексами”). Результатом является оперативность, которую пользователи могут почувствовать, и система, на которую они могут положиться.

При миллиардах пользователей негативное изменение на 0,1% может существенно подорвать доверие и бизнес. Мы проводим тщательные измерения на взаимосвязанных поверхностях и сосредотачиваемся на рентабельности передачи сигналов между поверхностями — не только на всплесках времени, проведенного за просмотром, но и на переходе к более высоким состояниям вовлеченности. Операционные меры предосторожности включают в себя криминалистический анализ для углубления понимания пробелов в качестве контента, регулярные проверки контента, автоматизированные мониторы качества и выключатели/автоматический откат. Для оценки в масштабе LLM-as-a-Judge (все чаще мультимодальный) предоставляет стабильные и надежные сигналы качества там, где ручная маркировка является переменной и дорогостоящей. Искусство заключается в сочувствии к важным моментам в жизни людей; наука — это генеративный ИИ плюс масштабируемые системы ранжирования. Вместе они превращают огромную социальную сеть из статического каталога в адаптивную поисковую систему.

(*) Имейте ввиду: редакции некоторых изданий могут придерживаться предвзятых взглядов в освящении новостей.
6/8