В чем-то похожее на официальное признание недостатков собственных усилий в области искусственного интеллекта (ИИ), компания Apple подтвердила, что в этом году ожидается появление вспомогательного инструмента для обновленного Siri на базе Google Gemini, тем самым придав достоверность ранним сообщениям на эту тему.
Модели Apple Intelligence и новый Siri, работающий на гигантской модели Google Gemini
Марк Гурман из Bloomberg еще в ноябре 2025 года сообщал, что Apple планирует использовать гигантскую, хотя и адаптированную, модель ИИ Gemini для питания своего предстоящего обновленного Siri. Обладая 1,2 триллиона параметров, эта кастомизированная модель Gemini должна была «затмить» модель с 1,5 миллиарда параметров, разработанную Apple и используемую для поддержки Siri в облаке. Взамен, по словам Гурмана, Apple планировала платить Google до 1 миллиарда долларов в год.
Для тех, кто, возможно, не в курсе, грядущий обновленный Siri будет состоять из трех основных компонентов:
- Планировщик запросов (Query planner) — это уровень принятия решений Siri, который определяет наиболее эффективный маршрут для выполнения запроса пользователя, среди доступных вариантов — поиск в интернете, доступ к личным данным, таким как записи календаря или фотографии, или использование стороннего приложения через App Intents. App Intents, в свою очередь, является фреймворком, который делает приложение обнаруживаемым и используемым Siri, позволяя пользователям выполнять определенные действия внутри приложения, не открывая его физически.
- Система поиска знаний (Knowledge search system) — Siri получит общую базу знаний для ответов на вопросы по общим темам и викторинам, без необходимости обращаться к ChatGPT, другим сторонним ИИ-интеграциям или результатам из веба.
- Суммаризатор (Summarizer) — это основной инструмент в рамках Apple Intelligence, позволяющий Siri использовать сторонние модели ИИ, такие как ChatGPT, для обобщения заданного текста или аудиофрагмента. Он включает в себя суммирование уведомлений, веб-страниц Safari, инструменты для письма и т.д.
В рамках предполагаемой архитектуры Apple в области ИИ, адаптированная модель Gemini от Google будет отвечать за функции планировщика запросов и суммаризатора Siri, в то время как система поиска знаний будет опираться на локальные большие языковые модели (LLM) самой Apple, известные как Foundation Models под эгидой Apple Intelligence.
Стоит отметить, что Apple работает над внедрением ряда ключевых функций Apple Intelligence с весенним обновлением iOS 2026 года (iOS 26.4). К ним относятся:
- Действия в приложениях (In-app Actions)
- Siri сможет выполнять контекстно-зависимые задачи в поддерживаемых приложениях с помощью голосовых команд. Это включает добавление товара в список покупок, отправку сообщения через мессенджер или воспроизведение музыки.
- Осведомленность о личном контексте (Personal Context Awareness)
- Siri вскоре сможет использовать личные данные для предоставления персонализированных услуг, например, сканировать приложение «Сообщения», чтобы найти определенный подкаст, упомянутый в текстовом разговоре.
- Осведомленность об экране (On-Screen Awareness)
- Siri скоро получит возможность понимать контент, отображаемый на экране, и выполнять ряд агентских задач на его основе.
“После тщательной оценки мы пришли к выводу, что технология Google обеспечивает наиболее мощную основу для Фундаментальных моделей Apple, и мы воодушевлены инновационными новыми возможностями, которые она откроет для наших пользователей.”
Это заявление прозвучало на фоне того, что Тим Кук на последнем отчете о прибылях Apple отметил, что гигант из Купертино добился “хорошего прогресса” в работе над новым Siri под знаменем Apple Intelligence, и что обновленный голосовой помощник остается на пути к запуску в 2026 году.
Кроме того, отвечая на вопрос о планах Apple по интеграции других ИИ-моделей с Siri, Тим Кук заявил, что “намерение Apple состоит в том, чтобы со временем интегрироваться с большим количеством партнеров”, что убедительно свидетельствует о том, что Apple продолжает закладывать основу для Model Context Protocol (MCP) — открытого стандарта, запущенного Anthropic, который обеспечивает совместимость между ИИ-моделями и различными приложениями. В настоящее время под эгидой Apple Intelligence с Siri интегрирован только ChatGPT от OpenAI.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Rohail Saleem




