Как я уже говорил ранее, искусственный интеллект вторгается в ваши беспроводные наушники, хотите вы того или нет, и эта тенденция может распространиться и на AirPods. Согласно утекшему коду с прототипа iPhone, работающего на ранней сборке iOS 26, AirPods могут получить значительную дозу Apple Intelligence уже весной 2026 года.
По данным MacRumors, среди грядущих функций — Visual Look Up, существующая функция Apple Intelligence, которая предоставляет информацию об объектах, на которые вы направляете камеру, или о фотографиях на вашем телефоне. Эта функция традиционно работала в Safari и приложениях Photos/Camera и аналогична другим функциям поиска на основе компьютерного зрения, встречающимся в телефонах Pixel, а также в гаджетах с ИИ, таких как очки Ray-Ban Meta AI. Означает ли это просто улучшенную интеграцию AirPods с Visual Look Up на вашем iPhone? Или здесь кроется более важное (основанное на камере) обновление AirPods?
Согласно MacRumors, также есть упоминание Contextual Reminders — ещё одной функции Apple Intelligence, которая использует ИИ для отображения напоминаний на основе таких данных, как геолокация. Теоретически, вы можете использовать эту функцию для установки напоминаний вроде «напомни мне купить молоко, когда я буду в магазине» или «напомни мне выпить воды, когда я буду в спортзале», но, будем надеяться, для второго вам не понадобится телефон.

Возможно, самой загадочной ссылкой на функцию ИИ в находках MacRumors является «ConversationBreakthroughVQA», которая может относиться к Intelligent Breakthrough — функции Apple Intelligence, использующей ИИ для определения, когда нарушить параметры ваших режимов «Фокусирование» или «Не беспокоить» для доставки важных уведомлений. Я не на 100% уверен в этом, поскольку оно не ссылается на «Intelligent Breakthrough» дословно. Возможно, это похожая функция, которая решает, когда прервать вас чтением уведомлений во время перевода или прослушивания музыки? Возможно, это просто Intelligent Breakthrough под другим внутренним названием?
Меня интригует тот факт, что в конце присутствует «VQA», что может быть отсылкой к «visual question answering» — техническому способу описания компьютерного зрения, которое отвечает на вопросы об окружающей среде. Говоря о «визуальном», две из трёх функций также вызывают тревогу в контексте слухов о том, что Apple рассматривает возможность включения камер в будущие версии своих AirPods. Излишне говорить, что и Visual Look Up, и Conversation Breakthrough с добавленным «VQA» вызывают ассоциации с компьютерным зрением и требуемыми им камерами. Возможно, эти «камерные» наушники действительно не за горами?
Не всё в коде, рассмотренном MacRumors, связано с ИИ. Также есть упоминание «precise outdoor location understanding», что кажется отсылкой к некоторому типу поиска местоположения на уровне AirTags. Хотя определённые модели AirPods (AirPods Pro 2 и выше, а также AirPods Max) имеют функцию точного поиска, дальность действия в настоящее время ограничена. Примерно от 9 до 18 метров, если у вас AirPods Pro 2, и около 60 метров, если у вас AirPods Pro 3 с чипом Apple U2 Ultra Wideband. Этот чип, для справки, находится в зарядном кейсе, а не в наушниках. Сложно сказать, планирует ли Apple расширить этот диапазон, или она просто нашла способ сделать отслеживание более точным в пределах этого диапазона, но в любом случае трудно спорить, поскольку оба варианта могут вас выручить.
Очевидно, что ссылки в коде — это не так уж много, поэтому многое из этого остаётся спекуляцией, но если эти фрагменты кода верны, нам не придётся долго ждать, чтобы точно узнать, какие новые функции Apple приготовила для AirPods.
Автор – James Pero




