Apple подтвердила использование Google Gemini в новой версии Siri
Компания Apple рассказала о планах использовать технологию нейросети Google Gemini в следующем крупном обновлении голосового помощника Siri. Об этом говорится в официальном заявлении, опубликованном 12 января 2026 года и процитированном изданием CNBC.
«После тщательной оценки мы пришли к выводу, что технология Google обеспечивает наиболее мощную основу для наших моделей Apple Foundation. Мы с энтузиазмом смотрим на новый инновационный опыт, который это сотрудничество откроет для наших пользователей», — заявили в Apple.
Новая версия Siri, построенная на базе Gemini, будет представлена вместе с обновлением iOS 26.4, релиз которого ожидается весной 2026 года — ориентировочно в марте или апреле.
Google подтвердила соглашение с Apple
Компания Google со своей стороны также прокомментировала соглашение с Apple, подтвердив использование нейросети Gemini в работе Siri и экосистеме Apple Intelligence.
«Apple и Google заключили многолетнее соглашение о сотрудничестве, в рамках которого следующее поколение моделей Apple Foundation будет основано на моделях Google Gemini и облачных технологиях. Эти модели помогут обеспечить работу будущих функций Apple Intelligence, включая более персонализированную Siri, которая появится в этом году.
После тщательной оценки Apple пришла к выводу, что технология искусственного интеллекта Google обеспечивает наиболее эффективную основу для Apple Foundation Models, и с нетерпением ждёт новых инновационных возможностей, которые она откроет для пользователей Apple. Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute, сохраняя при этом ведущие в отрасли стандарты конфиденциальности Apple».
Почему Apple сделала ставку на Gemini
Решение Apple опираться на технологию Google связано с вычислительной мощью и масштабируемостью моделей Gemini. По имеющимся данным, Gemini значительно превосходит текущие облачные модели Apple Foundation Models.
Ранее журналист Bloomberg Марк Гурман сообщал, что Apple может выплачивать Google около 1 млрд долларов в год за использование Gemini в Siri. Ни Apple, ни Google официально эту сумму пока не подтвердили.
Суть соглашения заключается в том, что Apple получит доступ к специализированной версии Gemini с объёмом около 1,2 трлн параметров. Для сравнения: существующие облачные модели Apple оцениваются примерно в 150 млрд параметров.

Интеграция без передачи данных Google
Несмотря на использование технологии Google, Gemini не будет напрямую интегрирован в iOS и не станет отдельным сервисом Google внутри системы.
Модель Gemini для Siri будет развёрнута на инфраструктуре Apple Private Cloud Compute. Это означает, что обработка запросов будет происходить на серверах Apple, а пользовательские данные не будут передаваться Google.
- запросы Siri останутся внутри экосистемы Apple;
- будут соблюдены действующие стандарты конфиденциальности;
- часть задач по-прежнему будет выполняться локально на устройстве.
При этом использование Gemini рассматривается как временное решение до выхода собственной более мощной ИИ-модели Apple, которую ожидают не ранее 2027 года.
Партнёрство Apple и Google шире, чем обновление Siri
Согласно совместному заявлению компаний, сотрудничество рассчитано на несколько лет и затрагивает не только Siri, но и будущие функции Apple Intelligence.
«Apple и Google заключили многолетнее партнёрство, в рамках которого следующее поколение моделей Apple Foundation будет основано на моделях и облачных технологиях Gemini. Эти модели станут основой будущих функций Apple Intelligence, включая более персонализированную Siri», — говорится в совместном заявлении компаний.
Пока не уточняется, будут ли Gemini-модели задействованы в уже существующих возможностях Apple Intelligence, таких как инструменты для работы с текстом, генерация изображений или сводки уведомлений.
Что сможет новая Siri в iOS 26.4
Более персонализированная версия Siri появится именно в iOS 26.4 — после заметной задержки, о которой ранее сообщали источники, близкие к Apple.
Ожидается, что новая Siri получит:
- более глубокое понимание личного контекста пользователя;
- осознание происходящего на экране устройства;
- расширенное управление функциями и действиями внутри приложений.
В демонстрациях Apple Siri, например, могла отвечать на вопросы о перелётах или бронировании ресторанов, используя данные из приложений «Почта» и «Сообщения».
Обновления программ, что нового
• Discord вводит обязательную проверку возраста для всех пользователей
• Samsung выпустила One UI 8.5 Beta 4 для Galaxy S25 с новой функцией голосовой почты
• Список смартфонов Samsung, которые не получат обновление One UI 8.5
• Xiaomi 18 Pro и 18 Pro Max могут получить систему из двух камер по 200 Мп
• Обновления Samsung Galaxy: 2 – 8 февраля 2026 года. Тестирование One UI 8.5, патчи безопасности за январь и февраль
• Telegram для Android получил масштабный редизайн в стиле Liquid Glass