Apple подтвердила использование Google Gemini в новой версии Siri
Компания Apple рассказала о планах использовать технологию нейросети Google Gemini в следующем крупном обновлении голосового помощника Siri. Об этом говорится в официальном заявлении, опубликованном 12 января 2026 года и процитированном изданием CNBC.
«После тщательной оценки мы пришли к выводу, что технология Google обеспечивает наиболее мощную основу для наших моделей Apple Foundation. Мы с энтузиазмом смотрим на новый инновационный опыт, который это сотрудничество откроет для наших пользователей», — заявили в Apple.
Новая версия Siri, построенная на базе Gemini, будет представлена вместе с обновлением iOS 26.4, релиз которого ожидается весной 2026 года — ориентировочно в марте или апреле.
Google подтвердила соглашение с Apple
Компания Google со своей стороны также прокомментировала соглашение с Apple, подтвердив использование нейросети Gemini в работе Siri и экосистеме Apple Intelligence.
«Apple и Google заключили многолетнее соглашение о сотрудничестве, в рамках которого следующее поколение моделей Apple Foundation будет основано на моделях Google Gemini и облачных технологиях. Эти модели помогут обеспечить работу будущих функций Apple Intelligence, включая более персонализированную Siri, которая появится в этом году.
После тщательной оценки Apple пришла к выводу, что технология искусственного интеллекта Google обеспечивает наиболее эффективную основу для Apple Foundation Models, и с нетерпением ждёт новых инновационных возможностей, которые она откроет для пользователей Apple. Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute, сохраняя при этом ведущие в отрасли стандарты конфиденциальности Apple».
Почему Apple сделала ставку на Gemini
Решение Apple опираться на технологию Google связано с вычислительной мощью и масштабируемостью моделей Gemini. По имеющимся данным, Gemini значительно превосходит текущие облачные модели Apple Foundation Models.
Ранее журналист Bloomberg Марк Гурман сообщал, что Apple может выплачивать Google около 1 млрд долларов в год за использование Gemini в Siri. Ни Apple, ни Google официально эту сумму пока не подтвердили.
Суть соглашения заключается в том, что Apple получит доступ к специализированной версии Gemini с объёмом около 1,2 трлн параметров. Для сравнения: существующие облачные модели Apple оцениваются примерно в 150 млрд параметров.

Интеграция без передачи данных Google
Несмотря на использование технологии Google, Gemini не будет напрямую интегрирован в iOS и не станет отдельным сервисом Google внутри системы.
Модель Gemini для Siri будет развёрнута на инфраструктуре Apple Private Cloud Compute. Это означает, что обработка запросов будет происходить на серверах Apple, а пользовательские данные не будут передаваться Google.
- запросы Siri останутся внутри экосистемы Apple;
- будут соблюдены действующие стандарты конфиденциальности;
- часть задач по-прежнему будет выполняться локально на устройстве.
При этом использование Gemini рассматривается как временное решение до выхода собственной более мощной ИИ-модели Apple, которую ожидают не ранее 2027 года.
Партнёрство Apple и Google шире, чем обновление Siri
Согласно совместному заявлению компаний, сотрудничество рассчитано на несколько лет и затрагивает не только Siri, но и будущие функции Apple Intelligence.
«Apple и Google заключили многолетнее партнёрство, в рамках которого следующее поколение моделей Apple Foundation будет основано на моделях и облачных технологиях Gemini. Эти модели станут основой будущих функций Apple Intelligence, включая более персонализированную Siri», — говорится в совместном заявлении компаний.
Пока не уточняется, будут ли Gemini-модели задействованы в уже существующих возможностях Apple Intelligence, таких как инструменты для работы с текстом, генерация изображений или сводки уведомлений.
Что сможет новая Siri в iOS 26.4
Более персонализированная версия Siri появится именно в iOS 26.4 — после заметной задержки, о которой ранее сообщали источники, близкие к Apple.
Ожидается, что новая Siri получит:
- более глубокое понимание личного контекста пользователя;
- осознание происходящего на экране устройства;
- расширенное управление функциями и действиями внутри приложений.
В демонстрациях Apple Siri, например, могла отвечать на вопросы о перелётах или бронировании ресторанов, используя данные из приложений «Почта» и «Сообщения».
Обновления программ, что нового
• Apple выпустила вторые бета-версии iOS 26.3, iPadOS 26.3 и macOS Tahoe 26.3 для разработчиков
• Apple внедрит Google Gemini в новую Siri с выходом iOS 26.4
• Firefox 147 доступен для загрузки
• Steam начал 2026 год с нового рекорда: Пиковый онлайн превысил 42 миллиона пользователей
• Российский энтузиаст собрал 32 ГБ DDR5-памяти за 17 тысяч рублей (вместо 50 тысяч), используя чипы от ноутбучных SO-DIMM
• Samsung Galaxy S26 Ultra и Galaxy S26 замечены в Geekbench: характеристики процессора и новые возможности камеры