Т-Банк выпустил открытую LLM с режимом рассуждений T-Pro 2.0, российский аналог Qwen и DeepSeek

2025-07-18 864 комментарии
Группа «Т-Технологии» представила T-Pro 2.0 — первую открытую российскую языковую модель с гибридным режимом рассуждений. Она подходит для создания ИИ-агентов, требует меньше вычислений и доступна под лицензией Apache 2.0

Группа «Т-Технологии», входящая в Т-Банк, представила первую российскую открытую большую языковую модель T-Pro 2.0 с гибридным режимом рассуждений.

Модель можно бесплатно использовать в коммерческих целях, включая создание ИИ-агентов. Это делает T-Pro 2.0 российской альтернативой китайским DeepSeek и Qwen, которые до сих пор оставались единственными доступными моделями с подобным функционалом.

Что такое T-Pro 2.0

T-Pro 2.0 — новая версия LLM от Т-Банка с открытым исходным кодом, доступная на платформе Hugging Face под лицензией Apache 2.0. Модель содержит 32 миллиарда параметров и обладает гибридным reasoning-режимом: может мгновенно давать быстрые ответы или задействовать многошаговое рассуждение при сложных задачах.

Языковые модели с режимом рассуждений позволяют разбивать задачи на подзадачи, выстраивать логические цепочки, делать выводы и планировать действия. Это ключевая способность для создания ИИ-агентов, способных к автономному принятию решений.

В отличие от классических моделей, подходящих для задач, требующих около 30 секунд размышлений, модели с режимом рассуждений, такие как T-Pro 2.0, справляются с задачами, на которые у человека уходит до 8 минут.

Экономичность модели достигнута за счёт:

  • более плотной токенизации русского языка (на 30% меньше токенов);
  • возможности предсказывать несколько токенов одновременно;
  • использования вспомогательной модели меньшего размера для ускорения вывода.

Где и как используется

Модель уже внедрена в ИИ-ассистентов Т-Банка: они обрабатывают до 45% клиентских обращений без участия оператора. Внутреннее использование T-Pro 2.0, адаптированной на собственных данных банка, позволило повысить долю задач, решаемых автономно, на 10% — без дополнительных затрат на разработку или поддержку.

T-Pro 2.0 также может использоваться в других сферах:

  • автоматизация офисных процессов и генерация кода;
  • предиктивная аналитика, логистика, геологоразведка;
  • проектирование инженерных систем и промышленных объектов.

Для разработчиков и исследователей доступны:

Экономия и качество

По словам разработчиков, T-Pro 2.0 требует вдвое меньше вычислительных ресурсов при генерации ответов на русском языке по сравнению с китайскими моделями Qwen3 и DeepSeek R1 Distil. Это делает её особенно привлекательной для малого и среднего бизнеса, где инфраструктура и бюджеты ограничены.

На русскоязычных тестах модель демонстрирует лидерство в своём классе по таким бенчмаркам, как MERA, ruMMLU, ruArena Hard и другим. В задачах, где требуется рассуждение, T-Pro 2.0 показывает более точные и воспроизводимые ответы по сравнению с аналогами.

Мнение экспертов

Участники рынка называют выпуск T-Pro 2.0 важным шагом к снижению зависимости от зарубежных LLM и API, что особенно актуально на фоне ограничений и требований к локализации данных.

  • Анастасия Рысьмятова, руководитель направления LLM в «Авито»: открытая reasoning-модель позволит компаниям балансировать между качеством и затратами на генерацию.
  • Максим Болотских, партнёр «Яков и Партнеры»: это уникальный для России продукт — действительно открытый и пригодный для адаптации под собственные задачи.
  • Павел Приходько, главный инженер «Рокет Контрол»: локальные LLM необходимы промышленным компаниям, которые не могут использовать облачные сервисы из-за требований безопасности.

Эксперты подчёркивают, что доступ к модели в открытом формате позволяет компаниям:

  • создавать собственные ИИ-решения без риска утечки данных;
  • работать в закрытом контуре — без подключения к внешним API;
  • экономить ресурсы за счёт локального развертывания.

С выпуском T-Pro 2.0 российский рынок получил первую открыто доступную модель с reasoning-возможностями — раньше такие были только у зарубежных поставщиков. Это усиливает цифровой суверенитет и способствует созданию конкурентоспособных решений на русском языке.

«T-Pro 2.0 сочетает лучшее качество среди открытых моделей в размере 30 миллиардов параметров с практичностью при внедрении — более быстрая генерация рассуждений на любом кириллическом языке даёт в среднем двукратную экономию ресурсов. Под лицензией Apache 2.0 каждая компания может дообучить модель на своих данных и создать собственные решения».

Виктор Тарнавский, директор по искусственному интеллекту Т-Банка:

© . По материалам РБК
Комментарии и отзывы

Нашли ошибку?

Новое на сайте