Группа «Т-Технологии», входящая в Т-Банк, представила первую российскую открытую большую языковую модель T-Pro 2.0 с гибридным режимом рассуждений.
Модель можно бесплатно использовать в коммерческих целях, включая создание ИИ-агентов. Это делает T-Pro 2.0 российской альтернативой китайским DeepSeek и Qwen, которые до сих пор оставались единственными доступными моделями с подобным функционалом.
Что такое T-Pro 2.0
T-Pro 2.0 — новая версия LLM от Т-Банка с открытым исходным кодом, доступная на платформе Hugging Face под лицензией Apache 2.0. Модель содержит 32 миллиарда параметров и обладает гибридным reasoning-режимом: может мгновенно давать быстрые ответы или задействовать многошаговое рассуждение при сложных задачах.
Языковые модели с режимом рассуждений позволяют разбивать задачи на подзадачи, выстраивать логические цепочки, делать выводы и планировать действия. Это ключевая способность для создания ИИ-агентов, способных к автономному принятию решений.
В отличие от классических моделей, подходящих для задач, требующих около 30 секунд размышлений, модели с режимом рассуждений, такие как T-Pro 2.0, справляются с задачами, на которые у человека уходит до 8 минут.
Экономичность модели достигнута за счёт:
- более плотной токенизации русского языка (на 30% меньше токенов);
- возможности предсказывать несколько токенов одновременно;
- использования вспомогательной модели меньшего размера для ускорения вывода.
Где и как используется
Модель уже внедрена в ИИ-ассистентов Т-Банка: они обрабатывают до 45% клиентских обращений без участия оператора. Внутреннее использование T-Pro 2.0, адаптированной на собственных данных банка, позволило повысить долю задач, решаемых автономно, на 10% — без дополнительных затрат на разработку или поддержку.
T-Pro 2.0 также может использоваться в других сферах:
- автоматизация офисных процессов и генерация кода;
- предиктивная аналитика, логистика, геологоразведка;
- проектирование инженерных систем и промышленных объектов.
Для разработчиков и исследователей доступны:
- русскоязычные бенчмарки для оценки качества модели,
- обучающий датасет T-Wix с инструкциями и примерами (500 000 записей), предназначенный для дообучения и персонализации модели».
Экономия и качество
По словам разработчиков, T-Pro 2.0 требует вдвое меньше вычислительных ресурсов при генерации ответов на русском языке по сравнению с китайскими моделями Qwen3 и DeepSeek R1 Distil. Это делает её особенно привлекательной для малого и среднего бизнеса, где инфраструктура и бюджеты ограничены.
На русскоязычных тестах модель демонстрирует лидерство в своём классе по таким бенчмаркам, как MERA, ruMMLU, ruArena Hard и другим. В задачах, где требуется рассуждение, T-Pro 2.0 показывает более точные и воспроизводимые ответы по сравнению с аналогами.
Мнение экспертов
Участники рынка называют выпуск T-Pro 2.0 важным шагом к снижению зависимости от зарубежных LLM и API, что особенно актуально на фоне ограничений и требований к локализации данных.
- Анастасия Рысьмятова, руководитель направления LLM в «Авито»: открытая reasoning-модель позволит компаниям балансировать между качеством и затратами на генерацию.
- Максим Болотских, партнёр «Яков и Партнеры»: это уникальный для России продукт — действительно открытый и пригодный для адаптации под собственные задачи.
- Павел Приходько, главный инженер «Рокет Контрол»: локальные LLM необходимы промышленным компаниям, которые не могут использовать облачные сервисы из-за требований безопасности.
Эксперты подчёркивают, что доступ к модели в открытом формате позволяет компаниям:
- создавать собственные ИИ-решения без риска утечки данных;
- работать в закрытом контуре — без подключения к внешним API;
- экономить ресурсы за счёт локального развертывания.
С выпуском T-Pro 2.0 российский рынок получил первую открыто доступную модель с reasoning-возможностями — раньше такие были только у зарубежных поставщиков. Это усиливает цифровой суверенитет и способствует созданию конкурентоспособных решений на русском языке.
«T-Pro 2.0 сочетает лучшее качество среди открытых моделей в размере 30 миллиардов параметров с практичностью при внедрении — более быстрая генерация рассуждений на любом кириллическом языке даёт в среднем двукратную экономию ресурсов. Под лицензией Apache 2.0 каждая компания может дообучить модель на своих данных и создать собственные решения».
Виктор Тарнавский, директор по искусственному интеллекту Т-Банка:
Обновления программ, что нового
• Apple выпустила вторые бета-версии iOS 26.3, iPadOS 26.3 и macOS Tahoe 26.3 для разработчиков
• Apple внедрит Google Gemini в новую Siri с выходом iOS 26.4
• Firefox 147 доступен для загрузки
• Steam начал 2026 год с нового рекорда: Пиковый онлайн превысил 42 миллиона пользователей
• Российский энтузиаст собрал 32 ГБ DDR5-памяти за 17 тысяч рублей (вместо 50 тысяч), используя чипы от ноутбучных SO-DIMM
• Samsung Galaxy S26 Ultra и Galaxy S26 замечены в Geekbench: характеристики процессора и новые возможности камеры
