Группа «Т-Технологии», входящая в Т-Банк, представила первую российскую открытую большую языковую модель T-Pro 2.0 с гибридным режимом рассуждений.
Модель можно бесплатно использовать в коммерческих целях, включая создание ИИ-агентов. Это делает T-Pro 2.0 российской альтернативой китайским DeepSeek и Qwen, которые до сих пор оставались единственными доступными моделями с подобным функционалом.
Что такое T-Pro 2.0
T-Pro 2.0 — новая версия LLM от Т-Банка с открытым исходным кодом, доступная на платформе Hugging Face под лицензией Apache 2.0. Модель содержит 32 миллиарда параметров и обладает гибридным reasoning-режимом: может мгновенно давать быстрые ответы или задействовать многошаговое рассуждение при сложных задачах.
Языковые модели с режимом рассуждений позволяют разбивать задачи на подзадачи, выстраивать логические цепочки, делать выводы и планировать действия. Это ключевая способность для создания ИИ-агентов, способных к автономному принятию решений.
В отличие от классических моделей, подходящих для задач, требующих около 30 секунд размышлений, модели с режимом рассуждений, такие как T-Pro 2.0, справляются с задачами, на которые у человека уходит до 8 минут.
Экономичность модели достигнута за счёт:
- более плотной токенизации русского языка (на 30% меньше токенов);
- возможности предсказывать несколько токенов одновременно;
- использования вспомогательной модели меньшего размера для ускорения вывода.
Где и как используется
Модель уже внедрена в ИИ-ассистентов Т-Банка: они обрабатывают до 45% клиентских обращений без участия оператора. Внутреннее использование T-Pro 2.0, адаптированной на собственных данных банка, позволило повысить долю задач, решаемых автономно, на 10% — без дополнительных затрат на разработку или поддержку.
T-Pro 2.0 также может использоваться в других сферах:
- автоматизация офисных процессов и генерация кода;
- предиктивная аналитика, логистика, геологоразведка;
- проектирование инженерных систем и промышленных объектов.
Для разработчиков и исследователей доступны:
- русскоязычные бенчмарки для оценки качества модели,
- обучающий датасет T-Wix с инструкциями и примерами (500 000 записей), предназначенный для дообучения и персонализации модели».
Экономия и качество
По словам разработчиков, T-Pro 2.0 требует вдвое меньше вычислительных ресурсов при генерации ответов на русском языке по сравнению с китайскими моделями Qwen3 и DeepSeek R1 Distil. Это делает её особенно привлекательной для малого и среднего бизнеса, где инфраструктура и бюджеты ограничены.
На русскоязычных тестах модель демонстрирует лидерство в своём классе по таким бенчмаркам, как MERA, ruMMLU, ruArena Hard и другим. В задачах, где требуется рассуждение, T-Pro 2.0 показывает более точные и воспроизводимые ответы по сравнению с аналогами.
Мнение экспертов
Участники рынка называют выпуск T-Pro 2.0 важным шагом к снижению зависимости от зарубежных LLM и API, что особенно актуально на фоне ограничений и требований к локализации данных.
- Анастасия Рысьмятова, руководитель направления LLM в «Авито»: открытая reasoning-модель позволит компаниям балансировать между качеством и затратами на генерацию.
- Максим Болотских, партнёр «Яков и Партнеры»: это уникальный для России продукт — действительно открытый и пригодный для адаптации под собственные задачи.
- Павел Приходько, главный инженер «Рокет Контрол»: локальные LLM необходимы промышленным компаниям, которые не могут использовать облачные сервисы из-за требований безопасности.
Эксперты подчёркивают, что доступ к модели в открытом формате позволяет компаниям:
- создавать собственные ИИ-решения без риска утечки данных;
- работать в закрытом контуре — без подключения к внешним API;
- экономить ресурсы за счёт локального развертывания.
С выпуском T-Pro 2.0 российский рынок получил первую открыто доступную модель с reasoning-возможностями — раньше такие были только у зарубежных поставщиков. Это усиливает цифровой суверенитет и способствует созданию конкурентоспособных решений на русском языке.
«T-Pro 2.0 сочетает лучшее качество среди открытых моделей в размере 30 миллиардов параметров с практичностью при внедрении — более быстрая генерация рассуждений на любом кириллическом языке даёт в среднем двукратную экономию ресурсов. Под лицензией Apache 2.0 каждая компания может дообучить модель на своих данных и создать собственные решения».
Виктор Тарнавский, директор по искусственному интеллекту Т-Банка:
Обновления программ, что нового
• Kaspersky для Windows. Релиз MR22: Улучшенная защита и поддержка Kaspersky Protection в Opera
• Т-Банк выпустил открытую LLM с режимом рассуждений T-Pro 2.0, российский аналог Qwen и DeepSeek
• WhatsApp пора готовиться к уходу из России – депутат Госдумы
• Nothing OS 4.0 на Android 16: дата релиза, устройства и функции
• Чат-бот Le Chat (Mistral AI) получил режим «глубоких исследований» и другие функции
• Android 16 QPR1 Beta 3 для Pixel: ключевые исправления и улучшения