Большая языковая модель
Выложенная в общий доступ T-Pro выпущена в размере 32,8 млрд параметров. Модель на базе модели семейства Qwen-2.5 с помощью технологии продолженного предобучения (Continual pretraining) специально адаптировали для работы на русском языке и выполнения определенных задач. Обучение происходило в формате BF16 на четырех графических процессорах NVIDIA H100. Разработчики дообучали модель на русскоязычных данных из Common Crawl, текстах книг, коде и проприетарных датасетах. На всех этапах обучения базовая длина контекста составляла восемь тыс. токенов.
Модель можно тонко настроить под выполнение требуемых бизнес-задач и/или использовать в режиме промптинга — использования для конкретных задач с помощью подробных инструкций. Разработчики предупредждают, что T-Pro не предназначена для использования в качестве готового голосового ИИ-ассистента. Также они рекомендуют использовать метод генерации с дополненной выборкой (RAG) и тонкую настройку при создании продуктов на основе модели.
T-Pro была представлена группой компаний «Т-технологии» в декабре 2024 года.
#искусственный_интеллект#генеративный_ИИ#нейросети#машинное_обучение#open_source
Разработчик:Куда движутся российские экосистемы
ICT.Moscow
Нажимая на кнопку, вы соглашаетесь с политикой конфиденциальности
ICT.Moscow — открытая площадка о цифровых технологиях в Москве. Мы создаем наиболее полную картину развития рынка технологий в городе и за его пределами, помогаем бизнесу следить за главными трендами, не упускать возможности и находить новых партнеров.