
Языковая модель
Модель-трансформер размером в 737 млн параметров для понимания и генерации текстов (Text-to-Text) была разработаана на базе архитектуры созданной Google нейросети T5. ruT5 существует в двух версиях: ruT5-base и ruT5-large.
Компания SberDevices представила модель в июле 2021 года.
#искусственный_интеллект#генеративный_ИИ#нейросети#машинное_обучение#open_source
Разработчик:Нажимая на кнопку, вы соглашаетесь с политикой конфиденциальности
ICT.Moscow — открытая площадка о цифровых технологиях в Москве. Мы создаем наиболее полную картину развития рынка технологий в городе и за его пределами, помогаем бизнесу следить за главными трендами, не упускать возможности и находить новых партнеров.