
Языковая модель
Выложенная в открытый доступ модель-энкодер (кодировщик) размером в 127 млн параметров была создана на базе созданной в Google архитектуры BERT. Она обучалась на 16 процессорах NVIDIA V100 в течение 7—8 дней с использованием SberSQUAD и ряда других датасетов.
ruBERT была представлена SberDevices и DeepPavlov в июле 2021 года.
#искусственный_интеллект#генеративный_ИИ#нейросети#машинное_обучение#open_source
Разработчик:Нажимая на кнопку, вы соглашаетесь с политикой конфиденциальности
ICT.Moscow — открытая площадка о цифровых технологиях в Москве. Мы создаем наиболее полную картину развития рынка технологий в городе и за его пределами, помогаем бизнесу следить за главными трендами, не упускать возможности и находить новых партнеров.