Senior Research Engineer, LLM Pretraining

Мы занимаемся pretrain'ом больших языковых моделей в GigaChat: проектируем архитектуру, подбираем рецепт обучения и поддерживаем весь инженерный контур вокруг него. Недавно мы обучили MoE-модель на 700 миллиардов параметров — и на этом не собираемся останавливаться. Обучение идёт на кластерах H100 и...

15
Перейти на сайт можно будет по истечению времени на таймере.

Этот проект был найден на Alot.Pro

Alot.Pro - лучший русскоязычный агрегатор фриланс проектов

что такое ALOT.pRO?

Весь фриланс рунета

Ежеминутно мы собираем все проекты и вакансии с 25 популярных сайтов

Удобный дизайн

Всё, что вам потребуется - просто выбрать категории и сайты

Мобильное приложение

У нас есть абсолютно бесплатное и сверхудобное мобильное приложение для iOS и Android =)

Top