Tutorials
Compare
Подбор аппаратных ограничений для моделей
Models
- Институт искусственного интеллекта Аллена (AI2) - OLMo
- BloombergNLP: Это крупномасштабная модель размером от 3.6 миллиардов до 175 миллиардов параметров, обученная на огромном объеме данных. Она показывает хорошие результаты в задачах обработки естественного языка.
- GPT-NeoX-20B от EleutherAI: Это версия GPT-3 с 20 миллиардами параметров, доступная для использования и тонкой настройки.
- OPT от Facebook AI: Модель с открытым исходным кодом размером до 175 миллиардов параметров.
- BLOOM от Hugging Face: Мультилингвальная модель с 176 миллиардами параметров, обученная на 46 языках.
- Google - Gemma