Выход HebrewGPT откладывается
Понимаю, что информация о выходе модели HebrewGPT была отложена на неопределенный срок из-за неизвестных событий. Эта модель разрабатывается Ямом Пелегом, основателем фирмы Deep Trading, и предназначена для работы с ивритом и английским языком. Она базируется на первой версии Llama, несмотря на то, что на тот момент уже была доступна вторая версия Llama.
Обучение HebrewGPT было выполнено на 300 миллиардах токенов, что делает его одним из самых крупных дообучений модели Llama.
Интересно, что HebrewGPT была заявлена как открытая и open source модель, и её представление было запланировано на 9 октября в офисе акселератора стартапов AWS в Тель-Авиве. Однако события, начавшиеся в субботу, привели к отсрочке этого мероприятия.
На данный момент, без дополнительной информации о событиях и причинах отсрочки, трудно сказать, как это повлияет на релиз HebrewGPT и будущие планы Яма Пелега.