- Регистрация
 - 05.02.2021
 
- Сообщения
 - 74
 
- Благодарностей
 - 23
 
- Баллы
 - 8
 
Кто какие модели юзает локально? Опрос делать не буду, давайте в комментах обсудим?
Я смотрел на deepseek-r1:14b, запускал в паре вместе с thinkverse/towerinstruct, используя последнюю для перевода промпта и ответа. В итоге deepseek-r1:14b очень много говна льет и долго рассуждает... 80-95% мусорного текста. Думал на llama3.2., но она слишком глуповатая что-ли...
Вы что юзаете?
								Я смотрел на deepseek-r1:14b, запускал в паре вместе с thinkverse/towerinstruct, используя последнюю для перевода промпта и ответа. В итоге deepseek-r1:14b очень много говна льет и долго рассуждает... 80-95% мусорного текста. Думал на llama3.2., но она слишком глуповатая что-ли...
Вы что юзаете?



