- Регистрация
- 05.02.2021
- Сообщения
- 68
- Благодарностей
- 21
- Баллы
- 8
Кто какие модели юзает локально? Опрос делать не буду, давайте в комментах обсудим?
Я смотрел на deepseek-r1:14b, запускал в паре вместе с thinkverse/towerinstruct, используя последнюю для перевода промпта и ответа. В итоге deepseek-r1:14b очень много говна льет и долго рассуждает... 80-95% мусорного текста. Думал на llama3.2., но она слишком глуповатая что-ли...
Вы что юзаете?
Я смотрел на deepseek-r1:14b, запускал в паре вместе с thinkverse/towerinstruct, используя последнюю для перевода промпта и ответа. В итоге deepseek-r1:14b очень много говна льет и долго рассуждает... 80-95% мусорного текста. Думал на llama3.2., но она слишком глуповатая что-ли...
Вы что юзаете?