Кто какие модели юзает локально? Опрос делать не буду, давайте в комментах обсудим?
Я смотрел на deepseek-r1:14b, запускал в паре вместе с thinkverse/towerinstruct, используя последнюю для перевода промпта и ответа. В итоге deepseek-r1:14b очень много говна льет и долго рассуждает... 80-95%...