- Регистрация
- 22.03.2019
- Сообщения
- 1 826
- Благодарностей
- 1 206
- Баллы
- 113
О да, это база ))
О да, это база ))
Может кто подскажет смотрю генерит процом а не картой
/QUOTE]
GTX 1050 Ti вообще не задействуется. вся нагрузка на проц. Графическое ядро процессора отключил в диспетчере.
У меня было нечто похоже на компе, не смотря на то, что модель меньше памяти видюхи. Удаляешь конфиг и создаешь его заново, с нуля настраиваешь все параметры.На ноуте и правда странное поведение, в первую очередь грузит процессор и только потом видеокарту. Исключить камень из работы ни какими настройками не получается. На стационарном железе такой проблемы нет камень и карта +- одинаковые Посмотреть вложение 126270
Я тоже по началу подумывал генерировать картинки коболдом, но поняв, сколько это займет ресурсов отказался от этой идеи. А покопавшись в инете нашел бесплатный апи, который можно дрочить в хвост и в гриву. Пользуйся, картинки фото качества. https://zenno.club/discussion/threads/flux-1-besplatno-generiruem-kartinki-po-svoemu-promptu.122632/как отправить в Post запросе изображение + текст? нашел какой то api, все ровно не пойму - тык
подскажи, если взять видюху на 16гб, можно ли будет одновременно запускать слабую и сильную модель (при условии что хватает ресурсов видеокарты). например, для одной задачи нужны простые генерации 1 общей фразы, которую можно сделать легкой моделью. а для другой задачи - нужно написать текст, либо осмысленно отвечать на сообщения (насколько это вообще реально в этом ИИ?Я тоже по началу подумывал генерировать картинки коболдом, но поняв, сколько это займет ресурсов отказался от этой идеи. А покопавшись в инете нашел бесплатный апи, который можно дрочить в хвост и в гриву. Пользуйся, картинки фото качества. https://zenno.club/discussion/threads/flux-1-besplatno-generiruem-kartinki-po-svoemu-promptu.122632/
В LM Studio можно загружать несколько моделей, главное, что бы они суммарно поместились в памяти карты и по апи обращаться к той, либо иной.подскажи, если взять видюху на 16гб, можно ли будет одновременно запускать слабую и сильную модель (при условии что хватает ресурсов видеокарты). например, для одной задачи нужны простые генерации 1 общей фразы, которую можно сделать легкой моделью. а для другой задачи - нужно написать текст, либо осмысленно отвечать на сообщения (насколько это вообще реально в этом ИИ?), то там нужна помощнее модель. вот можно так разделять, или придется делать большущую модель для всего?
было бы круто собрать отдельный мощный ПК (видяха всего-то 1.5к баксов) и генерить фото+текст локально. если в небольших объемах то можно потянуть.
спасибо.В LM Studio можно загружать несколько моделей, главное, что бы они суммарно поместились в памяти карты и по апи обращаться к той, либо иной.
Для генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.спасибо.
FLUX - тоже интересно, но насколько там картинки соответствуют заданию? я нейронками не пользуюсь, и не знаю как оценить. лучше ли она, чем ставить локально (ее или другую) для генерации картинок?
ну в теме про флюкс человек написал, что у него стоит локально и 1 картинка генерится минуту, он пока не отписал какая видяха. видяха за 1.5к баксов на 16 гиг думаю справится с этим, если время устраивает. метод по апи - классный, но его всегда могут прикрыть/сделать платным.Для генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.
Хмм... аж интересно стало, что же это за видяха такая на 16гб и за такую цену? К примеру стоимость новой RTX 4070 ti Super около +- 1000$видяха за 1.5к баксов на 16 гиг
может в Украине цены другие. вот описание:Хмм... аж интересно стало, что же это за видяха такая на 16гб и за такую цену? К примеру стоимость новой RTX 4070 ti Super около +- 1000$
Наверное RTX 4080 или 4090?
У меня две карты: 3060 12gb и 4060 16gb, разница в производительности в среднем - 10%, а разница в цене - 30%.какая из них лучше для нейронок?
Метод безусловно классный, я не много картинок твоим шаблоном наделал, но сейчас шаблон не фурычит( Прикрыли лавочку. Разве что на веб переделатьДля генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.
Смотри внимательно апи, метод для внимательныхМетод безусловно классный, я не много картинок твоим шаблоном наделал, но сейчас шаблон не фурычит( Прикрыли лавочку. Разве что на веб переделать
Хочешь поржать? Я раз 5, если не 10, сравнивал адрес конечной точки из документации с тем что в шаблоне и у меня они были одинаковые. Точно, метод для внимательных!
При чем здесь поржать?Хочешь поржать?
Ты меня не понял. Я имел в виду, что я кучу раз смотрел API и проверял адрес конечной точки и мне казалось что всё совпадает. А на самом деле адрес слегка изменился. Вот с этого и стоит поржать! Как ты сам и написал, метод для внимательных!При чем здесь поржать?
У меня почему-то создает задания, и генерит картинки.
Посмотреть вложение 127180
Видеокарта MSI PCI-Ex GeForce RTX 4070 Ti Super 16G Gaming X Slim 16GB GDDR6X (256bit) (2685/21000) (HDMI, 3 x DisplayPort) (RTX 4070 Ti SUPER 16G GAMING X SLIM)нейронкам нужна память, а тут память одинаковая а цена разная, RTX 4070 Ti SUPER дешевле, зачем переплачивать.
И да у самого RTX 4070 Ti SUPER вот лично для моих хотелок по нейронкам хватает с головой.
Как вариант deepseek или mistral получше будутДобрый день, а тексты можно переводить этой моделью ?