- Регистрация
- 22.03.2019
- Сообщения
- 1 737
- Благодарностей
- 1 130
- Баллы
- 113
О да, это база ))
О да, это база ))
Может кто подскажет смотрю генерит процом а не картой
/QUOTE]
GTX 1050 Ti вообще не задействуется. вся нагрузка на проц. Графическое ядро процессора отключил в диспетчере.
У меня было нечто похоже на компе, не смотря на то, что модель меньше памяти видюхи. Удаляешь конфиг и создаешь его заново, с нуля настраиваешь все параметры.На ноуте и правда странное поведение, в первую очередь грузит процессор и только потом видеокарту. Исключить камень из работы ни какими настройками не получается. На стационарном железе такой проблемы нет камень и карта +- одинаковые Посмотреть вложение 126270
Я тоже по началу подумывал генерировать картинки коболдом, но поняв, сколько это займет ресурсов отказался от этой идеи. А покопавшись в инете нашел бесплатный апи, который можно дрочить в хвост и в гриву. Пользуйся, картинки фото качества. https://zenno.club/discussion/threads/flux-1-besplatno-generiruem-kartinki-po-svoemu-promptu.122632/как отправить в Post запросе изображение + текст? нашел какой то api, все ровно не пойму - тык
подскажи, если взять видюху на 16гб, можно ли будет одновременно запускать слабую и сильную модель (при условии что хватает ресурсов видеокарты). например, для одной задачи нужны простые генерации 1 общей фразы, которую можно сделать легкой моделью. а для другой задачи - нужно написать текст, либо осмысленно отвечать на сообщения (насколько это вообще реально в этом ИИ?), то там нужна помощнее модель. вот можно так разделять, или придется делать большущую модель для всего?Я тоже по началу подумывал генерировать картинки коболдом, но поняв, сколько это займет ресурсов отказался от этой идеи. А покопавшись в инете нашел бесплатный апи, который можно дрочить в хвост и в гриву. Пользуйся, картинки фото качества. https://zenno.club/discussion/threads/flux-1-besplatno-generiruem-kartinki-po-svoemu-promptu.122632/
В LM Studio можно загружать несколько моделей, главное, что бы они суммарно поместились в памяти карты и по апи обращаться к той, либо иной.подскажи, если взять видюху на 16гб, можно ли будет одновременно запускать слабую и сильную модель (при условии что хватает ресурсов видеокарты). например, для одной задачи нужны простые генерации 1 общей фразы, которую можно сделать легкой моделью. а для другой задачи - нужно написать текст, либо осмысленно отвечать на сообщения (насколько это вообще реально в этом ИИ?), то там нужна помощнее модель. вот можно так разделять, или придется делать большущую модель для всего?
было бы круто собрать отдельный мощный ПК (видяха всего-то 1.5к баксов) и генерить фото+текст локально. если в небольших объемах то можно потянуть.
спасибо.В LM Studio можно загружать несколько моделей, главное, что бы они суммарно поместились в памяти карты и по апи обращаться к той, либо иной.
Для генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.спасибо.
FLUX - тоже интересно, но насколько там картинки соответствуют заданию? я нейронками не пользуюсь, и не знаю как оценить. лучше ли она, чем ставить локально (ее или другую) для генерации картинок?
ну в теме про флюкс человек написал, что у него стоит локально и 1 картинка генерится минуту, он пока не отписал какая видяха. видяха за 1.5к баксов на 16 гиг думаю справится с этим, если время устраивает. метод по апи - классный, но его всегда могут прикрыть/сделать платным.Для генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.
Хмм... аж интересно стало, что же это за видяха такая на 16гб и за такую цену? К примеру стоимость новой RTX 4070 ti Super около +- 1000$видяха за 1.5к баксов на 16 гиг
может в Украине цены другие. вот описание:Хмм... аж интересно стало, что же это за видяха такая на 16гб и за такую цену? К примеру стоимость новой RTX 4070 ti Super около +- 1000$
Наверное RTX 4080 или 4090?
У меня две карты: 3060 12gb и 4060 16gb, разница в производительности в среднем - 10%, а разница в цене - 30%.какая из них лучше для нейронок?
Метод безусловно классный, я не много картинок твоим шаблоном наделал, но сейчас шаблон не фурычит( Прикрыли лавочку. Разве что на веб переделатьДля генерации картинок локально нужна карта не ниже 500к рублей, иначе не имеет смысла с этим связываться, лучше использовать метод, который я дал в соседней статье.
Смотри внимательно апи, метод для внимательныхМетод безусловно классный, я не много картинок твоим шаблоном наделал, но сейчас шаблон не фурычит( Прикрыли лавочку. Разве что на веб переделать
Хочешь поржать? Я раз 5, если не 10, сравнивал адрес конечной точки из документации с тем что в шаблоне и у меня они были одинаковые. Точно, метод для внимательных!Смотри внимательно апи, метод для внимательных
При чем здесь поржать?Хочешь поржать?
Ты меня не понял. Я имел в виду, что я кучу раз смотрел API и проверял адрес конечной точки и мне казалось что всё совпадает. А на самом деле адрес слегка изменился. Вот с этого и стоит поржать! Как ты сам и написал, метод для внимательных!При чем здесь поржать?
У меня почему-то создает задания, и генерит картинки.
Посмотреть вложение 127180
Видеокарта MSI PCI-Ex GeForce RTX 4070 Ti Super 16G Gaming X Slim 16GB GDDR6X (256bit) (2685/21000) (HDMI, 3 x DisplayPort) (RTX 4070 Ti SUPER 16G GAMING X SLIM)нейронкам нужна память, а тут память одинаковая а цена разная, RTX 4070 Ti SUPER дешевле, зачем переплачивать.
И да у самого RTX 4070 Ti SUPER вот лично для моих хотелок по нейронкам хватает с головой.
Как вариант deepseek или mistral получше будутДобрый день, а тексты можно переводить этой моделью ?