Я тоже начинал с локальных нейронок в ST, но они ничего не понимают кроме инглиша и даже на нем очень тупые по сравнению с чем-то вроде GLM-5. Ладно, у тебя 24гб врам, а у меня 12 гб, так что я быстро перешел на облака. Сейчас по подписке у меня выходит 320кк входящих за 8 баксов, которые я все равно не трачу (но GLM весьма дорогая, так что ~15-30 баксов в месяц у меня все равно выходит).
Грейс стала бьюти европейкой
Так а почему это плохо? Авторская задумка теряется?
Фанаты начинают строить теории, изучать, искать лорные связи и... тут какой-то блогер сообщает, что это все тупо "ИИ-промпт за 3 секунды" и создателям было лень рисовать и/или заказывать у художников арты...
Типа если это какой-то фрилансер нарисует это что-то изменит? Добавь в промпт лорные связи и иишка их также реализует.
А 3090 у тебя бесплатно работает? Закинь 10 баксов и тебе дадут 1000 запросов в сутки на фришные модели, типа https://openrouter.ai/minimax/minimax-m2.5:free
А зачем его закрывать?
Больше кастомизации панели задач, включая возможность перемещать её в разные части экрана.
И пяти лет не прошло.
В чем проблема использовать НЕ локальные модели? Ты боишься что корпораты украдут твой код или что?
Конечно твой qwen будет тупой, какой он вообще? Какое контекстное окно стоит?
Кот вообще пиздец конечно, вот так лучше.
Тут тонна карточек и есть промпты (presets) https://chub.ai