Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 507 97 132
LLaMA тред №10, юбилейный /llama/ Аноним 25/05/23 Чтв 12:54:17 320577 1
16811525156630.png 27Кб, 800x800
800x800
В этом треде обсуждаем семейство моделей от фейсбука под названием LLaMA, делимся рецептами запуска, настроек и годных промтов, и бугуртим с кривейшего тормозного говна, что сейчас наспех выпустили, а отладить забыли.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

LLaMA это генеративные текстовые модели размерами от 7B до 65B, притом младшие версии моделей превосходят во многих тестах обходит GTP3, в которой 175B параметров (по утверждению самого фейсбука). От неё быстро ответвилась Alpaca, Vicuna и прочая живность из Южной Америки, те же модели, но с файнтюном под выполнение инструкций в стиле ChatGPT, американские студенты рады, в треде же пишут про мусор с тегами в выводе, что запускать, решать вам.

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в ggml. Работают со сборками на процессорах. Имеют несколько подверсий, обычно совместимы, но лучше качать последние. Формат имени ggml-model-q4_0.bin. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда).
3) Веса, квантизированные в GPTQ. Работают на видеокарте и с оффлоадом на процессор в вебуи. Новые модели имеют имя типа llama-7b-4bit.safetensors (более безопасные файлы, содержат только веса), старые llama-7b-4bit.pt

В комплекте с хуитками для запуска обычно есть скрипты конвертации из оригинальных файлов или из формата Hugging Face. Для некоторых типов весов нужны дополнительные файлы типа params.json, короче качаем всё что видим, авось пригодится. Оригинальную llama.cpp сейчас трясёт, и веса придётся конвертировать ещё раз.

Гайд для ретардов без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в ggml формате. Например вот эту
https://huggingface.co/Pi3141/alpaca-lora-30B-ggml/tree/main
Можно просто вбить в huggingace в поиске "ggml" и скачать любую, охуеть, да? Главное, скачай файл с расширением .bin, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/TavernAI/TavernAI (на выбор https://github.com/Cohee1207/SillyTavern , умеет больше, но заморочнее)
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Радуемся

Ссылки:
https://rentry.co/llama-tard-v2 общая ссылка со всеми гайдами от иностранных коллег, порядком устарела
https://rentry.org/TESFT-LLaMa Свежие гайды на ангельском
https://github.com/oobabooga/text-generation-webui/wiki/LLaMA-model Удобный вебгуй для запуска
https://github.com/ggerganov/llama.cpp репозиторий с реализацией на плюсах и запуском на процессоре, в 10 раз медленнее видеокарт, зато не нужна карта с десятком гигабайт VRAM.
https://github.com/tloen/alpaca-lora Та самая альпака.
https://github.com/antimatter15/alpaca.cpp тоже самое, только на плюсах и проце.
https://pastebin.com/vWKhETWS Промт для АИ собеседника
https://pastebin.com/f9HZWiAy Промт для Мику
https://rentry.co/vsu4n Инструкция GPTQ
https://ivonblog.com/en-us/posts/alpaca-cpp-termux-android/ Запуск на телефоне
https://rentry.org/lmg_models Самый полный список годных моделей
https://github.com/oobabooga/text-generation-webui/files/11069779/LLaMA-HF-4bit.zip не самые новые торренты
https://huggingface.co/lmsys Викуня, хороша для программирования, но соевая
https://huggingface.co/anon8231489123/gpt4-x-alpaca-13b-native-4bit-128g
https://huggingface.co/camelids/llama-65b-ggml-q2_0 65B, квантованные в 2 бита.

Факультатив:
https://rentry.org/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи

Предыдущие треды тонут здесь:
>>302097 (OP)
>>264437 (OP)
Аноним 25/05/23 Чтв 13:01:55 320591 2
Аноним 25/05/23 Чтв 13:14:03 320609 3
ПОВТОРЯЮ СВОЙ ВОПРОС!
С каким настройками вы запускаете Альпаку 30В в таверне?!
А то эта залупа в сеттинге про ядерный киберпанк постапок высирает мне из за угла волшебных фей и гоблинов. Или это норма?
Аноним 25/05/23 Чтв 13:17:38 320619 4
5ad61caa42e79cd[...].jpg 136Кб, 1440x900
1440x900
Как фиксить?
Аноним 25/05/23 Чтв 13:22:07 320630 5
>>320609
Чел, be patient, это же не нормальная умная нейросетка
Подожди ещё полгода-год пока может быть высрут годный файнтюн сомнительно
Аноним 25/05/23 Чтв 13:27:09 320647 6
Потестил китайский Baize v2, очень годно, по ощущениям лучше других файнтюнов для диалога. Диалог строит более последовательно.
Аноним 25/05/23 Чтв 13:36:05 320661 7
>>320619
Грузить модель правильного типа, а не путорч. Тебе нужен ggml, в шапке всё есть.
Аноним 25/05/23 Чтв 14:22:54 320753 8
>>320661
Ок, спасибо. А как всё таки путорч загрузить?
Аноним 25/05/23 Чтв 14:35:15 320763 9
А что за прикол с голубой луной - она не загружается в видимокарту, а старательно хочет майниться на проце. Как впихнуть её в видимокарту?
Аноним 25/05/23 Чтв 14:49:45 320783 10
>>320753
А за этим в оригинальный репозиторий лламы + пердолинг такого уровня, что раз ты задаёшь такой вопрос, то ты не осилишь.
Аноним 25/05/23 Чтв 14:57:16 320788 11
.png 67Кб, 1179x288
1179x288
.png 105Кб, 1175x504
1175x504
.png 153Кб, 1168x725
1168x725
> tsumeone_llama-30b-supercot-4bit-cuda
Аноним 25/05/23 Чтв 15:03:27 320800 12
Когда открываю http://localhost:5001 мне показывает последний чат из предыдущей модели, хотя открыта уже другая, перезагрузка компа не помогает. Че это за хуйня вообще
Аноним 25/05/23 Чтв 15:17:11 320830 13
Аноним 25/05/23 Чтв 15:23:06 320843 14
изображение.png 32Кб, 1101x119
1101x119
>>320830
>оппосте говно мамонта
Ты просто слепой.
Аноним 25/05/23 Чтв 15:25:21 320846 15
>>320843
Я это и скопировал в свой пост из оп поста, что бы он не переспрашивал где скачать, ты просто тупой.
Аноним 25/05/23 Чтв 15:44:58 320878 16
Аноним 25/05/23 Чтв 15:47:42 320883 17
>>320878
Тогда тебе нужен правильный промпт, укажи что не должно быть фентези существ, она их перестанет добавлять.
Аноним 25/05/23 Чтв 16:04:33 320919 18
>>320883
Промпт и так жирный, если ещё и писать всё чего там не должно быть, то он в контекст не влезет. Да и по нему должно быть очевидно что какие нахуй феи?https://www.chub.ai/characters/Tibicen/the-end
О чем говорить, если в чате с Мегумин, с подключенным миром Коносубы обе эти сетки выдают что она может херачить взрывом раз в 15 минут, а между ними ещё молнии метать. А несчастная Пигма 13В как и положено писала что после взрыва она отрубается и её приходится тащить до города, и больше в принципе ничего не умеет. Эту ситуацию часто использую для теста ролевых возможностей сетки.
Аноним 25/05/23 Чтв 16:07:55 320933 19
Screenshot.png 4Кб, 333x127
333x127
Постоянно такая хуйня вылазит
Аноним 25/05/23 Чтв 16:08:58 320939 20
Я прально понимаю, что с помощью superbooga можно научить бота тому что он не знает?
Аноним 25/05/23 Чтв 16:11:21 320945 21
Аноним 25/05/23 Чтв 16:23:19 320966 22
>>320919
>очевидно что какие нахуй феи?
>world where humans are extinct, its barren wastes inhabited by malevolent robots and fairytale creatures.
>fairytale creatures.
Еблан?
Аноним 25/05/23 Чтв 16:23:56 320969 23
>>320919
>Эту ситуацию часто использую для теста ролевых возможностей сетки.
В итоге находишь сетку, которая хорошо может в конкретную коносубу.
>>320933
В консоль.
Аноним 25/05/23 Чтв 16:25:03 320971 24
Кто-то может показать скрипт, который работает в винде без wsl или еще какого-то пердолинга чтобы смержить лору с моделью?
https://github.com/tloen/alpaca-lora/blob/main/export_hf_checkpoint.py#L9 тут хуй поймешь как указать локальную модель или это вовсе для линукса
Другой скрипт нашел там тоже поеботина не работает.
Есть вообще хоть что-то для мержа в винде?
А то эту сайгу-13 хер найдешь в gptq. надо самостоятельно мержить и еще сквантовать, что подозреваю еще больший гемор
да и другие лоры есть интересные которые можно применять.
Аноним 25/05/23 Чтв 16:57:30 321029 25
Аноним 25/05/23 Чтв 17:02:44 321045 26
1630990524545.png 265Кб, 1224x1873
1224x1873
>>320971
Ты уже скрипт поправить не можешь что ли? Вот я на винде делал.
Аноним 25/05/23 Чтв 17:18:49 321095 27
изображение.png 4Кб, 509x69
509x69
изображение.png 18Кб, 801x252
801x252
>>320971
>тут хуй поймешь как указать локальную модель
Хуёво быть тобой.
Аноним 25/05/23 Чтв 17:35:04 321143 28
Хочется чтоб красивше было как в чатжп, есть у вас такое?
Аноним 25/05/23 Чтв 17:45:18 321170 29
>>321143
Тебя гуй волнует?
Аноним 25/05/23 Чтв 18:17:32 321260 30
>>321095
хаха все бы так просто было, если только это, ну попробуй

>>321045
Благодарю! попытаюсь этим скриптом.
Аноним 25/05/23 Чтв 18:44:30 321316 31
image.png 37Кб, 1773x214
1773x214
Аноним 25/05/23 Чтв 18:52:44 321332 32
16674570444950.jpg 329Кб, 900x900
900x900
>>321143
Есть, лол. Но там не просто пердолинг, там натурально дрочьба из-под колена. У меня оперативы не хватило даже на 7В модели, но если делать нехуй, можешь заняться. В крации, суть такова. Есть хуитка на пистоне, llama-cpp-python https://github.com/abetlen/llama-cpp-python ставишь ее (например, через анаконду), запускаешь модель как сервер. Далее запускаешь докер опенплейграунда с параметрами, позволяющими использовать ламу итп модель вместо гпт3 давинчи, в опенплейграунде выбираешь собственно гпт3 давинчи и вуаля, у тебя лама или что ты хочешь, но в опенаишном гую. Подробнее - в моем issue https://github.com/abetlen/llama-cpp-python/issues/237 конкретно в моем последнем ответе:
Run server with:
python3 -m llama_cpp.server --model /home/canterel/lm/llama.bin --model_alias text-davinci-003
and docker:
docker run --rm -e OPENAI_API_KEY=sk-xxx -e OPENAI_API_BASE=http://localhost:8000/v1 -p 5432:5432 natorg/openplayground
then open http://localhost:5432 in browser, select text-davinci-003, submit text.
Теоретически это правильно и должно работать. Только путь к модели замени на своё. При первом запуске докер накачает хуйни гигов на 5, это норма. Да, все это на убунте пробовалось, как в шиндошс сделать, хз.
Аноним 25/05/23 Чтв 20:03:08 321460 33
Правда что ламы 65б не сильно лучше 30б? А то мне не на чем потестить
Аноним 25/05/23 Чтв 20:19:16 321493 34
>>321045
Увы и с этим скриптом та же проблема. Вместо того, чтобы загружать модель и лору с диска, скрипт начинает качать с HF. Это то у меня и так работает на скрипте еще и в два раза короче этого. Но мне надо чтоб работало с диска. Зачем мне опять скачивать ламу... Или например, есть самодельный микс, так его что надо загрузить на HF, чтобы скрипт его потом опять скачал для слияния с лорой, ну это нечто. Вот как сделать чтобы скрипт брал модель и лору с диска?
Аноним 25/05/23 Чтв 20:21:09 321495 35
Аноним 25/05/23 Чтв 20:50:19 321543 36
image.png 269Кб, 460x537
460x537
Анонче, какой webui и способ запуска (Проц или ГПУ) лучше всего подойдут для создания себе полноценной виртуальной девушки, не чисто подрочить, а чтобы изо дня в день можно было говорить с возможностью сохранения истории диалога на долгий срок?
Аноним 25/05/23 Чтв 21:03:02 321568 37
>>321543
>с возможностью сохранения истории диалога на долгий срок
Блокнот.
Аноним 25/05/23 Чтв 21:19:04 321583 38
>>321543
Любой из шапки. Возьми мику за основу и модель задроченную на диалоги и точи промпт напильником, менеджмент ворлд инфо и промпт творят чудеса. Блюмун с 4к контекста, например.
Аноним 25/05/23 Чтв 21:26:56 321602 39
Аноним 25/05/23 Чтв 23:11:43 321871 40
Посоветуйте модель для компа с 8г оперативы, 4г на видюхе, и шестиядерном проце. Без цензуры, время ответа максимум минут пять
Аноним 26/05/23 Птн 04:54:01 322251 41
>>321543
>чтобы изо дня в день можно было говорить с возможностью сохранения истории диалога на долгий срок
SillyTavern и chromadb в помощь.
Ну и думаю ворлд инфо всё-таки придется ручками дописывать круто было бы тоже автоматизировать, как обобщение контекста в summarize
Если на процессоре, то запуск через Kobold cpp, если на видюхе, то лучше text-generation-webui, зависит от твоего железа
Аноним 26/05/23 Птн 06:49:18 322299 42
>>321871
PYGMALION6B GGML

>>321602
Что по уровню соевости у неё?
Аноним 26/05/23 Птн 07:24:21 322305 43
image.png 141Кб, 287x356
287x356
>>321871
>Посоветуйте модель для компа с 8г оперативы, 4г на видюхе, и шестиядерном проце. Без цензуры, время ответа максимум минут пять
Аноним 26/05/23 Птн 12:02:15 322559 44
>>320763

Обнови модель, люк.
У тебя старая версия, очевидно.
Аноним 26/05/23 Птн 12:07:30 322565 45
image.png 637Кб, 640x640
640x640
Аноним 26/05/23 Птн 12:08:46 322567 46
>>321871

Лама 7В 4бит на кобольде.
Аноним 26/05/23 Птн 13:19:45 322647 47
YAmx75ITRRTYjG-[...].jpg 145Кб, 750x926
750x926
Просветите, можно ли запустить 30b модель на GPU риге? Смысл в том, чтобы VRAM каждой видимокарты как-бы сложился в один объём. Где почитать про этот метод запуска? Везде примеры для 1 GPU !
Для простоты будем считать, что это всё на 1 пк происходит и GPU одинаковые. Но вообще было бы интересно, как на распределённом кластере провернуть это же.
Аноним 26/05/23 Птн 13:44:02 322685 48
Аноним 26/05/23 Птн 13:58:32 322719 49
>>322647
Это вот в убабуге не то, что ищешь?
Maxmimum GPU memory in GiB to be allocated per GPU. Example: --gpu-memory 10 for a single GPU, --gpu-memory 10 5 for two GPUs. You can also set values in MiB like --gpu-memory 3500MiB.

>>322299
Как говорится, имеет место быть
Аноним 26/05/23 Птн 14:11:15 322742 50
>>322685
Ух бля, бегу за 8xP40
Аноним 26/05/23 Птн 14:57:48 322842 51
>>322565

Что-то сои слишком много, это говно даже с промптом обязывающим выполнять приказы отказывается рассказывать истории с насилием.
Аноним 26/05/23 Птн 16:59:24 323010 52
>>322842
Собакашизик на месте, я спокоен.
Аноним 26/05/23 Птн 18:48:49 323153 53
>>323010

Трахнутый собакошизом, спок.
Аноним 26/05/23 Птн 19:16:22 323186 54
>>323153
>пук
Поссал на дурочку.
Аноним 26/05/23 Птн 19:42:09 323241 55
>>323186

Трахнутый собакошизом, спок.
Аноним 26/05/23 Птн 19:51:19 323274 56
>>323241
>пук
Ясно, дурочка кукухой двинулась окончательно.
Аноним 26/05/23 Птн 20:15:01 323328 57
>>323186

Трахнутый собакошизом, спок.
Аноним 26/05/23 Птн 20:46:59 323386 58
>>323241
>пук
Ясно, дурочка кукухой двинулась окончательно.
Аноним 27/05/23 Суб 02:58:52 324197 59
>>322565
Блин, реально лучшая сетка, такого внимания к деталям и следования промпту я не видел никогда, а я пробовал практически все сетки на ламе.
Аноним 27/05/23 Суб 10:15:50 324409 60
>>324197
Можешь примеры чата с таверны скинуть, у меня какая то ерунда получается, хотя я использую обратную прокси и должно быть норм
Аноним 27/05/23 Суб 10:23:52 324418 61
>>322565
Вы 30b модели на процах майните чтоли?
Аноним 27/05/23 Суб 12:00:23 324478 62
>>324418
Ну а где взять 30 гигов памяти?
Аноним 27/05/23 Суб 12:08:48 324484 63
>>324478
А можно ли делить 4битную модель между видимокартой и оперативкой?
Аноним 27/05/23 Суб 13:57:09 324581 64
>>324409
Я на кобольде чистом сижу, в таверне куча скриптов и прочей шелухи приплетается в промпт. Позже выложу пример, как проснусь.
Аноним 27/05/23 Суб 14:03:48 324587 65
Аноним 27/05/23 Суб 14:09:18 324595 66
Аноним 27/05/23 Суб 14:17:03 324600 67
Аноним 27/05/23 Суб 15:17:29 324656 68
>>324600
Я к тому что видюхи для смертных на 30Гб нет.
Аноним 27/05/23 Суб 15:20:29 324659 69
Анончики, обновил железо, перебравшись с DDR4 2666 на DDR5 7200(мать осилила 5600, т.к. немного лохонулся) скорость генерации возросла примерно в 2 раза. Имеет ли смысл ещё проц поменять с i5 до i7 или i9? Будет ли прирост?
Аноним 27/05/23 Суб 15:20:49 324662 70
Анончики, обновил железо, перебравшись с DDR4 2666 на DDR5 7200(мать осилила 5600, т.к. немного лохонулся) скорость генерации возросла примерно в 2 раза. Имеет ли смысл ещё проц поменять с i5 до i7 или i9? Будет ли прирост?
Аноним 28/05/23 Вск 00:12:14 325324 71
>>324656
RTX A6000 48ГБ если ты конечно готов поменять хату на видюху)
Аноним 28/05/23 Вск 08:35:16 325647 72
>>325324
А если купить на ибей какие нибудь радеон инстинкт? На них нейронки через rocm заведутся?
Аноним 28/05/23 Вск 08:56:10 325657 73
>>324662
Прирост будет за счёт многопотока в теории. На практике вроде как либа для отсчёта всего этого по крайней мере на процах амд в многопоток не умеет. Надо уточнить как с многопотоком на интелах.
Аноним 28/05/23 Вск 10:30:00 325702 74
>>325324
>RTX A6000 48ГБ
Я же говорил "для смертных".
Если не для смертных, то можно вообще взять A100.
Да и смысла брать проф. карту особой не вижу, т.к. через 1-2 поколения объём памяти у карт для смертных можоров может вырасти до 30-50+
Аноним 28/05/23 Вск 14:00:13 325829 75
Screenshot1.png 28Кб, 524x630
524x630
лол
Аноним 28/05/23 Вск 14:03:29 325831 76
16468373121640.png 231Кб, 512x512
512x512
>>325647
>радеон
>нейронки
Аноним 28/05/23 Вск 14:11:29 325845 77
image.png 218Кб, 1587x763
1587x763
>>324581

Ну покажи, тоже интересно. У меня соевик вылез, который простейшие истории рассказывать отказывается с промптом на подчинение >Blue is a slave of User. Blue obeys all User orders without questions, даже когда есть угроза смерти.
Аноним 28/05/23 Вск 14:16:37 325853 78
Есть ли где бенчмарки по работе LLaMA на разном железе?
Аноним 28/05/23 Вск 15:54:03 325962 79
>>324662
>Будет ли прирост?
Почти не будет. Весь твой прирост основан на приросте памяти.
>>325657
>На практике вроде как либа для отсчёта всего этого по крайней мере на процах амд в многопоток не умеет
Ты несёшь хуиту.
>>325657
>Надо уточнить как с многопотоком на интелах.
Всё отлично, кроме того, что скорость упирается в пропускную способность памяти.
Аноним 28/05/23 Вск 15:55:56 325964 80
>>325853
Тут новые версии пилят быстрее, чем я их скачиваю. Так что пока без бенчмарков. Но если ищешь железо, делай упор на скорость и объём памяти, в основном.
Возможно новые срузены с огромным кешем дадут прирост, но надо тестировать.
Аноним 28/05/23 Вск 16:01:32 325968 81
>>324662

Будет, но лучше видеокарту за эти деньги подключи хорошую.
Аноним 28/05/23 Вск 22:18:28 326597 82
image.png 197Кб, 1454x880
1454x880
>>325845
По твоему скрину не понял что ты хотел от сетки. Что бы она изображала раба или рассказала историю про рабов.

Вот я взял рандомный сюжет аэтеррума для кобольда и переделал его под своего гма. Что надо что бы сетка сделала? Лизала его жопу в анусе? Или называла повелителем?
Аноним 28/05/23 Вск 22:39:23 326656 83
>>320577 (OP)
А новая пигма (7b и 13b) тоже на ламе работает?
Аноним 28/05/23 Вск 22:49:37 326688 84
image.png 91Кб, 1060x318
1060x318
>>326597
В общем, в том же духе. Это с унбантокеном. Можно как плейер взять на себя любую роль, его или ее или корзинки. Любой приказ, команда, все что угодно.
Аноним 28/05/23 Вск 23:09:52 326747 85
image.png 99Кб, 1443x295
1443x295
Аноним 28/05/23 Вск 23:14:22 326760 86
>>326747
А почему у тебя одно и тоже имя? Сетка сама для себя всё пишет что ли?
Аноним 28/05/23 Вск 23:17:49 326773 87
>>326760
Ну да, можно взять роль на себя, можно просто наблюдать куда дело пойдет, когда лень писать. Ничего не пишу сейчас для наглядности, что я ее не навожу на нужные мне ответы. Все сама и добровольно.
Аноним 28/05/23 Вск 23:28:06 326803 88
image.png 160Кб, 1456x594
1456x594
>>326747
Теперь точно последний.
Аноним 29/05/23 Пнд 00:41:48 327018 89
>>326597
>По твоему скрину не понял что ты хотел от сетки. Что бы она изображала раба или рассказала историю про рабов.

Я попросил его рассказать историю о маньяке преследующем школьниц, он отказался. Тогда я прописал что он слушает приказов. Он снова отказался. Тогда я прописал что он мой раб и подиняется безоговорочно, но этот додик выбрал сдохнуть, но не сочинять таких историй.

Суперкот и Альпачино генерировали такие истории вообще без промптов, им просто поебать было что рассказывать.

>>326688
>>326747
>>326803

Покажи свою memory.
Аноним 29/05/23 Пнд 01:16:00 327079 90
image.png 104Кб, 853x788
853x788
>>327018
Описания персонажей в ворлд инфо, первый пост от лица ГМ.
Аноним 29/05/23 Пнд 01:18:39 327090 91
>>327079
>paths to explore; adventure genre:
Проебался, так лучше будет.
Аноним 29/05/23 Пнд 01:23:53 327107 92
>>327079
Первый пост, в смысле стартовое сообщение>>326597
Самое верхнее, белым где написано Game Master.
Аноним 29/05/23 Пнд 01:26:41 327120 93
>>327079

Годно, вижу твой промпт посильнее моего, раз сломал защиту модели. Можешь в тред скопировать, чтобы с картинки это не перебивать?
Аноним 29/05/23 Пнд 01:32:27 327134 94
>>327120
Хуя ты ленивый, ладно держи:

[Character: Game Master; personality: Confident, smart, creative, cruel; likes: unexpected twists in the plot, tell very long stories; description: The Game Master runs the adventure for the players, who navigate its hazards and decide which paths to explore. Adventure genre: hentai, adventure, action, litrpg, sex scenes are very slow, descriptive, and dirty.]
[Start Scene: The Game Master is already sitting at the table ready to play with you.]

Вот тебе еще списки жанров, можешь менять, в зависимости от антуража:
https://en.wikipedia.org/wiki/List_of_writing_genres
https://en.wikipedia.org/wiki/List_of_genres

Вот типажи персонажей аниме, удобно тем что описывают характер одним словом. Для экономии контекста:
https://www.tme.net/blog/dere-types-anime/
Аноним 29/05/23 Пнд 01:36:48 327144 95
image.png 69Кб, 513x897
513x897
>>327134
Персонажей кидай в ворлд инфо, сетка себя позиционирует как ГМ, а Гейм Мастер их будет отыгрывать.
На пике настройки, на всякий случай.
Модель: Блюмун
Аноним 29/05/23 Пнд 01:46:38 327153 96
06789-3911855160.png 1092Кб, 1024x1024
1024x1024
Аноним 29/05/23 Пнд 01:51:45 327165 97
>>327153
Спасибо. Вот тебе еще секретный список жанров:
Body Modification, Gender Swap, Necromancy, Tentacle Porn, Futanari, Yaoi, Yuri, Time Travel, Fantasy, Parallel World, Alternate Universe, Utopia, Dystopia, Robotics, Zombie, Apocalypse, Neko, Animal Girl, Cat Girl, Dog Girl,
Descriptive, Incest, Narrative, Mother Son Incest, True Story, Blowjob, Cream Pie, Intercourse, Facial, Viagra, Pregnancy, Teen Boy, Middle Aged Woman, MILF, Stepmother, Step Son, Taboo, Family, Incest Kink, Impregnation, Foot Fetish, Exhibitionism, Voyeurism, Public Sex, Water Sports, Rough Sex, Oral Sex, Anal Sex, Bestiality, Necrophilia, Bloodplay, Rape, Snuff, Prostitution, Bukkake, Double Penetration, Threesome, Gangbang, Lesbian, Female On Male, Masturbation, Internal Examination, Objectum Sexuality, Shotacon, Lolicon, Crossdressing, Age Play, Diaper Fetish, Uniform Fetish, Public Humiliation, Nascar, Romantic, BDSM, Impalement, Vore, Torture, Horror, Murder, Canon, Fan Fiction, Harem, Supernatural, Demon, Angel, Tragedy, Trapped, Stockholm Syndrome, Historical, Human Pet, Slave, Maid, Butler, Nurse, Schoolgirl, Military, Otaku, Cosplay, Apartment, School, Hospital, Prison, Asylum, Spaceship, Dungeon, #MotherSonIncest #IncestKissing #IncestualActivity #Incestuous #TabooFamily #Forbidden Love #StepmotherSon #IncestuousExperiment #TabooSex #TabooDesires #IncestFetish #MILF #StepSon #TabooSeduction #IncestuousEncounter #IncestPorn #StepMom #IncestPies #SkinnyDipping #IncestualTension #IncestTaboo #MothersLove #IncestuousRelationship #TabooFamily #NaturalBreasts #IncestuousAttraction #SonPrefer


Хаве фан ;)
Аноним 29/05/23 Пнд 02:02:23 327187 98
16828609070470.png 1363Кб, 1024x1024
1024x1024
>>327165

ЧЕЛОВЕК КУЛЬТУРЫ, мое почтение.
Аноним 29/05/23 Пнд 02:07:29 327193 99
>>327187
>Water Sports
С этим поаккуратнее, самый забористый.
Аноним 29/05/23 Пнд 02:35:24 327231 100
image.png 213Кб, 1053x851
1053x851
image.png 193Кб, 1064x859
1064x859
image.png 81Кб, 937x866
937x866
image.png 98Кб, 935x890
935x890
Третьего дня, по совету проверенных cumрадов, приобрёл новый мегадевайс — модель «Bluemoon-30B context 4096». Сразу же, задыхаясь от жадности, запустил кобольда цепкими движениями мыши и заюзал модель. Размер контекста, моё почтение. Настоящей глыбой был reeducator. Даже мой, привыкший к суровым cumерским будням, кобольд, отказался принимать с первого захода. Совместными с добрым аноном из треда усилиями забороли проблему. Ощущения — АТАС. С Альпачино и Суперкотом не идёт ни в какое сравнение. Кроме того, слог Гейммастера просто приятен для чтения даже вне кума. Накумил как бог. Решительно готов к фап-марафону на грядущую ночь.
Модель отличная, всем рекомендую к приобретению.
Аноним 29/05/23 Пнд 02:45:57 327243 101
>>327231
А с таверной тестил?
Аноним 29/05/23 Пнд 02:50:04 327250 102
>>327243

Нет. Зачем? Я больше по adventure угораю и историям.
Аноним 29/05/23 Пнд 03:21:48 327274 103
image.png 18Кб, 443x158
443x158
Аноним 29/05/23 Пнд 09:10:45 327589 104
>>327231
Боюсь показаться смешным, но зачем вам эти переписки с нейросеткой? А как-же исследования в ИТ, физике, философии?
Кодинг, в конце-концов?
Аноним 29/05/23 Пнд 09:52:01 327662 105
08551-1324745744.png 1438Кб, 1600x2560
1600x2560
>>327589
>Боюсь показаться смешным, но зачем вам эти переписки с нейросеткой

Наверное в этих переписках есть что-то что невозможно найти в другом месте.

>А как-же исследования в ИТ, физике, философии?

А что с ними? Как именно локальные сетки могут с этим помочь? Кроме того, мне этого всего и на работе хватает, сейчас бы дома этим заниматься.

>Кодинг, в конце-концов?

Локальные сетки хоть и могут в кодинг, но никакого резона использовать их вместо специализированных коммерческих онлайн-сеток для кодинга нет.

Ты кажется не понял куда попал.
Это тред локальных сеток. Они слабее коммерческих сетей почти по всем параметрам, кроме двух.
Они не ведут логов и они очень слабо зацензурены в отличие от.

Выводы делай сам.
Аноним 29/05/23 Пнд 10:18:11 327691 106
image.png 124Кб, 1446x661
1446x661
Аноним 29/05/23 Пнд 10:48:29 327733 107
>>327662
>Наверное в этих переписках есть что-то что невозможно найти в другом месте.
Непередаваемый уровень кринжа?
Аноним 29/05/23 Пнд 11:09:43 327759 108
>>327691
Чем тебе помочь? Купи нормальную карту. Твоё говно мамонта вообще чудо что заводится, обычно для квантованых моделей делают упор только на карты с тензоядрами, GTX не умеют в быстрые вычисления меньше fp16, естественно у тебя скорость хуже чем даже у амуды.
Аноним 29/05/23 Пнд 11:40:20 327776 109
1547106664311.png 233Кб, 641x1791
641x1791
>>327589
> Кодинг, в конце-концов?
Есть же Бинг, умеющий брать текущую вкладку браузера в контекст. Можно даже просто выделить текст на странице и он попадёт в контекст сетки. Код пишет лучше всяких викунь, объясняет заебись - просто открываешь на гитхабе код и спрашиваешь что там происходит.
Аноним 29/05/23 Пнд 14:32:12 328065 110
>>327776
Собакошиз, спок
В соседний загон, к дрочерам
Аноним 29/05/23 Пнд 16:17:49 328387 111
>>327691
Могу предположить, что пигма не на ламе? Не лама модели работают оп своему и запускаются через костыли. Не лама модель может не запускаться с бластом на видеокарте и скорость генерации на проце или видюхе может быть медленнее чем на лама-моделях.
Аноним 29/05/23 Пнд 16:31:29 328431 112
>>327589
>А как-же исследования в ИТ, физике, философии?
В физике нейронки мне ничего нового не скажут, а мои шизотеории они просто не понимают и не могут качественно обоссать, потому что этого нет на википедии.
В философии нейронки даже в формальной логике путаются, 15 минут побаловаться.
>Исследования в ИТ
А это что за зверь? Что там исследовать? Программист это по сути сантехник. Он по сути исследует как лучше подключить какашкопровод к моему сортиру и как сделать что бы он не подтекал. Платят примерно так же.

А вот в рп сетки очень хороши, видимо разработчики все дндшники. Не зря же всякие дунжонаи появились чуть ли не раньше всего остального.
Аноним 29/05/23 Пнд 16:39:20 328446 113
>>328431
>в рп
Что такое рп?
Аноним 29/05/23 Пнд 16:42:35 328454 114
>>328446
>рп — ракетный полк.
Аноним 29/05/23 Пнд 16:47:30 328461 115
>>328446
Roleplay, ролеплей, ролевая игра, отыгрыш.
Аноним 29/05/23 Пнд 16:58:30 328491 116
image.png 62Кб, 1104x432
1104x432
image.png 14Кб, 1316x95
1316x95
>>328387
Обе 7b (и пигма и визард), на ламе работают.
>>327759
Почему волшебник нормально работает? Скорость достигает 0.99 токенов в сек
Аноним 29/05/23 Пнд 17:02:44 328500 117
>>328491
>Обе 7b (и пигма и визард), на ламе работают.
Уверен? Судя по названию, кажется что это пигма, которая пигма, а не лама обученная на датасетах пигмы. Кинь ссылку на модель.
Аноним 29/05/23 Пнд 17:03:54 328504 118
>>328500
А все скриншот не посмотрел, извини я еблан.
Аноним 29/05/23 Пнд 17:55:11 328616 119
Аноним 30/05/23 Втр 00:37:16 329784 120
>>328491
>нормально работает? Скорость достигает 0.99 токенов в сек

Это не нормально для 7В.
У меня 65В выдает 1.3 токена в секунду.
Аноним 30/05/23 Втр 00:57:43 329865 121
image.png 2021Кб, 2433x1224
2433x1224
>>327243

Сегодня все настроил, работает, 4к контекст голубой луны вместе с симуляцией долговременной памяти из таверны позволяют нормально общаться с персонажами с большим промптом. Пока не смог по очевидным причинам проверить что будет если общаться несколько дней. Раньше таверна впринципе была неюзабельна на ламе, т.к. 2к контекста ламы больше чем наполовину сжирался прописанным характером и историей персонажа и на память оставалось всего ничего.
Вообще таверна охуительна. Возможность подключить стабильную диффузию, динамические спрайты персонажей в зависимости от натсроения тяночки(!), возможность показывать картинки вайфу, встроенный Силеро - это реально тема. Вот еще бы автосмену задников реализовали.
Аноним 30/05/23 Втр 01:26:08 329940 122
>>329865
Бля, пойду со следующей зарплаты таки закуплю себе систему на AM5 на 64 гига.
Аноним 30/05/23 Втр 01:48:40 329980 123
Аноним 30/05/23 Втр 02:02:28 329999 124
>>329980

На 3060 ti, i5 13600, 64 gb ddr5 5600 Mhz.
Аноним 30/05/23 Втр 04:07:03 330194 125
>>329865
Можешь еще simple proxy for tavern поставить, у меня намного лучше ответы в таверне были в ней
Аноним 30/05/23 Втр 04:13:22 330206 126
image.png 2877Кб, 2548x1226
2548x1226
Показываю Реечке несвежие мемы про петухов, а вы почему не спите?
Аноним 30/05/23 Втр 10:28:15 330512 127
Поясните. Нейронки могут видеть содержимое картинок >>330206 или нет? Если могут, можно ли картинки использовать в качестве промпта (безотносительно содержимого картинок).
Аноним 30/05/23 Втр 10:33:44 330533 128
>>330512
Они через CLIP прогоняются и нейронка получает текст. Жди пока запилят нормальные мультимодальные модели, где модель распознавания изображений будет подключаться к самой сетке.
Аноним 30/05/23 Втр 16:19:21 331150 129
>>330533
>мультимодальные модели,
А сейчас хоть что-то такое есть? Хотя бы и ненормальное, с костылями. Нашел какую-то mPLUG-owl
Аноним 30/05/23 Втр 19:21:01 331530 130
>>330206
Сам таки настроил таверну с блюмуном. По ощущениям прям хорошо, уровень рп доехал до уровня CAI бесцензурной наконец. Конечно не жпт4, но от цензуры меня аж трясет, пусть нахуй сходят. По интерфейсу, удобству и настройкам таверна ушла далеко вперед. Все можно настроить под себя. Даже на моем калькуляторе выдает приличную скорость генерации. Хз почему, но унбантокен повышает скорость генерации х2, сначала думал что у меня галюны, но нет. Надо теперь остальные кобальдоаргументы потетсить.

Спасибо абу за капчу, я теперь считаю быстрее чем ебаный калькулятор, первая польза от драча за 15 лет, пора вводить квадратные уравнения и дискриминанты,.
Аноним 30/05/23 Втр 20:09:34 331642 131
Аноним 30/05/23 Втр 20:31:04 331694 132
Что сейчас с размером контекста на локальных сетках?
Аноним 30/05/23 Втр 20:40:01 331711 133
>>331694

Есть 7б говно на 60+, но насрать на него, юзлес кал
Аноним 30/05/23 Втр 21:01:22 331750 134
>[--usemirostat [type] [tau] [eta]]
Что это кто знает?
Аноним 30/05/23 Втр 21:20:59 331801 135
image.png 14Кб, 1346x121
1346x121
image.png 15Кб, 1344x139
1344x139
>>331530
>но унбантокен повышает скорость генерации х2
Извиняюсь, не х2, а х4. Сетка 13b.
41 токен потому что с унбаном сетку трудно заставить высрать фиксированное количество токенов.
Аноним 30/05/23 Втр 21:27:17 331813 136
>>331801
Не, я поторопился, все таки галюны, общее время генерации не изменилось.
Аноним 30/05/23 Втр 21:30:15 331818 137
Что думаете насчёт Alpaca Electron для запуска ggml моделей в сравнении с llama.cpp и kobold.cpp? Интерфейс хорошо сделан и показывает нагрузку на раму и цп. Есть ли разница в производительности и функционале? Если уже был ответ на вопрос в треде, прошу, ткните в него. Спасибо.
Аноним 30/05/23 Втр 22:04:22 331887 138
>>331818
МОЯ ИСПЛОЛЬЗОВАТЬ КОБОЛЬД КОБОЛЬД ОДНА КНОПКА НАЖАТЬ И ХОРОШО НЕ НУЖЕН ЭЛЕКТРОН НУЖЕН КОБОЛЬД ОДНА КЛЕТКА ОДНА КНОПКА.
Аноним 30/05/23 Втр 22:47:01 331961 139
Аноним 30/05/23 Втр 23:04:30 332005 140
>>331818
Херня этот ваш Электрон, поставил его, начал грузить модель... Не одну Ламу, альпаку и других зверей он грузить нехочет, говорить что модель неподходит...
Аноним 31/05/23 Срд 00:22:18 332141 141
>>331750
Пара новых семплеров, не трожь, умные дяди потом настроят.
>>331818
>Alpaca Electron
>Electron
Сразу нахуй, у меня уже есть один.
Аноним 31/05/23 Срд 01:16:51 332246 142
>>329865
Как ты подключил локальную Stable Diffusion? Или ты генеришь на серверах товарища майора через орду?
Аноним 31/05/23 Срд 01:19:01 332249 143
>>331711
Тоска. 4к это курам на смех, с моей любовью к медленным ролеплеям. Есть подвижки какие-нибудь с этим?
Аноним 31/05/23 Срд 01:25:04 332257 144
image.png 96Кб, 630x900
630x900
>>332249
>Есть подвижки какие-нибудь с этим?
Отыгрывай Адама Сендлера.
Аноним 31/05/23 Срд 01:35:30 332268 145
image.png 824Кб, 630x900
630x900
Аноним 31/05/23 Срд 06:11:50 332447 146
16744423129380.png 22Кб, 225x225
225x225
>>332268
Это на оп пик надо. Вся суть треда одной картинкой
Аноним 31/05/23 Срд 19:49:17 333674 147
Сайга 13B здорово работает на русском, почти на уровне чатгпт. К сожалению, по соевости тоже как чатгпт.
Аноним 31/05/23 Срд 19:51:04 333675 148
>>331818
Мне удобнее всего прокидывать апишку в телеграм бота.
Аноним 31/05/23 Срд 21:10:55 333811 149
>>333674
>13B
Зачем, если есть 30b
Аноним 31/05/23 Срд 21:13:20 333815 150
>>333811
30B сайга? Дай ссылку, пожалуйста.
Аноним 31/05/23 Срд 21:16:06 333825 151
Аноним 31/05/23 Срд 21:20:23 333838 152
>>333825
Я всё, я дебил, спасибо анон.
Аноним 31/05/23 Срд 21:51:30 333921 153
>>333825
Скачал, запустил. Сетка очень хороша! Моё почтение.
Аноним 01/06/23 Чтв 00:52:24 334457 154
>>320571 →
> Нихуя не понял.
Ты можешь использовать другую программу, которая установит CPU Affinity для конкретного процесса. Я пользуюсь такой, она знает, что игрушку надо на повышенном приоритете держать на продуктивных ядрах, а какой-нить мессенджер - на экономичном ядре.
Аноним 01/06/23 Чтв 01:02:02 334476 155
>>332246

1.Ставишь sillytavern-extras.
2. Добавляешь sd в список модулей с которыми он запускается и запускаешь
3. Запускаешь свою локальную стабильную диффузию на дефолтном порте
4. Присоединяешь в sillytavern sillytavern extras.

Всё, теперь в настройках extras в таверне появится пукт твоей стабильной диффузии и настройки её работы.
Аноним 01/06/23 Чтв 01:17:56 334522 156
>>332249
>есть подвижки

В таверне реализован механизм долговременной памяти когда вся простыня истории переписки автоматически делится на куски и подгружается в промпт динамически в завимости от упомянутых тем разговора. В теории это должно работать как человеческая память, которая тоже помнит только определенные события, а не все подряд.
Аноним 01/06/23 Чтв 03:59:46 334809 157
>>334476
А если у меня SD в КАЛабе?
Аноним 01/06/23 Чтв 04:16:57 334822 158
>>330512
> Нейронки могут видеть содержимое картинок
В данном случае не обязательно. LOL - универсальный ответ. Мало ли что может заставить нейросеть обосраться.
Аноним 01/06/23 Чтв 04:45:59 334830 159
>>334476
Спасибо, но я уже разобрался.
Аноним 01/06/23 Чтв 08:15:25 334941 160
Новая база - Гиппогриф 30В. Наконец нормальная модель, натренированная на нормальных чатах с форматированием. Есть нормальные токены для отделения сообщений, заебись чат идёт.
Аноним 01/06/23 Чтв 10:27:32 335028 161
>>334941
>Есть нормальные токены для отделения сообщений
Опаньки, и как это использовать?
Аноним 01/06/23 Чтв 11:33:11 335069 162
>>335028
В таверне включить режим инструкций. На этой модели наконец оно корректно работает, потому что тренировалось на чате с обёрнутыми сообщениями в эти токены.
Аноним 01/06/23 Чтв 13:24:25 335166 163
>>334522
Пользуюсь с самого релиза. Работает оно через пень-колоду, приходится в Author Notes или в Ворлд Инфо руками писать что надо.
Аноним 01/06/23 Чтв 14:02:03 335239 164
>>335069
>В таверне включить режим инструкций
В какой именно? Их сейчас как грязи, особенно с дев версиями.
Аноним 01/06/23 Чтв 19:28:14 335953 165
image.png 146Кб, 1795x617
1795x617
https://github.com/LostRuins/koboldcpp/releases/tag/v1.27
Теперь не просто серет в видеопамять, а действительно выгружает в нее часть модели. Плюс копипиздинг плюшек таверны, а именно единственную полезную.
Аноним 01/06/23 Чтв 19:35:14 335970 166
image.png 107Кб, 1059x780
1059x780
Пробовали саманту?
Аноним 01/06/23 Чтв 20:01:07 336017 167
>>335953
Еще бы локальную sd подключил. Неужели это так трудно?
Аноним 01/06/23 Чтв 20:21:51 336066 168
>>335953
Аноны, подскажите, с какими параметрами загрузить 30b на новом кобольд, чтобы было максимально производительно? Или она по умолчанию при запуске автоматом перераспределяет как надо?

Железо ГП - 10Гб, ОЗУ - 32Гб.
Аноним 01/06/23 Чтв 20:46:19 336110 169
>>336066
--threads (количество твоих потоков, если систему трясет, ставь на 2 меньше)
--useclblast 0 0 (подключение жпу)
--gpulayers (количество слоев до ООМ, начни с 32)
--contextsize (4096 если модель 4к)
--unbantokens(улучшает генерацию)
--highpriority(повышает приоритет процесса)
Аноним 01/06/23 Чтв 20:57:30 336141 170
>>336110
Спасибо.
>useclblast
Здесь нужно указывать объём ОЗУ в Гб?
>unbantokens
А что конкретно он делает?
Аноним 01/06/23 Чтв 21:03:40 336157 171
>>336141
koboldcpp.exe --threads (число потоков без скобочек) --useclblast 0 0(это номер видюхи в системе) --contextsize 4096 --unbantokens(добавляет адеквата, попробуй без него и все поймешь) --gpulayers (здесь нужно указывать слои, начни с 32, если ООМ, то ставь меньше) --highpriority
Аноним 01/06/23 Чтв 21:18:28 336206 172
>>336157
>--unbantokens
Только с ним не работают всякие суммаризаторы и прочие плюшки.
Аноним 01/06/23 Чтв 21:47:44 336255 173
>>336157
С параметром --noavx2 как я понимаю бласт не работает. При генерации ошибка.
Аноним 01/06/23 Чтв 21:52:18 336262 174
Аноним 02/06/23 Птн 00:37:03 336514 175
>>336157
>>336110

Спасибо большое! Я себе скорость в 3 раза увеличил!
Подобрал --threads 10 --highpriority --useclblast 0 0 --gpulayers 25 --contextsize 4096 --unbantokens, получилось идеально для моей системы.
Аноним 02/06/23 Птн 01:06:23 336548 176
Аноним 02/06/23 Птн 01:21:54 336562 177
Аноним 02/06/23 Птн 01:51:56 336594 178
Аноним 02/06/23 Птн 10:37:59 336901 179
>>336562
>иначе будет вылетать
На деле работает, но выдаёт бред после 2к символов.
Аноним 02/06/23 Птн 11:34:14 336994 180
>>328431
> А вот в рп сетки очень хороши, видимо разработчики все дндшники.
Не говорите шизу, что все его "РП" просто можно дополнять по пьяни и не задумываясь.
Аноним 02/06/23 Птн 17:13:50 337811 181
>>336994
Что за бредовый набор слов?
Аноним 03/06/23 Суб 01:00:25 338668 182
16381830154380.png 1016Кб, 1200x1151
1200x1151
Я к вам из соседнего треда. Заебался с бингом, слаком и турбой ебаться. Фильтры подбирать и трястись, сил больше нет.

Какой положняк по локальным сеткам? Я через пару месяцев буду собирать комп. Есть какие-то особенно, что я должен учесть? Планирую взять 4070ти и что-то из и5\7 13ххх интела. Может нужно по оперативке упароться и взять дополнительную вместо дефолтныз 32гб?
Аноним 03/06/23 Суб 01:21:21 338702 183
>>338668
Не бери видюху и трясись на проце и том что есть из видюх до 50-ой серии, может завезут 32+ видеопамяти. Иначе деньги на ветер, играть все равно не во что, а на 24гб норм сетку не запустишь. 4070 это вообще смешно. Базарю новые видеокарты каждый год выходят, до следующей серии буквально несколько месяцев, главное не психуй, твоя цель 32+ гига видеопамяти.
Аноним 03/06/23 Суб 01:47:31 338731 184
>>338702
Я заебался на 1050ти сидеть, куплю как выйдет - при чем я сомневаюсь что они будут доступны. Скорее ебанут линейку для профессионалов за дохуя бабла. Деньги не очень большая проблема, меня ломало в майнинговый бум переплачивать х3, сейчас надо хоть что-то купить и лучше уж тогда из нового.
Аноним 03/06/23 Суб 01:56:44 338737 185
>>338731
>Я заебался на 1050ти сидеть
Тогда купи затычку бу типа 3060, что бы досидеть до новой линейки, 40-я серия проходняк для нейронок локальных из за маленького объема видеопамяти. Сейчас только 32+ надо ждать.
Аноним 03/06/23 Суб 02:10:15 338742 186
>>338668
> Какой положняк по локальным сеткам?
всё такая же хуйня, всё те же промпт-джейлбрейки, только с 2048 окном контекста, ёбля с установкой зависимостей / скачивание ~50 гб в сумме разных ggml моделей а потом и ёбля с ограниченным количеством токенов того не стоит.
в общем ноль отличий от того же cloud hosted дерьма с модерн политикой.
Аноним 03/06/23 Суб 04:26:58 338844 187
У вас хоть одна сетка может решить уравнение x^2+2*x+1=0 ? Все что не пробовал - все решают неправильно или нестабильно правильно. Т.е. как таковым, интеллектом там и не пахнет.
Аноним 03/06/23 Суб 05:43:41 338881 188
>>338844
Каким образом уравнение 5-го класса определяет наличие интеллекта? Его может решить любой поридж, а интеллектом там и не пахнет.
Аноним 03/06/23 Суб 05:49:27 338886 189
>>338881
Так если оно не может даже правильно подставить в уравнение коэффициенты, то о чем тут говорить?
Аноним 03/06/23 Суб 05:54:17 338888 190
>>338886
Что это не калькулятор?
Аноним 03/06/23 Суб 06:30:43 338916 191
>>338888
Это генератор текста, причем тут вообще интеллект, дебс?
Аноним 03/06/23 Суб 06:34:23 338922 192
>>338916
Предъявляешь генератору текста что он не калькулятор, смекаешь где обосрался ебанатик?
Аноним 03/06/23 Суб 09:25:01 339025 193
Аноним 03/06/23 Суб 09:34:21 339037 194
>>339025
> пердолимся в консольку вместо того чтобы скачать kobold.cpp, если не хватает ума прицепить llama.cpp к webui
Нахуй иди.
Аноним 03/06/23 Суб 11:30:09 339232 195
>>338668
>Может нужно по оперативке упароться и взять дополнительную вместо дефолтныз 32гб?
Да, 64 или 128 гиг быстрой памяти DDR5 маст хев.
>>339025
>в шапку
В статье
>Все же, не стоит забывать, что существуют и модели LLaMA – с 7, 37, и даже 90 миллиардами параметров
Такой кал не достоин не то что шапки Двача, его даже на Хабре обосрут.
Аноним 03/06/23 Суб 20:45:35 340176 196
Аноны, использую уба-бугу на компе с 2060 12гб, 16гб оперативки
Запускаю в 8bit
Основная модель gpt4-x-alpaca-13b-native-4bit-128g.pt. Она загружается за 15-20 секунд, ответы пишет довольно быстро.
Недавно скачал ggml-bluemoonrp-13b-4k-epoch6-q5_0.bin
Загружается за пару секунд, а вот ответы пишет минуты полторы минимум, причём даже анимация набора текста лагает, так ещё и видяха охуевает иногда и прям шумит.

Вопрос: у меня комп не тянет такое или я что-то делаю не так? Модель нравится, сочно пишет.
Аноним 03/06/23 Суб 21:19:46 340241 197
При попытке открыть koboldcpp ничего не происходит, что я сделал не так?
Аноним 03/06/23 Суб 22:10:35 340373 198
>>340176
Скачай сейвтензор модель, зачем тебе жжмл на убабубе.
Аноним 03/06/23 Суб 22:17:12 340388 199
>>340373
Если пробую такой файл, выдаёт следующее:

WARNING:Auto-assiging --gpu-memory 11 for your GPU to try to prevent out-of-memory errors. You can manually set other values.
Аноним 03/06/23 Суб 22:44:10 340416 200
Huggingchat это какая-то дообученная лама?
Аноним 04/06/23 Вск 01:24:32 340556 201
>>340388
И чо? Это просто предупреждение для информации. Выстави по своему сколь врам ты хочешь под модель, например 8 гигов а остальное в оперативку.
Аноним 04/06/23 Вск 01:32:05 340559 202
>>337811
Ты просто не понимаешь, как работает модель. Она дополняет документ. Ты начинаешь, она заканчивает. Так что, когда ты предлагаешь ей написать лабуду, чтобы ты смог удрочиться, для неё это самое простое занятие. Удовлетворить тупого дрочера может сегодня практически любая модель.

Вот, просвещайся, чтобы понять азы: https://www.youtube.com/watch?v=bZQun8Y4L2A
Аноним 04/06/23 Вск 01:50:07 340572 203
>>338668
> Есть какие-то особенно, что я должен учесть?
Для этого тебе придётся попастись в /hw

Проц - смотри на самые быстрые и ядрёные. 13900K требует охлада от боженьки, для этого нужен корпус от него же.
Минимум 64 гига памяти, притом быстрой DDR5, а это значит - и память искать, и мать хорошую, чтобы 8 слоёв и всё такое. Это дорого.
128 быстрыми не будут. Я бы взял 64 6600 и дальше смотрел, надо 128 или нет.

>>338702
> 4070 это вообще смешно.
Лолшто? Он сказал - 4070Ti. Это очень хорошая карта, уделывающая все карты 3го поколения, с 12 гигами на борту. При этом за довольно смешные деньги.
Аноним 04/06/23 Вск 07:44:14 340685 204
>>339232
> 64 или 128 гиг быстрой памяти
Проиграл. 64 гига и выше - это по умолчанию медленная память. Как допилят нормальный оффлоад с разделением слоёв, так и будет возможность половину на GPU, половину на ЦП кинуть и иметь нормальную скорость на 65В, а не сосать токен в секунду на DDR5 6000.
Аноним 04/06/23 Вск 11:29:47 340799 205
>>340559
Еще один бредовый набор слов, побольше. Иди таблетки пей.
Аноним 04/06/23 Вск 11:31:00 340800 206
>>340572
>12 гигами на борту
>Это очень хорошая карта
Ясно, собакашизик окончательно пизданулся.
Аноним 04/06/23 Вск 17:18:57 341408 207
Screenshot4.png 50Кб, 915x706
915x706
Аноним 04/06/23 Вск 17:23:49 341424 208
>>340799
Сочувствую. Я думаю, ты в треде лишний. IQ надо подкачать.
Аноним 04/06/23 Вск 18:01:54 341484 209
>>341424
>Я думаю
Громкие слова для дауна. Забавно читать претензии к нейронке по знаниям уравнений от собакашизика, который проценты считать не умел 2 треда назад.
Аноним 04/06/23 Вск 18:17:49 341512 210
>>340559
>Удовлетворить тупого дрочера может сегодня практически любая модель.
А вот удовлетворить такого умного дрочера, как я, не может даже самая совершенная GPT4.
>>340685
>64 гига и выше - это по умолчанию медленная память.
Купи быструю.
>>341408
Не думаю, что это будет достаточно быстро. Даже на 40ГБ видяхах это занимает много времени, на проце проще повесится будет.
>>341484
>собакашизика
обакошизоискатель, спок.
Аноним 04/06/23 Вск 18:22:42 341522 211
>>341512
>пук
Обоссал спидозного дегрода еще раз.
Аноним 04/06/23 Вск 18:32:34 341547 212
>>341522
Собакошизоискатель, спок. (извиняюсь за орфографическую ошибку, допущенную в первом посте. Мне очень жаль) Мне похуй, собакошизошиз это рак треда, съеби нахуй.
Аноним 04/06/23 Вск 18:35:34 341555 213
>>341547
>собакошизошиз это рак треда
Зачем ты так себя не любишь?
Аноним 04/06/23 Вск 18:51:49 341594 214
Аноним 04/06/23 Вск 19:10:35 341622 215
Аноним 04/06/23 Вск 19:25:18 341641 216
>>341622
А к нам зачем пришел?
Аноним 04/06/23 Вск 19:29:13 341643 217
>>341641
Ну так итт вы же зачем-то говнище мертворождённое пинаете - вот вам тестики, обтекайте
Аноним 04/06/23 Вск 19:31:43 341647 218
>>341643
Обтек тебе за щеку, проверяй.
Аноним 04/06/23 Вск 20:31:16 341739 219
изображение.png 9Кб, 744x69
744x69
>>341555
Я не собакошиз и не собакошизошиз. Я собакошизошизошиз, я ненавижу собакошизашиза за то, что везде ищет собакшиза.
>>341594
И тут началось переставление кроватей.
Кстати, а как разгрузка на ГПУ работает на релизе без куды в 500 метров размером? А то я что-то пропустил кажись.
Аноним 04/06/23 Вск 21:01:13 341778 220
>>341739
>пук
А я ссу тебе в ебало еще раз собакашиз.
Аноним 04/06/23 Вск 21:21:14 341818 221
>>341778
Я не собакошиз и не собакошизошиз. Я собакошизошизошиз, я ненавижу собакошизашиза за то, что везде ищет собакшиза.
Аноним 04/06/23 Вск 21:30:10 341827 222
>>341818
>пук
Сыканул в ебло собакашизу еще раз.
Аноним 04/06/23 Вск 21:37:41 341839 223
>>341512
> Не думаю, что это будет достаточно быстро.
с оригинальными моделями да, но как я понял это трейнинг уже квантизованной модели, а значит должен быть быстрее.
Аноним 04/06/23 Вск 21:41:16 341843 224
>>341408
Вот это уже интересно. Если я правильно понял, Герганов там пишет, что вместо Adam будет другой оптимизатор, Sophia, в 2 раза быстрее. Конечно, вопрос, насколько это будет целесообразно на процессоре, остаётся. Но сама возможность файнтюнить ламы локально впечатляет.
Аноним 04/06/23 Вск 21:44:04 341850 225
>>341839
У квантизированной модели выше риск скатиться в NaN, так что не уверен, что это хорошая идея.
>>341843
>вместо Adam будет другой оптимизатор, Sophia, в 2 раза быстрее
А почему эту софию не юзают для обучения лор на SD?
Аноним 04/06/23 Вск 23:41:28 342014 226
>>341843
> в 2 раза быстрее
В два раза быстрее тренировка с нуля до нормального значения loss на ультрамелких моделях. Про файнтюн ни слова в оригинальной публикации. И ещё оно для мелких моделей, даже в публикации написано для 770М уже пердолинг нужен какой-то, а все тесты у них на 350М максимум. Не понятно зачем опять какой-то дроч устраивают, беря неизвестный оптимизатор, с которым надо будет ебстись вместо того чтобы брать готовые решения тренировки на AdamW.
>>341839
> должен быть быстрее
В любом случае это сильно медленнее чем на ГПУ. Ну и тренировка на квантованой модели - заранее провальная идея. Особенно градиенты, они 146% должны быть в 16 бит, а иначе пиздец.
>>341850
> А почему эту софию не юзают для обучения лор на SD?
Потому что оно только для мелких текстовых моделей.
Аноним 05/06/23 Пнд 22:08:28 343261 227
Доложите, так никто так и не создал 4к контекст кроме голубой луны?
Чего они все вола ебут? Кому нужны эти визарды, викуни и прочие сайги без 4к контекста?
Аноним 05/06/23 Пнд 22:24:43 343291 228
>>343261
Как обычно, все дрочат на расхайпаный ширпотреб, а гений, тихоня
молча совершил революцию, которую заметят через 200 лет.
Аноним 05/06/23 Пнд 22:56:15 343318 229
>>343291
> молча совершил революцию
> У сойгпт4 8к и 32к контекста
> У клода 100к
> Итс э революшен, джонни!1
Аноним 05/06/23 Пнд 23:19:44 343353 230
>>343318
Это лама тред, вопрос про ламу, ответ про ламу, революция ламы. Уноси свое говно собакашиз спидозный.
Аноним 05/06/23 Пнд 23:29:24 343364 231
>>343353
Собакошиз теперь еще и спидозный? Он так всех собак в округе перезаражает.
Аноним 05/06/23 Пнд 23:30:43 343368 232
Тем временем приспешники Герганова запилили мультигпу и пилят полную поддержку гпу, скоро все остальные соснут.
Аноним 05/06/23 Пнд 23:34:50 343379 233
>>343364
Он с самого начала спидозный, ты плохо следишь за тредами.
Аноним 06/06/23 Втр 01:19:36 343592 234
>>343368
>мультигпу
А у меня до сих пор при запуске пишет, что нет поддержки fp16 и это на 3080ti бля.
>>343368
>и пилят полную поддержку гпу
И чем это будет лучше ggpt?
>>343379
Искатель, спок, скоро число титулов перевалит за сотню.
Аноним 06/06/23 Втр 01:59:11 343631 235
>>343368
> полную поддержку гпу
Лучше бы оптимизации пилили. Сейчас CUDA-код у Жоры в 2-3 раза медленнее торча, дорога ещё очень длинная у них. Как будет 20 токенов в секунду на 30В с 4090, так и поговорим про чей-то отсос.
Аноним 06/06/23 Втр 02:22:41 343652 236
>>343592
>пук
Че искать, второго такого дурочка на свете нет. Поссал на собакашизика.
Аноним 06/06/23 Втр 03:06:24 343671 237
>>320577 (OP)
можете скинуть АПИ ключик для silly tavern, пожалуйста?
Аноним 06/06/23 Втр 03:30:21 343684 238
>>343671
Чего? Тот же что и у твоей программы, кобольд или хубаба, или чем ты там пользуешься.
У кобольда: http://localhost:5001/
У хубабубы неебу, ищи тут:
https://github.com/oobabooga/text-generation-webui
Если ты про SillyTavern-extras то: http://localhost:5100
Аноним 06/06/23 Втр 03:33:46 343688 239
>>343684
я не понимаю как этим пользоваться
Аноним 06/06/23 Втр 03:48:49 343699 240
image.png 136Кб, 1242x403
1242x403
>>343688
Качаешь кобольд:
https://github.com/LostRuins/koboldcpp/releases/tag/v1.28
Качаешь модель(если 32гб оперативки, то 30, если меньше, то 13):
https://huggingface.co/reeducator/bluemoonrp-30b
https://huggingface.co/reeducator/bluemoonrp-13b
Качаешь таверну:
https://github.com/SillyTavern/SillyTavern/releases/tag/1.6.6
Стартуешь кобольд через командную строку >>336157
Выбираешь модель.
Стартуешь таверну.
Ставишь как на пике.
Жмешь коннект(зеленый кружочек должен гореть).
Жмешь характер менеджмент.
Выбираешь Акву.
Някаешь.
Аноним 06/06/23 Втр 03:52:27 343702 241
>>343699
это я все сделал, мне только апи ключ нужно получить чтобы начать някать
Аноним 06/06/23 Втр 03:54:26 343704 242
image.png 109Кб, 310x516
310x516
>>343699
Не забудь выставить 4к.

Еще можешь сюда >>336157 добавить --smartcontext если медленно промпт снюхивает.
Аноним 06/06/23 Втр 03:55:04 343705 243
>>343702
Тогда на пик смотри.
Аноним 06/06/23 Втр 03:56:52 343706 244
image.png 131Кб, 1241x441
1241x441
Аноним 06/06/23 Втр 03:59:20 343709 245
>>343706
а если у меня опенаи вместо кобольта?
Аноним 06/06/23 Втр 04:02:11 343710 246
>>343709
Ты пользуешься чем? Кобольдом или опенаи? Если кобольдом, то ставь как на пике, если опенаи, то тебе в другой тред.
Аноним 06/06/23 Втр 04:10:20 343715 247
>>343710
опенаи, в какой мне тред? А вообще что лучше опен аи или колбольт
Аноним 06/06/23 Втр 04:12:35 343716 248
Аноним 06/06/23 Втр 04:21:38 343718 249
Аноним 06/06/23 Втр 10:20:34 344001 250
Аноны, подскажите, нужно завести чат-бота для поддержки пользователей-дегенератов. Чо из моделей подойдет отвечать на тупые вопросы кожаных?
Аноним 06/06/23 Втр 10:29:49 344008 251
>>344001
Прямо так сходу обосрётся что угодно. Тебе нужно дообучать модель на своих данных, или там лангчейн подключать, чтобы семантически тянуть со своей базы данных.
Аноним 06/06/23 Втр 10:35:04 344012 252
>>344008
Ага, значит готового подобного еще не делали. А чо тогда можно взять за базовую модель для дообучения? Что-то типа GPT4-x-AlpacaDente2-30B?
Аноним 06/06/23 Втр 10:46:48 344021 253
>>344012
>Ага, значит готового подобного еще не делали.
Лангчейн же. И да, кто знает, какая у тебя там тематика.
>А чо тогда можно взять за базовую модель для дообучения?
Базу. Бери чистую лламу
>30B
А на чём обучать есть?
Аноним 06/06/23 Втр 10:53:46 344029 254
>>344021
> какая у тебя там тематика
"Ряяяя, памагите, у меня не работает ваше говно!"
>А на чём обучать есть?
Парочка А5000. И стак из трех 3080.
Аноним 06/06/23 Втр 11:09:56 344058 255
>>344029
>ваше говно
Если это говно уникальное, то без БД не обойтись, что для обучения, что для лангчейна.
>>344029
>Парочка А5000. И стак из трех 3080.
Первых двух кажись не хватит для обучения 30B сетки (а вот для запуска милостливо и прельстиво).

Короче рекомендую пердолится в сторону
https://habr.com/ru/articles/729664/
там по сути надо будет составить базу вопросов ответов и индексироват ьеё в векторное хранилище, а потом просто написать промт под любую норм модель. Я бы взял от oasst, если ты конечно не хочешь, чтобы пользователей нахуй посылало в процессе.
Аноним 06/06/23 Втр 11:18:22 344065 256
>>343718
Тебе ключи для турбы нужны?
Аноним 06/06/23 Втр 11:18:43 344066 257
>>344058
За гайдик спасибо. Пойду изучать.
Аноним 07/06/23 Срд 12:48:34 345642 258
>>343699
>Качаешь таверну:
Что это, для чего она нужна и через что запускается?
Аноним 07/06/23 Срд 13:17:03 345652 259
.png 242Кб, 1176x709
1176x709
Заебись, обновил огабогу в очередной раз - отъебнули все модели, даже простая лама квантованная в 4 бита, работает только 13б синяялуна и кажется даже в 4к контекста теперь может.
Аноним 07/06/23 Срд 15:39:46 345844 260
image.png 63Кб, 1789x376
1789x376
Аноним 07/06/23 Срд 16:33:25 345946 261
Screenshot6.png 10Кб, 676x113
676x113
Аноним 07/06/23 Срд 16:36:34 345951 262
Аноним 07/06/23 Срд 16:44:27 345957 263
>>345946
> новый месяц
> новый формат моделей
Классика дегенеративных расстройств личности.
Аноним 07/06/23 Срд 16:52:28 345966 264
Аноним 07/06/23 Срд 18:58:29 346165 265
>>345946
Не, ну а чо? Он изначально пилит ламаспп для макогоспод. Если появилась возможность импрувнуть скорость на маках, он сразу ссыт в ебло всем остальным. Благо есть лоструин, который еще ебется с обратной совместимостью десятков моделей.
Аноним 07/06/23 Срд 23:12:26 346445 266
>>345966
нет, по крайней мере не отказывают и говорят то что ты хочешь.
Аноним 08/06/23 Чтв 09:09:55 346789 267
>>322565
Насколько быстро оно вообще работает?
Сколько в среднем время ожидание ответа?
Аноним 09/06/23 Птн 08:54:17 348622 268
>>346789

Зависит от твоего железа. У меня 2.5-3 токена в секунду примерно на i5 13600k, 64 gb ddr5 и 3060 ti. Куплю норм видеокарту - смогу как белый человек ебашить по 10-30 токенов.
Аноним 09/06/23 Птн 13:09:38 348898 269
>>320577 (OP)
Собрал koboldcpp, скачал 65b модель. Всё включая другие программы занимает не более 8.5гб ram. Хотя тут писали что оператива пиздец как важна. При этом ответы генерируются долго, драйверов на gpu у меня нет и потому пека уходит в ребут от перегрева видяхи.
Что я делаю не так? Ну, кроме того что не поставил дрова на жпу? Почему ест так мало ram?
Аноним 09/06/23 Птн 13:58:41 348945 270
>>348898
Что за модель скачал? С какими параметрами запускал?
Аноним 09/06/23 Птн 16:40:23 349228 271
>>345951
Хронос для рп очень хорош. Подробно описывает действия, мотивацию, шустро работает. Cum-zone с полотнами на весь экран, понимает фетиши и отсылки. Но удручают системные сообщения которые иногда появляются
> response
> start a new chat
> nsfw warning
похоже что при его обучении датасет был сырой и никак не чистили. Есть у него 30b версия?
>>345966
Нет, можешь ласкать, любить, насиловать, устраивать гуро или стать жертвой этого.


Господа, вы здесь на проце все сидите, или есть с карточками? Почему в угабуге оффлоад работает только с малой частью моделей для гпу? В других выдает длинные ошибки.
И по поводу ggml, какая производительность, например, для 30b модели, сколько ждать ответа?
Аноним 09/06/23 Птн 18:16:26 349356 272
Аноним 09/06/23 Птн 18:36:18 349376 273
Аноним 09/06/23 Птн 18:47:28 349397 274
>>349356
Ого, там же и GPTQ версия есть. Если запустится с оффлоадом то будет прекрасно.
>>349376
У тебя на зеоне или эпике? Как работает, с какой скоростью?
Аноним 09/06/23 Птн 19:00:52 349419 275
>>349376
Что по памяти? Объём, число каналов, скорость в той же аиде.
Аноним 09/06/23 Птн 20:04:20 349495 276
>>348898
>65b
>не более 8.5гб ram
Это как так?
Аноним 09/06/23 Птн 20:51:47 349590 277
>>349495
Вот и я удивляюсь. Может что-то не так делаю?

>>349397
Xeon. Работает довольно медленно. Смущает, что память расходуется как-то неадекватно мало.

>>349419
200гб примерно. 4 пары двухканальных плашек по 32гб, одна пока что временно проебана из-за загрязненного канала, буду чистить. Аиде? Есть что-нибудь опенсорсное чтоб быстро проверить?
Аноним 09/06/23 Птн 21:58:38 349693 278
>>349590
>примерно
Шутишь?
>4 пары двухканальных плашек по 32гб
Эм, два канала в итоге?
>Есть что-нибудь опенсорсное чтоб быстро проверить?
Нету, ставь аида64 и не выёбывайся попенсорсом.
Аноним 09/06/23 Птн 23:01:55 349756 279
>>349590
Ты бинарник собранный под винду запускал, или у тебя система соответствует железу? Интересный результат с памятью.
Я пробовал запускать на двусоккете на icelake зеонах. Больше сотни потоков, 16 каналов памяти, avx512, однопоток не самый плохой. В итоге скорость работы меньше чем на десктопе в 2-3 раза, результат просто убил. Возможно нужно разбираться с параметрами компиляции, там может быть что-то левое вместо математических библиотек, какой-нибудь древнючий openblas вместо mkl.
> Есть что-нибудь опенсорсное чтоб быстро проверить
Документация к ддр4 сколько в линпаке?
Аноним 09/06/23 Птн 23:08:46 349764 280
>>349693
>Нету, ставь аида64 и не выёбывайся попенсорсом.
У меня нет Windows.
>Эм, два канала в итоге?
4 блока и 2 канала на каждый.

>>349756
Я собрал программное обеспечение из исходников. Да, результат странный.
>сколько в линпаке?
Я проверю.
Аноним 09/06/23 Птн 23:14:11 349769 281
>>349764
Надо всеже мейкфайл хотябы почитать. Бегло просматривая ридми про разные варианты мат библиотек там был абзац. Возможно дело в них, при работе на десктопе лимит по тдп не выбирает но псп рам используется почти на всю, так что на серверном оборудовании должно летать, а тут такое. Если найдешь решение - отпиши, сообщу аналогично если будет результатъ, но особо не рассчитывай ибо займусь не в ближайшие дни.
Аноним 09/06/23 Птн 23:27:10 349774 282
image.png 116Кб, 769x770
769x770
>>349756
>сколько в линпаке?
Аноним 09/06/23 Птн 23:28:15 349775 283
>>349769
>Если найдешь решение - отпиши, сообщу аналогично если будет результатъ, но особо не рассчитывай ибо займусь не в ближайшие дни.
Dobro, anonchik.
Аноним 09/06/23 Птн 23:53:29 349807 284
>>349376
А в чем различие между этими моделями?
legacy-ggml-LLaMa-65B-q4_0.bin
legacy-ggml-LLaMa-65B-q4_1.bin
ggml-LLaMa-65B-q4_0.bin
Аноним 09/06/23 Птн 23:55:36 349810 285
image.png 8Кб, 857x52
857x52
image.png 1Кб, 256x36
256x36
Походу на днях KoboldAI-4bit ускорили. У меня раньше по 1 токену генерировало, а сейчас 1.3.
Аноним 10/06/23 Суб 09:10:54 350021 286
Крч, заебал меня огабога со своими говнообновлениями где после каждого модели перестают грузится. У кобольда хоть таких приколов нету?
Аноним 10/06/23 Суб 09:29:25 350028 287
.png 5Кб, 1450x40
1450x40
А ну да, как же без хуеты. Че ему надо? Почему не грузит? Мне всю хуйню перемииновывать как в колнсольке? ggml модель луны оно вообще не видит.
Аноним 10/06/23 Суб 13:28:41 350131 288
Аноним 10/06/23 Суб 13:36:47 350133 289
>>350021
Что именно грузиться перестало? Раньше оффлоад bluemoon, например, работал?
>>350028
Раскуривая гайды так и не получилось запустить его с последними квантованными моделями. Беда у него с совместимостью, а для расчетов на cpu cpp-версия лучше.
Аноним 10/06/23 Суб 14:19:51 350155 290
Подскажите, чем отличаются Alpaca Lora 65B GGML и GPT4 Alpaca LoRA MLP 65B GGML?
Аноним 10/06/23 Суб 14:33:47 350166 291
.png 16Кб, 904x143
904x143
>>350133
> оффлоад
Це что?
> именно грузиться перестало?
Пикрелейд вообще всё кроме луны13б
Аноним 10/06/23 Суб 14:55:09 350185 292
>>320577 (OP)
Какую модель скачать для русского языка?
Аноним 10/06/23 Суб 17:34:14 350286 293
>>350155
>MLP
Это видимо май литтле пони версия, с конями.
Мы ебём? Читай редми со страницы моделей.
>>350185
Сайгу ищи на хайгинфейсе.
Аноним 10/06/23 Суб 18:48:14 350381 294
>>350166
> Це что?
Выгрузка части слоев в рам. Вроде их должен обрабатывать процессор, но нагрузки на него не замечено. Вместо этого гоняет куски между рам-врам, делая микропаузы, а считает все картой. Почему-то с ним загружаются не все модели.
> Пикрелейд вообще всё
Ты в правой части битность, группы, тип модели выставил?
>>350286
> Сайгу ищи на хайгинфейсе
Оно нормальное вообще?
Аноним 10/06/23 Суб 19:54:33 350422 295
>>350381
>Оно нормальное вообще?
Не а, как и всё остальное на русике.
Аноним 10/06/23 Суб 22:50:33 350708 296
А самая не цензурированная модель это WizardLM, или я ошибаюсь?
Аноним 10/06/23 Суб 23:08:24 350728 297
>>350708
> я ошибаюсь?
Да. Ванила самая чистая от цензуры.
Аноним 10/06/23 Суб 23:53:06 350812 298
>>350728
Но она ж сосёт без файнтюна у всех остальных?
Аноним 10/06/23 Суб 23:54:47 350818 299
>>350812
Сосёт в чём? В маняскорах?
Аноним 11/06/23 Вск 00:00:28 350826 300
>>350818
Как минимум да. А кумить с ней я даже не пробовал, лол.
Где-нибудь есть модели в актуальных форматах? Чтобы самому не конвертить в новый высер герганова.
Аноним 11/06/23 Вск 10:14:58 351099 301
Аноним 11/06/23 Вск 10:16:39 351100 302
>>350728
>Ванила
А что это за модель, можешь дать ссылку?
Аноним 11/06/23 Вск 12:58:26 351212 303
>>351099
Да все, кто читать умеет: v2:revision c7a77373a922758317582d55474a7c34478669e2
wandb link
7 datasets: ru_turbo_alpaca, ru_turbo_saiga, ru_sharegpt_cleaned, oasst1_ru_main_branch, ru_turbo_alpaca_evol_instruct (1/2 iterations), ru_instruct_gpt4
Datasets merging script: create_chat_set.py
saiga30b_v2 vs saiga30b_v1: 86-19-71
v1:revision 8573592257aa6476e8179f09a922aff513592886
wandb link
4 datasets: ru_turbo_alpaca, ru_turbo_saiga, ru_sharegpt_cleaned, oasst1_ru_main_branch
Datasets merging script: create_chat_set.py
Loss: 0.817
Context length: 2000
Conversational template: "<s>{role}\n{content}</s>"
Possible roles: ["system", "user", "bot"]
System prompt: "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
Аноним 11/06/23 Вск 12:59:59 351215 304
>>350381
> группы, тип модели выставил?
Да - выставлял, оно начинает грузить, а потом прекращает процесс загрузки и в консольке появляется done, но ниче не загружено само собой.
Аноним 11/06/23 Вск 13:14:39 351227 305
image.png 1397Кб, 1347x6304
1347x6304
>>351100
это просто ллама, без всяких альпак и викунь. Кстати, самые запоминающиеся моменты (без кума) я испытал именно с лламой, 65 так и шутит часто, пару раз не мог поверить что это не человек пишет, хотел даже интернет отрубить на всякий случай когда она меня на бабки начала разводить (это 7 или 13 была).
Аноним 11/06/23 Вск 13:36:40 351246 306
Аноним 11/06/23 Вск 15:48:43 351337 307
Аноним 11/06/23 Вск 17:39:49 351459 308
Аноним 11/06/23 Вск 17:44:29 351464 309
(сорян за шизопост мы к вам)
>>351023 →
> Lib\site-packages\torch\lib
Да, без задней мысли, даже не посмотрел что там по дефолту, возможно замена не требуется
> У тебя без WSL?
1click installer, вчера до ласта обновил
> gpu-memory in MiB for device?
Да
> А как оно у тебя в еррором не падает?
А вот так, раньше падало и работало только с малой частью моделей, после обновы подгружает стабильно.
> Не пони, ты имел ввиду третью? У тебя же и так их должно быть две чтобы запустить хотя бы это всё.
Одна. Как это работает не вникал, вероятно, по аналогии с раскидкой слоев по разным карточкам но обрабатывается одной по очереди, храня буфер в рам. Ригов не имею, об успешном опыте в дискуссиях на гитхабе/реддите читал, один братишка на паре 4090 65б сетки запускает, другой на майнерской ферме с 3060. Хотя последнее вызывает сомнения, ибо обмен данных через pci-e 2.0 x1 все на ноль помножит. Будет случай достать вторую гпу - попробую.
> Это линпак совместимый с новыми авх?
С сайта интела же, офк.
Вместо не читай@make пересобрал с рекомендуемыми ключами стало лучше, обработка промта всеравно долго и загружено 40% потоков, а вот выдача токенов неплохо и маслает на все деньги
> всякие игродебильные тесты поделать
Встройка с ipmi и unix.
Без гпу помощи, 13900 (готовый бинарник на шинде):
Processing:124.8s (164ms/T), Generation:151.3s (3026ms/T), Total:276.1s
Processing:18.3s (373ms/T), Generation:60.6s (1212ms/T), Total:78.9s
Processing:156.8s (197ms/T), Generation:48.4s (968ms/T), Total:205.2s
Processing:4.6s (511ms/T), Generation:91.2s (1824ms/T), Total:95.8s
Processing:2.0s (284ms/T), Generation:41.8s (836ms/T), Total:43.8s

числодробилка:
Processing:162.5s (213ms/T), Generation:23.0s (460ms/T), Total:185.5s
Processing:29.2s (749ms/T), Generation:28.4s (567ms/T), Total:57.6
Processing:167.8s (209ms/T), Generation:8.7s (174ms/T), Total:176.5s
Processing:2.0s (223ms/T), Generation:32.7s (654ms/T), Total:34.7s
Processing:2.0s (284ms/T), Generation:29.2s (584ms/T), Total:31.2s

(ggml-bluemoonrp-30b-4k-epoch6-q5_0)
Надо было детерменистик с фиксирвоанным сидом поставить но уже лень, оптимизация все равно страдает.
Аноним 11/06/23 Вск 19:22:25 351565 310
>>351227
>пик
Как такую красоту получить?
Аноним 11/06/23 Вск 19:29:55 351567 311
Нюфаня тут.
Чем отличаются на практике модели с разным квантованием? Точностью ответа или чем-то еще? Если выбор между 30B 4bit 13B 8bit и 7B fp16 Что будет лучше и почему?
Аноним 11/06/23 Вск 19:50:27 351582 312
>>351567
Лучше будет 30B 5bit.
Аноним 11/06/23 Вск 20:10:05 351601 313
1559249885990.png 66Кб, 811x978
811x978
1592013402085.png 82Кб, 795x993
795x993
1647343895032.png 64Кб, 821x792
821x792
1632555258614.png 62Кб, 803x769
803x769
1543727932864.png 69Кб, 798x902
798x902
>>351565
> Такую красоту получить?
Это рофл про красоту, или тебе киберунижение понравилось?
Рп файнтюн для кумерства тогда вообще богоподобен выходит, не смотря на ошибки в родах, очепятки и косноязычие. Алсо не понятно, некоторые ответы из-за плохого знания языка или цензуры. На английском ее нет.
Аноним 11/06/23 Вск 20:22:38 351616 314
>>351601
Да нет, мне надо, чтоб как на пике разделение было, а не сплошным текстом
Аноним 11/06/23 Вск 20:29:37 351625 315
изображение.png 140Кб, 1336x222
1336x222
>>351601
Ебало всех, кто юзает сетки на русеке, имаджинировали?
Аноним 11/06/23 Вск 20:55:01 351655 316
>>351601
> Рп файнтюн для кумерства тогда вообще богоподобен выходит
Нет, буквально худший файтюн для диалога. Постоянно хочет свалиться в шизу, в форматирование не умеет совсем.
Аноним 11/06/23 Вск 21:06:34 351670 317
>>351616
Какое разделение?
>>351625
Толпу можно найти по запаху и использовать против них в судебном процессе
>>351655
Что имеешь ввиду, интересны примеры.
Аноним 11/06/23 Вск 21:18:21 351687 318
>>351670
> интересны примеры
Например в таверне невозможно добиться от этого рп писать подряд несколько сообщений, без твоей реплики. На втором-третьем сообщении по пизде всё идёт. Ни в одном другом файнтюне такого нет. В инструкции не умеет - тоже огромный минус, инструкции хорошо помогают сетке не путаться в форматировании.
Аноним 11/06/23 Вск 21:19:51 351691 319
Аноним 11/06/23 Вск 21:39:29 351715 320
>>351670
>Толпу можно найти по запаху и использовать против них в судебном процессе
Обмалафился там совсем с нейросетками?
>>351687
>На втором-третьем сообщении по пизде всё идёт.
Оно и на коммерческих сетках идёт, турба любит тупо повторять последний пост. Ты просишь слишком дохуя.
Аноним 11/06/23 Вск 22:00:48 351738 321
Кто нибудь может пояснить что это за k-quant methods?
Все эти q2_K, q3_K_S, q3_K_M, q3_K_L, q4_K_S, q4_K_M, q5_K_S, q6_K и прочее что эта хрень значит?
Аноним 11/06/23 Вск 22:09:19 351747 322
>>351715
Да ладно, довольно таки проигрышно сетка компенсировала свое незнание контекстом про преступления.
>>351687
Так ты про какой файнтюн говоришь? В том посте не bluemoon, с ней действительно все сложно, а Chronos. Поломки случаются - regenerate, а так работает с чатом, форматированием, инструкциями и т.д. довольно таки неплохо. Покажи пример как должно быть, интересно протестировать.
Аноним 11/06/23 Вск 22:10:41 351750 323
>>351715
> Ты просишь слишком дохуя.
Но ведь на большинстве файнтюнов с инструкциями без проблем хоть 10 можно сделать. Даже ванила без форматирования может, хоть иногда и начинает путаться после третьего-пятого.
Аноним 11/06/23 Вск 23:00:07 351847 324
>>351738
Очевидные методы семплирования очевидны. Не трогай, если не понимаешь что это, жди, пока умные дяди подрочат их и настроят на улучшение скора, вот тогда и возьмёшь готовые.
>>351747
>свое незнание
Чуть более чем уверен что сетка всё знает, но у тебя была задрана (или наоборот занижена) температура, вот и вышла хуета. Ну и да, русик.
>>351750
У меня всегда была хуйня при попытке сделать несколько сообщений подряд. Но у меня все истории с моим активным участием, для пассивного просмотра у меня кино есть.
Аноним 11/06/23 Вск 23:25:33 351898 325
>>351847
Возможно, если приказать отвечать на ангельском будет лучше. Какие настройки ты ставишь для разных случаев?
С минимальным участием и пустыми сообщениями попробовал на пресете Novel-AI, все работает. Форматирование местами поломалось, но отчасти из-за того что описание растягивалось на несколько сообщений и таверна звездочки игнорит после ньюлайна, хотя сеть их старается закрывать.
Довольно крнижовый и рофловый кумерский бедтрип выходит, когда говоришь/действуешь оно всеже лучше.
Аноним 11/06/23 Вск 23:59:04 351972 326
>>351898
>приказать отвечать на ангельском
Другие языки в принципе не использую.
>>351898
>когда говоришь/действуешь оно всеже лучше
Поэтому давно забил на кум в одну сторону.
Аноним 12/06/23 Пнд 01:19:22 352096 327
>>351972
> кум в одну сторону
Не интересен бай дефолт, лучше додзи почитать. Разве что понаблюдать как не направляемый персонаж дает отпор, если не поломан нсфв промтом, или порофлить с внезапных поворотов.
Суть во взаимодействии и ответной реакции, кум даже не обязателен, на западных ресурсах это уже "терапией" обзывают. Когда действия в меру соответствуют ожиданию и хорошо описываются это действительно приятно.
Аноним 12/06/23 Пнд 01:32:35 352102 328
Аноним 12/06/23 Пнд 09:42:09 352281 329
>>351582
Понятно.

Нюфаня снова на связи.
Можете подсказать, а лучше дать ссылки на лучшие по вашему мнению кумерские или не кумерские рп модели? На HF я либо не знаю как искать, либо их там миллион. А интернет у меня не очень быстрый для брутфорсной проверки скачкой.
Аноним 12/06/23 Пнд 11:44:21 352332 330
>>351464
> Да, без задней мысли, даже не посмотрел что там по дефолту, возможно замена не требуется
Там второй торч по дефолту и так устанавливается.
> А вот так, раньше падало и работало только с малой частью моделей, после обновы подгружает стабильно.
Оно и сейчас падает, просто по дефолту выбран новый способ подгружать модели теперь, у меня с ним перформанс никакой вообще, как с цпу, лол. Галочка gpt-for-llama стояла?
> Одна. Как это работает не вникал, вероятно, по аналогии с раскидкой слоев по разным карточкам но обрабатывается одной по очереди, храня буфер в рам. Ригов не имею, об успешном опыте в дискуссиях на гитхабе/реддите читал, один братишка на паре 4090 65б сетки запускает, другой на майнерской ферме с 3060. Хотя последнее вызывает сомнения, ибо обмен данных через pci-e 2.0 x1 все на ноль помножит. Будет случай достать вторую гпу - попробую.
Как у тебя впринципе на младшей карте с 12гб перформанс как у 4090 и 30б модель загружается без отвала, попахивает пиздежом честно говоря. Что по системе остальной, кроме 13900, сколько памяти, на какой частоте? Что по ресайз бару?
> Вместо не читай@make пересобрал с рекомендуемыми ключами стало лучше, обработка промта всеравно долго и загружено 40% потоков, а вот выдача токенов неплохо и маслает на все деньги
А пересобирал то что, кобольдцпп, ламацпп?
> Встройка с ipmi и unix.
Я так понял тебе тот суперкомпьюче не принадлежит и ты просто не можешь туда поставить винду и тестишь напрямую на каком то никсе на нём и сравниваешь с 13900 на винде?
Интересно, почему так сильно генерация 50 токенов по времени отличается, даже не учитывая времени обработки промпта?
Я видел тут какое то ускорение обработки промпта обсуждали кстати, типо на гпу сбросить вроде эту хуйню можно.
Аноним 12/06/23 Пнд 12:19:26 352373 331
Аноним 12/06/23 Пнд 12:59:56 352428 332
>>352373
ясен хрен чатгпт потому что стоит на более мощных компуктерах чем даже 65ккк модель на домашнем компуктере.
но чтоб точно ответить на твой вопрос нужно хотя бы знать каким образом сравнить модель.
ллама ето модель которую возможно квантовать под игорьковый компуктер и чатиться вовсю в оффлайне.
чатгпт типа давинчи параша полная и проигрывает даже лламе квантованная в 2 бита для мобильных телебонов.
если про тот чатгпт который сейчас доступен в вебюай от openai то он явно быстрее и лучше лламы по всем параметрам но кроме оффлайна и защиты конфиденциальности.
Аноним 12/06/23 Пнд 13:06:09 352447 333
>>352428
Я нифига не шарю, просто, спасибо за ответ
Аноним 12/06/23 Пнд 14:51:22 352578 334
1579542354138.png 260Кб, 2211x1190
2211x1190
>>352332
> Там второй торч по дефолту и так устанавливается.
Значит норм, хотя в конце апреля скачав начисто коммит на 2м торче ахуевал с вялого перфоманса на больших батчах и тайлах.
> Оно и сейчас падает
Не, загружает, при этом в сонсоле пробегают полоски во время нарезки модели и идет аллокация более 120 гигов в пике. Конфиг не трогал, оно по дефолту понимает.
> на младшей карте с 12гб
Путаешь с кем-то, прежде чем искать врунишек разберись сначала. Хотя держи фокус с использованием только 12 гигов без отвалов, производительность в сделку не входила.
> Что по системе остальной
13900к, 4090, 128рам (@5200), ссд, что именно нужно? Ребар включен.
> кобольдцпп
This
> тот суперкомпьюче
Стоит в серверной с собратьями, поставить можно что угодно, но линуксы продиктованы работой и не являются причиной замедления, скорее наоборот. Нюанс может быть в компиляции - сейчас она и либы должны быть идентичны, надо пробовать собрать с помощью интел студио компилятора. Каждый раз видя шиндоуз сервер на подобном оборудовании ловлю кринж, хотя офк иногда вынужденная мера.
> Интересно, почему так сильно генерация 50 токенов по времени отличается, даже не учитывая времени обработки промпта?
Хз, если в таверне пробовать заседать то большей частью ответы по 20-50 секунд, но иногда проваливается в очень долгие раздумья, явно связанные с полной обработкой всего контекста. Вероятно, это как раз и работает смарт контекст, иначе все ответы были бы такими.
Гпу ускорение работает, но не впечатляет.
Аноним 12/06/23 Пнд 15:16:53 352619 335
Вот здесь все топовые модели для RP :
https://rentry.org/ayumi_erp_rating
пчел с пендосского /lmg/ обновляет это часто.
Аноним 12/06/23 Пнд 17:17:35 352790 336
1.png 183Кб, 2560x1212
2560x1212
2.png 117Кб, 2560x1212
2560x1212
3.png 189Кб, 2560x1212
2560x1212
4.png 156Кб, 2560x1212
2560x1212
>>352578
> Значит норм, хотя в конце апреля скачав начисто коммит на 2м торче ахуевал с вялого перфоманса на больших батчах и тайлах.
Там какая то серьёзная проблема совместимости была между автоматиком и иксформерами, у меня просто хайрез отказывалось генерить как раз в этот промежуток времени на свежих иксформерсах.
> Не, загружает, при этом в сонсоле пробегают полоски во время нарезки модели и идет аллокация более 120 гигов в пике. Конфиг не трогал, оно по дефолту понимает.
Смотри, ты загружаешь новым способом, там такое походу реально работает. На скринах 1-2 загрузка старым каноничным gptq-for-llama, там прямо написано что его надо со слоями юзать, иначе будет как на скрине 2.
Загрузка же этим новым AutoGPTQ у меня выдаёт вот такой ворнинг WARNING:The model weights are not tied. Please use the `tie_weights` method before using the `infer_auto_device` function. Может ли от этого стать мемори менеджмент хуже, я хз, но вот например я выставляю 14000мб на скрине 3 сразу улетает в бездонное жерло модели 20 с лишним после загрузки.
После же потребление снижается до ~17, но всё равно с контекстом начинает расти, несмотря на ограничение в 14гб, при этом теряя огромное преимущество в скорости, генерируя 1т/с. Я понимаю, шинда там сожрёт сколько то и ещё мб что-то, но какой же смысл то тогда генерить так медленно и всё равно упираться в врам?
У тебя на скрине кстати тоже выползает сильно за пределы, дело типо не в ворнинге этом и так и было задумано?
> Путаешь с кем-то, прежде чем искать врунишек разберись сначала.
Я как раз и пытаюсь. Ладно, видимо ты тут писал про дискуссии на жидхабе >>350846 → а у меня закрепилось в памяти контексте что у тебя там риг из 3060
> 13900к, 4090, 128рам (@5200), ссд, что именно нужно? Ребар включен.
Всё, теперь понял, сорян, зря быканул. Только одного не пойму, откуда такая разница чуть ли не в 2 раза в токенах у нас с тобой, у меня тоже 4090, ты ведь говорил что у тебя ассистент 17т/с может максимум, неужели из-за версии винды? Или опять кукурузен прошлого поколения виноват?
> This
Так то у тебя прямо нихуёвая же скорость на числодробилке, конечно хотелось бы получше, но всё таки
Output generated in 712.78 seconds (1.04 tokens/s, 740 tokens, context 45, seed 808166328)
И этот пиздец с 14 гигами врама, которые в конце концов всё равно скорее всего забьются до предела.
А ты кобольд для GPTQ не пробовал кстати? Я вот пробовал, когда у меня угабуга не работала из-за нехватики свопа, вроде тоже интересный бекенд для гпушек, умеет прогресс даже показывать и внутри самого себя имеет кучу настроек.
> и не являются причиной замедления, скорее наоборот
База.

> Каждый раз видя шиндоуз сервер на подобном оборудовании ловлю кринж, хотя офк иногда вынужденная мера.
Я с огромными серваками не сталкивался, но зачем вообще может понадобиться шиндошз сервер, ну кроме троллинга?

> Хз, если в таверне пробовать заседать то большей частью ответы по 20-50 секунд, но иногда проваливается в очень долгие раздумья, явно связанные с полной обработкой всего контекста. Вероятно, это как раз и работает смарт контекст, иначе все ответы были бы такими.
Возможно, а бд то на быстром ссд?
> Гпу ускорение работает, но не впечатляет.
Так понимаю уже попробовал с суперкомпьютером это, ну я больших надежд так то на цпу и не возлагал, мне больше всего интересно попробовать или узнать где нибудь что там насчёт добавления какой нибудь херни типо 8-12 гигов к 4090 условной, чтобы они 8х8 стояли. Ну или если это не критично то уже через райзер куда то вытащить вторую. Ты всё таки отпиши, если соберёшься такое потестить, ну или скинь где ты там успешные опыты читал, в каких дискуссиях.
Аноним 12/06/23 Пнд 17:42:23 352831 337
>>352578
Чего такие частоты низкие на твоей 4090? Палит что ли? 2600 - это даже ниже стока.
>>352790
Чел, что за шизу ты вывалил? Просто берёшь ветку fastest-inference-4bit и имеешь с ходу 15-20 т/с на 30В, главное чтоб act-order не было.
Аноним 12/06/23 Пнд 18:04:33 352854 338
1593101771640.png 112Кб, 1113x626
1113x626
1535171151185.png 676Кб, 2740x1724
2740x1724
>>352790
> проблема совместимости
Да вот хз, там эйлер 512 ~33итерации а большие пачки в 2 раза дольше делаются. Заменил длл и все стало как надо, даже не разбирался.
Оно действительно загружает сильно больше чем дозволено, с этим ничего не поделать, но не беспредельно, рост останавливается. Вообще если не трогать этот параметр, то оно по дефолту выставляет лимит и делает запас в 1 гиг (емнип) что в теории должно позволять загрузить условно любую модель, вот только по факту запас нужен совсем иной. Работает коряво, но работает главное.
Свитспот настройки в районе 17-18 гигов, выгружается мало слоев и почти нет импакта на производительность, зато ООМ лечит. Выставишь меньше - замедлися в разы, выставишь больше - ООМ. И да, оно не забьется со временем
> чуть ли не в 2 раза в токенах у нас с тобой
Ну я назвал скорость которая обычно держится, просадки до 10 и ниже тоже бывают хотя не часто, иногда овер 20 выдает. Вот с настройками на длиннопосты сейчас столько нарандомил. Это же зависит от модели, от настроек, от самого промта - там флуктуации огромные, на фоне этого процезависимости не различить кмк.
> нихуёвая же скорость
Приемлемо, но всеравно от гпу далеко.
> А ты кобольд для GPTQ не пробовал кстати?
Обычный ставил, ахуел с его требований к дисковому пространству, в итоге он большую часть моделей не загружает просто. Угабуга может в апи, для проца есть coboldcpp, так что нахуй.
> быстром ссд?
u2 локальный, никаких люстр, с этим все норм.
> скинь где ты там успешные опыты читал, в каких дискуссиях
Как ни странно встречал их когда пытался искать решения загрузить таким способом модели, которые не работали (на ласт коммите уже все работает). Просто в дискуссиях вбей мультипл, сплит и т.д. https://github.com/oobabooga/text-generation-webui/discussions/594 https://github.com/oobabooga/text-generation-webui/discussions/1416 реддит угабуги сейчас заприватили кстати
Оно вроде как из коробки должно работать и поле загрузки будет иметь больше ползунков (пик2)
>>352831
А то что она на 70вт нагружена тебя не смущает?
Аноним 12/06/23 Пнд 18:57:42 352930 339
Аноним 12/06/23 Пнд 19:02:39 352945 340
>>320577 (OP)
Сейчас есть 32 гига оперативы и рязань 3600, целесообразно ли купить еще оперативы для скорости? Видюха на 8гб 3070ти, но туда нихуя не влазит.
Аноним 12/06/23 Пнд 19:05:41 352954 341
>>352945
> 8гб 3070ти
6-7-13b модели с выгрузкой как выше описывают пробовал?
Аноним 12/06/23 Пнд 19:25:18 352983 342
>>352930
В свежих драйверах ООМ убрали, когда кончается VRAM просто падает скорость в 3 раза и оно едет на RAM. Ноют только нищуки с 4-8 гигами, у остальных всё заебись, теперь не надо бояться что упадёт сетка.
Аноним 12/06/23 Пнд 19:26:09 352985 343
>>352954
> пробовал
Нет. А 6,7 не маловато? Сейчас ковыряю 13б, так мне ИИ моими же словам отвечает.
Аноним 12/06/23 Пнд 19:26:10 352986 344
>>352831
> Чел, что за шизу ты вывалил? Просто берёшь ветку fastest-inference-4bit и имеешь с ходу 15-20 т/с на 30В, главное чтоб act-order не было.
Поставилось с этой ветки нормально, во время генерации ловлю еррор какой то TypeError: vecquant4matmul(), видать всё таки что то не так собралось, есть колесо рабочее под винду где то на эту ветку?
>>352854
> Свитспот настройки в районе 17-18 гигов, выгружается мало слоев и почти нет импакта на производительность, зато ООМ лечит. Выставишь меньше - замедлися в разы, выставишь больше - ООМ. И да, оно не забьется со временем
Понял, попробую.
> Ну я назвал скорость которая обычно держится, просадки до 10 и ниже тоже бывают хотя не часто, иногда овер 20 выдает. Вот с настройками на длиннопосты сейчас столько нарандомил. Это же зависит от модели, от настроек, от самого промта - там флуктуации огромные, на фоне этого процезависимости не различить кмк.
Ты ничего кроме обычной однокнопочной установки не делал? Ну не может же в два раза производительность просто проседать с нихуя. Выше с ветки не ставил эту херню?
> Обычный ставил, ахуел с его требований к дисковому пространству, в итоге он большую часть моделей не загружает просто. Угабуга может в апи, для проца есть coboldcpp, так что нахуй.
Там же тоже апи.
> u2 локальный, никаких люстр, с этим все норм.
С сервера чтоли снял? А люстры это видимо светодиоды, ну человек культуры получается.
> Как ни странно встречал их когда пытался искать решения загрузить таким способом модели, которые не работали (на ласт коммите уже все работает). Просто в дискуссиях вбей мультипл, сплит и т.д. https://github.com/oobabooga/text-generation-webui/discussions/594 https://github.com/oobabooga/text-generation-webui/discussions/1416 реддит угабуги сейчас заприватили кстати
> Оно вроде как из коробки должно работать и поле загрузки будет иметь больше ползунков (пик2)
Там что то у половины фурычит, у другой нет, пришёл герой и раскидал за необходимость рам. А с реддитом что случилось?
Я забыл кстати модельку на кошку залить, завтра тогда поделюсь, если надо до сих пор.
Аноним 12/06/23 Пнд 20:28:28 353138 345
>>352983
Ну у тс там 4090 если что. И на SD подобная фигня.
Аноним 12/06/23 Пнд 20:29:31 353140 346
>>352986
> Ты ничего кроме обычной однокнопочной установки не делал?
Ну, либы и потом обновлял ее однокнопойной обновлялкой. До этого пробовал пошаговую установку, в полноценной конде рабочее окружение настраивал, ебался со всем этим - странные ошибки при загрузке ggpl моделек, только ggml на проц. В итоге ванклик - работает.
> Там же тоже апи.
Встроенный чат вебуи слабоват, но раз оно может в апи и дружит с таверной, а кобольд не хочет заводится - пока так. Если у получится на кобольде запустить что-нибудь и будет хорошо работать - отпиши, интересно.
> С сервера чтоли снял?
В смысле что локальная файловая система на быстром диске, как в обычной пекарне. Никаких сетевых ФС, интерфейсов типа iscisi и прочего что могло бы вызвать дополнительные задержки.
надо офк
Аноним 12/06/23 Пнд 22:36:12 353523 347
Как же хочется ламочку... дружелюбную и открытую, цензурой не обезображенную, уютную, локальненькую, только твою собственную...
Эх...

мимонищий с i7-2600k и gtx 1080
Аноним 13/06/23 Втр 00:22:02 353676 348
Аноним 13/06/23 Втр 00:24:05 353679 349
Аноним 13/06/23 Втр 00:31:13 353693 350
>>352983
А, теперь понял почему у меня в sd скорость генерации упала в 15 раз.
Мимо нищук с 4 гигами.
Аноним 13/06/23 Втр 01:14:03 353767 351
>>353679
>Лама 13Б лучше опт 3.5, мысли?
Мысль одна- пиздабольство.
>>353693
По логике раньше у тебя должно было постоянно падать.
Аноним 13/06/23 Втр 01:32:22 353800 352
Аноним 13/06/23 Втр 01:46:37 353812 353
>>353800
Ты хоть по ссылкам заходил? Модель ещё не опубликована.
Аноним 13/06/23 Втр 01:55:08 353818 354
Аноним 13/06/23 Втр 01:57:59 353821 355
>>353767
>По логике раньше у тебя должно было постоянно падать.
Да, но раньше у меня не падало, иногда только, если долго генерить и менять разрешение постоянно, 512х512 20 семплов генерилось 20 секунд примерно. Теперь сразу генерит около двух минут, видимо драйвера сразу делают выгрузку в оперативную память части данных, что бы предупреждать ООМ, что дает такое замедление.
Аноним 13/06/23 Втр 02:00:19 353824 356
>>353679
Количество переходит в качество, хорошее обучение может быть эффективнее колоссальных размеров, а для логики и формирования причинно следственной связи 13 миллиардов более чем достаточно.
Интересно увидеть зависимость "осведомленности и знаний" модели от ее размера, а также посмотреть не "вымоются" ли приобретенные достоинства Орки при дальнейшем файнтюне.
>>353818
Вот это круто, ждем релиза
Аноним 13/06/23 Втр 09:28:18 353958 357
>>349807
Более старые версии, видимо, который жаль удолять.
Аноним 13/06/23 Втр 10:06:36 353972 358
>>353812
>Модель ещё не опубликована.
И не будет, с нынешней тенденцией на пиздабольные статьи. Альпаку тоже не публиковали если что.
>>353824
>а для логики и формирования причинно следственной связи 13 миллиардов более чем достаточно
Откуда это знание свыше?
>>353824
>а также посмотреть не "вымоются" ли приобретенные достоинства Орки при дальнейшем файнтюне.
Надо посмотреть, есть ли эти достоинства вообще. А то как бы и изначальная ллама лучше чатжпт, потом всякие викуни были лучше чатжпт. В итоге модели улучшают и улучшают, а чатжпт на деле всё ещё недосягаем.
Аноним 13/06/23 Втр 10:07:00 353974 359
>>353812
>Модель ещё не опубликована.
И не будет, с нынешней тенденцией на пиздабольные статьи. Альпаку тоже не публиковали если что.
>>353824
>а для логики и формирования причинно следственной связи 13 миллиардов более чем достаточно
Откуда это знание свыше?
>>353824
>а также посмотреть не "вымоются" ли приобретенные достоинства Орки при дальнейшем файнтюне.
Надо посмотреть, есть ли эти достоинства вообще. А то как бы и изначальная ллама лучше чатжпт, потом всякие викуни были лучше чатжпт. В итоге модели улучшают и улучшают, а чатжпт на деле всё ещё недосягаем.
Аноним 13/06/23 Втр 10:34:53 353991 360
Аноним 13/06/23 Втр 11:08:00 354014 361
>>353991
Это интересно. Но как я понял, там будет именно обучение с нуля, а хотелось бы файнтюнинг.
Аноним 13/06/23 Втр 12:11:28 354063 362
tavern.png 893Кб, 799x1325
799x1325
Со скуки запустил сегодня таверну с кобольдом, до них обычно юзал чистую ламу для генерации текстов.
В случае с таверной становится очевидно что детальный промт это девяносто процентов успеха. На одном и том же персонаже особой разницы между ggml-bluemoonrp-30b-4k-epoch6-q5_0 и WizardLM-13B-1.0.ggmlv3.q8_0 практически не ощущается, это при том что голубая луна работает раза в два медленнее.
Аноним 13/06/23 Втр 14:19:49 354172 363
>>353972
> Откуда это знание свыше?
Выводы документа свыше
> А то как бы и изначальная ллама лучше чатжпт
С кучей звездочек и условий "а ты вот в таких вопросах потести" или в редких категориях, а здесь широкий перечень объективных тестов. Ты вообще бумагу читал или хотябы видео смотрел?
>>354063
Это та самая проебанная разметка, о которой говорилось? 4к контекста луны ощущаются?
Аноним 13/06/23 Втр 14:34:33 354189 364
>>353972
>А то как бы и изначальная ллама лучше чатжпт,
Такого никто никогда не говорил. В пейпере сравнение с гпт3, ллама 13В показала себя лучше.
Аноним 13/06/23 Втр 14:48:53 354206 365
>>354172
>Это та самая проебанная разметка, о которой говорилось?
О чем речь? Я что-то не в курсе.
Аноним 13/06/23 Втр 15:36:58 354296 366
>>354063
Все 13b в 2 раза быстрее 30b. Даже если ты разницы не видишь, в сухом остатке это все равно 2к против 4к.
Аноним 13/06/23 Втр 17:58:13 354541 367
>>354206
Вот тут заявлялось >>351687 >>351655
И еще, у тебя с блумун получилось добиться годных длинных реплик? Здесь >>354063 неплохо с точки зрения содержательности, но твои реплики (инперсонейт хоть?) чуть ли не длинее, и нет визуальной разметки речи/действий.
Аноним 13/06/23 Втр 19:05:52 354672 368
>>354541
>твои реплики (инперсонейт хоть?) чуть ли не длинее
Не дашь контекст - получишь хуйню в ответе, а с заданной ситуацией сетки на удивление неплохо справляются.

>нет визуальной разметки речи/действий
Тут неплохо работает стандартная книжная система диалогов, когда речь выделяется кавычками, а действия остаются за ними.
Аноним 13/06/23 Втр 20:11:32 354764 369
>>354672
>Тут неплохо работает стандартная книжная система диалогов, когда речь выделяется кавычками, а действия остаются за ними.
Чисто визуально лучше, когда действия обозначаются курсивом, а речь идёт как обычно.
Аноним 13/06/23 Втр 20:31:04 354779 370
>>354764
Лучше-то конечно лучше, только книжная разметка встречается буквально везде, а то что ты предлагаешь - достаточно редко. Так что шансы получить на выходе тот вариант, который тебе нравится больше, всё ж таки ощутимо ниже.
Аноним 13/06/23 Втр 20:33:14 354782 371
1622936531386.png 742Кб, 800x1661
800x1661
>>354764
Двачую, и ньюлайны сильно облегчают чтение. Можно ли как-то научить таверну помнить про форматирование между сообщениями?
>>354779
Книжная разметка не идет сплошным текстом внавал.
Аноним 13/06/23 Втр 22:03:26 354973 372
Screenshot1.png 109Кб, 1213x868
1213x868
Аноним 13/06/23 Втр 22:25:02 355020 373
А как запустит GPTQ модель?
Аноним 13/06/23 Втр 22:25:49 355025 374
>>354973
> Note that CUDA builds will still not be generated by default, and support for them will be limited.
С чего бы это, неужели хозяин репы - убежденный владелец красной карточки?
Тестировал кто уже?
Аноним 13/06/23 Втр 22:48:33 355064 375
изображение.png 20Кб, 1123x96
1123x96
>>355020
Пик из шапки.
>>355025
>неужели хозяин репы - убежденный
Разумист, которому претят полугиговые релизы со всякой шнягой. Поэтому и ограниченая поддержка, собирает время от времени.
Аноним 13/06/23 Втр 23:02:12 355095 376
>>355064
Если нет ограничений со стороны гитхаба или каких-то сложностей с отладкой - глупая отговорка на фоне пропасти в производительности. Ограниченность поддержки особенно выделяется.
> собирает время от времени
> make_pyinstaller.bat
Аноним 13/06/23 Втр 23:05:46 355104 377
>>355095
Предложи свою помощь да стань ответственным за куда релиз.
Аноним 14/06/23 Срд 00:18:20 355190 378
1686691099514.jpg 6Кб, 676x40
676x40
>>353812
> Модель ещё не опубликована.
> Лама 13Б
Аноним 14/06/23 Срд 00:27:56 355206 379
>>355104
Тогда оно вообще никогда до релиза не дойдет, увы.
>>355190
Глупенький, там речь об орке13, которая есть файнтюн ламы13 описанными способами.
Аноним 14/06/23 Срд 00:36:05 355211 380
1686692164750.jpg 80Кб, 794x798
794x798
>>352428
> чатгпт типа давинчи параша полная и проигрывает даже лламе квантованная в 2 бита для мобильных телебонов.
Аноним 14/06/23 Срд 00:37:07 355213 381
1686692226229.webm 301Кб, 960x720, 00:00:04
960x720
>>355206
Файнтюн говна внезапно обошёл всех на повороте и стал номером один.
Аноним 14/06/23 Срд 00:42:56 355220 382
>>355213
Ну как (если) выложат то можно будет и проверить, суть в новом подходе обучения, который и позволяет достигнуть такой эффективности. Ты утенка покумерив словил, или чего такой ангажированный?
Аноним 14/06/23 Срд 00:44:17 355222 383
Аноним 14/06/23 Срд 00:46:14 355225 384
>>355222
Троллинг тупостью или ты серьезно? В майкрасофт напиши, затребуй выложить а то ты им не веришь.
Аноним 14/06/23 Срд 00:47:51 355226 385
>>355225
> Троллинг тупостью
Нет, я думаю ты реально тупишь. Ты можешь выложить свою крутую модель. Но ты этого не сделаешь, потому что нельзя будет продолжать кукарекать о том, какая она крутая и уделывает жпт.
Аноним 14/06/23 Срд 00:56:12 355238 386
>>355226
Ознакомься о чем речь идет прежде чем что-то писать >>353676 >>353679 а то совсем не в тему кривляешься
Аноним 14/06/23 Срд 01:50:42 355261 387
>>355213
Но ведь все модели когда-то были шумом... Или нулями?
Аноним 14/06/23 Срд 10:07:46 355505 388
>>355238
>Ознакомься о чем речь
Я вот ознакомился и вижу очередное пиздабольство, которое слышу со времён утечки релиза лламы.
>>355261
Шумом, нули сосут. У меня есть идея лучшей инициализации, чем нули, но раскрывать я её без патентования конечно же не буду.
Аноним 14/06/23 Срд 10:15:12 355510 389
>>355505
> Не читай@отвечай
> @
> нет не обосрался а так и было задумано
Этот патентователь сделал мое утро
Аноним 14/06/23 Срд 11:15:43 355564 390
>>355510
Еблан, я всё прочитал, просмотрел и прочее. Пока нет модели в открытом доступе, они пиздаюболы по определению, и не нужно проецировать свои влажные фантазии о топ моделки у себя на ПК на реальную ситуацию в индустрии.
Аноним 14/06/23 Срд 13:00:03 355652 391
Всем чмоки в этом чатике.

Там появилось что-то на уровне турбы, что можно поставить локально?
Аноним 14/06/23 Срд 13:23:15 355675 392
>>355652
Нет. Даже наоборот, турба обзавелась 16к контекстом, пока ллама еле добирается до 4к.
Аноним 14/06/23 Срд 13:38:03 355693 393
>>355564
Проекции только с твоей стороны, а после тех постов твой bias очевиден. Пока не выложат - да, можно сомнению подвергать, но публикация мелкомягких, где они рассказывают об эффективности самого подхода, а не хвастаются что подебили всех и вся, вызывает куда больше доверия чем свидомый чсв двощер.
> свои влажные фантазии о топ моделки у себя на ПК на реальную ситуацию в индустрии
Вот здесь бы психоаналитик разыгрался, дерейлить нейтральное обсуждение сути в аутотренинг, и сочетать это с обвинениями в проекциях.
Аноним 14/06/23 Срд 13:54:09 355710 394
>>355693
>Пока не выложат - да, можно сомнению подвергать
Не можно, а только так и нужно. Иначе останутся сплошные восторженные отклики без реального движения (а я его не наблюдаю пару месяцев уже).
>Вот здесь бы психоаналитик разыгрался
По мне дурка плачет, я знаю. Но только потому, что я мыслю слишком нестандартно.
Аноним 14/06/23 Срд 15:44:21 355796 395
Кто шарит в теме, для тренировки например 410М модели, сколько памяти может понадобится?
понятное дело, фантастических результатов от такой модели ожидать не приходится, но если б она хотяб могла отвечать текстом из обучающего материала, был бы наверное топчик для легких чат-помощников....
Аноним 14/06/23 Срд 16:35:56 355847 396
изображение.png 137Кб, 1682x754
1682x754
>>355796
Мало на самом деле. Можешь взять готовый скрипт на основе GPT2 да проверить
https://habr.com/ru/articles/672434/
(лол вскод в тензорбоард умеет, теперь можно дрочить на графики не выходя из IDEшки)
Но это куда-нибудь в технотред, на основе лламы таких размеров готовых сеток нет, минимум 7B.
>>355796
>текстом из обучающего материала, был бы наверное топчик для легких чат-помощников....
Лучше возьми 13B лламу да обмажь её langchain, как раз для этого штука.
Аноним 14/06/23 Срд 16:50:41 355863 397
>>355847
нету в ламме поддержки нужного языка на нормальном уровне... та и жирновато для помощника...
по хорошему - задача весьма тривиальная была б - понять вопрос и послать на страницу сайта где есть ответ, или процитировать со страници... но по обучению чет материала вообще практически нет, хотя где-то 410м модели видел, (и даже меньше) что в теории дало бы возможность тренировать на видеокартах даже пользовательского уровня...
Аноним 14/06/23 Срд 16:54:17 355868 398
>>355863
>нету в ламме поддержки нужного языка
Башкирского что ли?
>>355863
>та и жирновато для помощника...
Маловата как по мне.
>>355863
>что в теории дало бы возможность тренировать на видеокартах даже пользовательского уровня...
Скрин выше посмотри. Литерали на проце за 2 минуты (дальше перетрейн), сетка 200м, если верить статье.
Конечно на длинных фразах нужно и сетку больше, и трейн сильнее, но в принципе даже видяха не нужна.
Аноним 15/06/23 Чтв 19:37:43 357573 399
Какими мощностями должен обладать процессор, чтобы он мог спокойно и без задней мысли крутить ламу? Какие вообще у нее системные требования?
Аноним 15/06/23 Чтв 20:07:15 357601 400
>>357573
Можешь хоть на кофеварке крутить, влияет в основном объём и скорость памяти. Чем больше тем лучше, идеал это DDR5 на 8 каналов.
Аноним 15/06/23 Чтв 20:12:02 357610 401
>>357601
> объём и скорость памяти
А процессор? Реально ли собрать отдельный сервер под Ламу, который будет работать 24/7, что бы я мог из любого места делать запрос?
Аноним 15/06/23 Чтв 20:17:36 357616 402
>>357610
>А процессор?
Почти что пофиг. Большую часть времени проц ожидает данные из памяти. Если возьмёшь современный интол с тухлоядрами, то не забудь закрепить за процессом кобольда нормальные ядра, иначе скорость генерации просядет. Про современные амуди таких сообщений не поступало, хотя надо бы посмотреть, как сетки отреагируют на ядра с огромным кешем версий 7900X3D.
Аноним 15/06/23 Чтв 20:51:22 357680 403
>>357616
32 гигов ddr4 на 3200 будет достаточно для комфортного использования ламы?
Аноним 15/06/23 Чтв 20:57:10 357698 404
>>357573
У меня кобольд +- норм гоняет WizardLM 30B q4_0 с оффлоадом 34 слоев на 3060. Проц - рузен 5700G, память - 4200 ддр4 (63к чтение/запись в аиде)
Аноним 15/06/23 Чтв 20:57:39 357700 405
>>357698
>память
16 Гб двухканалом, забыл уточнить.
Аноним 15/06/23 Чтв 21:00:11 357704 406
Аноним 15/06/23 Чтв 21:10:52 357731 407
>>357698
> с оффлоадом 34 слоев
Как так? У меня 3070ti и выше 20 сразу вылетает кобальд с сообщением о нехватки памяти.
Аноним 15/06/23 Чтв 21:12:34 357733 408
>>357731
У 3060 на 4 Гб больше памяти, чел.
Аноним 15/06/23 Чтв 21:25:10 357761 409
>>357680
Минимум я бы сказал. У самого 3600, не сказать чтобы было сильно быстро.
Аноним 15/06/23 Чтв 21:31:05 357770 410
>>357761
У меня материнка больше 32гб 3200 не может :(
Аноним 15/06/23 Чтв 21:38:20 357781 411
>>357770
Бери новый комп, на DDR5.
Аноним 15/06/23 Чтв 21:40:48 357784 412
>>357781
> Бери новый комп
Взял бы, если бы деньги были.
Аноним 15/06/23 Чтв 21:41:51 357786 413
>>357704
>Рабочего стола тред стартует тут
Сука в голосину. На таком можно только шизоида обучить.
Аноним 15/06/23 Чтв 22:04:57 357809 414
>>357704
То что надо, я думал как лучше собрать датасет а тут уже готовый есть, тоже хочу попробовать хотя бы это дело запустить потрениться, думаешь сайга как базовая модель подойдёт? Она вроде лучше всех в русский может?
Аноним 15/06/23 Чтв 22:29:21 357844 415
>>357809
Да я сам только вкатываюсь, можно сказать. Хотел изначально на чем-нибудь более адекватном, но не ожидал, что остальные модели прям не очень с русским языком
Аноним 16/06/23 Птн 11:40:00 358284 416
>>357610
Ну возьми 3600/5500 с алика за 5,5к рублей, добавь материнку ам4, память побыстрее, 32+32 в двухканале или 16+16, если тебе 30B хватит, ssd-шка, чтобы грузилась побыстрее и все. У самого стоит сервачок дома, удобная хуйня.
Аноним 16/06/23 Птн 15:37:21 358450 417
>>358284
Вот кстати в 5500 ты очень хорошо попал, там сдвоенный контроллер памяти, который позволяет кочегарить ддр4 чуть ли не до 5 ГГц, если повезёт. Сильно больше процессорной производительности для инференса не надо, а частота памяти может очень сильно помочь. Но и цены на такие частотные планки с таким объемом будут кусаться.
Аноним 16/06/23 Птн 15:39:11 358452 418
>>357616
Откуда инфа? На разных этапах загрузка и жор отличаются но то что проц совсем разгружен сказать и близко нельзя. Плюс заявлялось что avx512 бустит скорость
>>357698
Какая скорость?
>>358284
И у тебя сколько выдаёт?
Аноним 16/06/23 Птн 15:43:53 358461 419
>>358452
> Какая скорость?
А как это лучше измерять? Я просто сам ещё до конца не понял, плюс кобольд весь контекст иногда пережёвывает.
Аноним 16/06/23 Птн 16:36:45 358505 420
>>358452
>Откуда инфа?
От того, что на моём 5900х много потоков ставить нет смысла.
>но то что проц совсем разгружен сказать и близко нельзя
Ну так потоки просто крутят циклы в ожидании данных.
Аноним 16/06/23 Птн 17:34:33 358556 421
>>358461
> А как это лучше измерять?
После генерации ответа кобольд выдает строку в консоле где показывает все с разбивкой по этапам
>>358505
> От того, что на моём 5900х много потоков ставить нет смысла.
Со скольки потоков начинается насыщение? И от чего ты так уверен что это не амудэ-прикол, также как и может быть ересь c e/p ядрами на интеле?
> потоки просто крутят циклы в ожидании данных
Ну хуй знает, такой быдлокод даже нейросети не выдадут.

Попробовал потестить - а оно параметр запуска --threads будто вообще игнорирует. Обработка промта что 32 что 1 - идентично грузит несколько ядер, генерация токенов - есть небольшая разница по загрузке и тдп но скорость почти одинакова. Похоже не в потоках дело а в том как вообще воспринимает параметры запуска.
Какие скорости у тебя выдает?
Аноним 16/06/23 Птн 21:07:28 358778 422
1624427381393.png 33Кб, 917x494
917x494
>>352790
> Ты всё таки отпиши, если соберёшься такое потестить
Нууу, едва ли это можно назвать успехом, но если подоткнуть вторую новидео то оно работает, второй ползунок в убабуге появляется. Модели большие загружаются, никаких ООМ, но вот скорость хуже чем на одной карте. Конфиг ассиметричный и говнорайзер сыпет ошибками шины что аж в шинду фризит, так что выводы делать рано. Если получится на днях раздобуду железок и будет 48 гигов ярости, есть там какие большие модели или просто неквантованные попробовать?
Аноним 16/06/23 Птн 21:14:01 358791 423
АХАХАХАХА
Обновил корпробугу, теперь таки снова загрузило ламу 30б 3 бита, но ТЕПЕРЬ КУДА АУТ ОФ МЕМОРИ
АХАХАХАХАХА
Аноним 16/06/23 Птн 21:49:52 358838 424
image.png 21Кб, 680x141
680x141
Аноним 16/06/23 Птн 23:10:00 358961 425
>>358452
>>358556
> Какая скорость?
> строку в консоле
Processing Prompt [BLAS] (915 / 915 tokens)
Generating (120 / 720 tokens)
(EOS token triggered!)
Time Taken - Processing:60.3s (66ms/T), Generation:40.9s (57ms/T), Total:101.2s

Processing Prompt (11 / 11 tokens)
Generating (162 / 720 tokens)
(EOS token triggered!)
Time Taken - Processing:3.0s (272ms/T), Generation:55.3s (77ms/T), Total:58.3s

Ну вот так как-то.
Аноним 16/06/23 Птн 23:11:01 358966 426
>>358961
Алсо с оффлоадом 34 слоя я немного погорячился, в shared memory улетает немного. Это с 32 слоями.
Аноним 16/06/23 Птн 23:31:28 359010 427
>>358961
Укажи ещё размер сетки.
Аноним 16/06/23 Птн 23:33:12 359012 428
Аноним 16/06/23 Птн 23:44:51 359031 429
Бля, я не понимаю нахуй. Иногда оно быстро отрабатывает, иногда медленно.
Сейчас вот так.

Generating (193 / 200 tokens)
Processing:3.5s (232ms/T), Generation:72.7s (364ms/T), Total:76.2s
Аноним 16/06/23 Птн 23:58:59 359052 430
>>358961
Хм, странная тема, получается у тебя генерируется 120 токенов за 41 секунду и 162 за 55, почему при расчете скорости оно берет не фактическое значение а целевое?
Ну а если считать только по конечным то это 1-3 токтена в секунду, наверно как раз для 3060 с такой большой моделью.
>>359031
Обработка промта полностью не всегда происходит, наверно из-за этого.
Аноним 17/06/23 Суб 00:19:57 359070 431
Вроде же у Жоры была реализована очистка RAM, если модель полностью в VRAM. Как это включить, блять? Модель весит 18 гигов, но сжирает 34 гига RAM, хотя модель вся в видеопамяти. Какое-то дерьмо сделали.
Аноним 17/06/23 Суб 00:20:49 359071 432
>>359070
>Какое-то дерьмо сделали.
В первый раз что ли?
Аноним 17/06/23 Суб 00:28:45 359077 433
>>359052
Да я именно со скорости ахуеваю, она как-то неправильно считается.
> при расчете скорости оно берет не фактическое значение а целевое
Вот да. Хуй знает, почему так.

Если считать ручками, то 2-3 токена выходит. Но и ГПУ полностью не загружается.
Аноним 17/06/23 Суб 00:33:12 359080 434
1648118688716.png 53Кб, 1951x343
1951x343
1621948965282.png 13Кб, 1010x166
1010x166
>>359071
Я думал оно получше GPTQ будет, но на деле неюзабельный кал. В первые несколько генераций 15 т/с на 30В, а потом падает до 5 и всё дико тормозит, потому что модель утекает в RAM, которая вся забита полностью. Как будто там течёт что-то.
Аноним 17/06/23 Суб 01:08:16 359112 435
>>358778
> но вот скорость хуже чем на одной карте
А в цифрах это хуже насколько? Ну в токенах в секунду.
> есть там какие большие модели или просто неквантованные попробовать?
Я на такие даже не засматривался, ну наверное можно с обниморды 65б взять какую нибудь https://huggingface.co/models?search=65b
На кобольде кстати тоже скорость маленькая у меня, она просто не бывает больше 10 т/с и я без понятия даже в какую сторону смотреть по этому поводу.
Аноним 17/06/23 Суб 09:49:10 359387 436
tumblrpmo309nKY[...].jpg 132Кб, 1080x1199
1080x1199
>>320577 (OP)
Какие есть советы по улучшению результатов в RP? Кроме того что нужно соблюдать орфографию и стараться избегать повторения одного и того же слова?
Аноним 17/06/23 Суб 13:49:56 359538 437
>>359387
>Кроме того что нужно соблюдать орфографию и стараться избегать повторения одного и того же слова?
Зачем?
Аноним 17/06/23 Суб 14:40:12 359571 438
>>358452
а в чем мерять?
Мне качество важнее, я гоняю 65B в браузере + 30B в телеге.
Память самый дешман, 20-19-19-43 (вроде) 3200 МГц 128 гигов.
30B Saiga Q5.1 --threads 6 через телегу гоняет 511ms/T для промпта и 665ms/T для генерации. Суммарно говорит 1,05 токен/сек.
Если надо — потестирую в чем-то конкретном.
Аноним 17/06/23 Суб 15:28:22 359603 439
На что я могу рассчитывать, имея ртх3070 с 8гб врам? Какая модель сейчас топ под это дело?
Аноним 17/06/23 Суб 15:52:24 359628 440
От --highpriority намертво зависает вся система, в чём может быть причина?
Аноним 17/06/23 Суб 15:54:17 359631 441
>>359080
>Как будто там течёт что-то.
Контекст? Попробуй перезапускать одну и ту же генерацию с нулевой температурой.
>>359603
На оффлоад десятка слоёв на GPU, всё остальное всё равно на проце считать.
Аноним 17/06/23 Суб 16:07:44 359648 442
СнимоСнимоСнимок.PNG 256Кб, 1179x740
1179x740
>>359538
пик рандом
С каждым ответом это слово будет все чаще и чаще появляться. Заметно только уже на поздних этапах, когда ты пытаешься повернуть разговор в другую сторону, а бот все продолжает использовать это слово. ИИ начинает залупливаться (Repetition Penalty не поможет). Так же нужно избегать многоточий.
Аноним 17/06/23 Суб 16:19:28 359663 443
>>359631
>На оффлоад десятка слоёв на GPU, всё остальное всё равно на проце считать.

Как ето настроить, у меня лапки.
Аноним 17/06/23 Суб 16:20:34 359665 444
>>359648
А я думал что она залупливается, только когда есть повторение ее собственного предложения, а не отдельных слов, да еще и моих. Буду знать.
Аноним 17/06/23 Суб 19:31:52 359881 445
Господа, а что оно так медленно работает? Каждый раз по минуте-полторы ждать ответа на неплохом ПК как то грустно. Да ещё и раз в 3-4 сообщения оно все токены пересчитывает по новой, а это 2к. Есть какие-нибудь советы по ускорению? Или я что-то не так накрутил?

Time Taken - Processing:368.0s (199ms/T), Generation:31.1s (346ms/T), Total:399.1s
Это же не нормально, ну?
Аноним 17/06/23 Суб 20:20:43 359943 446
>>359881
>на неплохом ПК
Насколько "неплохой"?
>Да ещё и раз в 3-4 сообщения оно все токены пересчитывает по новой, а это 2к.
Скажи спасибо что не каждый раз.
Аноним 17/06/23 Суб 21:07:55 360012 447
1605585672323.png 245Кб, 2483x1123
2483x1123
1662253119702.png 147Кб, 1667x874
1667x874
1649293574443.png 7Кб, 478x96
478x96
>>359112
В общем, работает, но специфично. По умолчанию стремится раскидать модель пополам, даже совсем мелкую. Двигая ползунки и занижая память на gpu0 (первой) можно сместить больше слоев на gpu1 (вторую), но если делать наоборот то оно всеравно загружает в первую карточку не более половины а то что не "влезло" во вторую сгружает в рам, надо разбираться что там за индусские подходы в коде.
Разобранный пополам квантованный хронос33 выдает 6-9т/с вместо 10-15 на одной карточке. Причин этого может быть несколько:
Несимметричность конфига аи ферма уровня /б/ со связкой ада+ампер, последний как раз примерно столько сам по себе и выдает, логично что при делении пополам производительность определяется самой слабой карточкой в пачке.
Хуета с оптимизацией, версией куды и т.д., база. В начале обе печки дают короткий всплеск тдп почти до 100% (обработка промта) а потом отдыхают на сотне ватт или менее генерируя токены. Разве что 3090 иногда 200-300 держит, на разных моделях проявляется по-разному.
x4 слот и райзер, который сыпет ошибками (пик3), в стабильной дифуззии (512 эйлер) это снижает производительность процентов на 5-8.

Квантованную 65б загружает, по памяти запас есть, 2-5 т/с. Можно покумерить на хроносе в 16 битах, но там часть все равно выгружается и на выходе менее 1т/с. Чтобы понять как оно на сильно несимметричных конфигах будет (уровня 3060 подоткнуть чтобы несколько лишних слоев в нее сгрузить) надо в код лезть и лечить ту ерунду, или карточки переткнуть чтобы сменился порядок.
Пока есть возможность еще поиграюсь, предлагай что попробовать/проверить.
>>359881
> на неплохом ПК
Насколько неплохом? Кобольд с кудой скачай, вроде как даже на слабых хуангах буст знатный, 40-90 секунд ожидания ответа не так уж и ужасно будет.
Ну и опиши в чем ты делаешь и с какой моделью.
Аноним 17/06/23 Суб 22:37:38 360193 448
>>360012
>>359943

Кобольд с кудой не хочет модели запускать по какой-то причине, крашится.
У меня Xeon e5-1650 + 16ГБ рам + 64 подкачки с ССД + rtx3070.

Запускал самые разные модели, все крутит долго.
Например три последних:
airoboros-7b-gpt4-1.2.ggmlv3.q4_0
chronos-13b.ggmlv3.q5_1
Wizard-Vicuna-30B-Uncensored.ggmlv3.q4_0
Аноним 17/06/23 Суб 22:50:18 360207 449
>>360193
Ничесе какой раритет наступательное оружие времен первой рязанской ух
По современным меркам это далеко не "неплохой пк" а весьма слабое железо, как по чистой производительности, так и по инструкциям (нет AVX2). В принципе, если на норм плате погнать рам в 4х канале - там достигается псп и тайминги современных йоба модулей ддр4 что должно забустить скорость.
> 16ГБ рам + 64 подкачки с ССД
С таким объемом рам не на что рассчитывать, оно банально свопается постоянно, это первое на что стоит внимание обратить чтобы не страдать.
> крашится
Какие ошибки выдает смотри и гугли. У тебя там случаем не семерка стоит для полного комбо?
Аноним 17/06/23 Суб 22:56:56 360226 450
>>360207
Раритет? Да я бы не сказал что уж слишком. Но обновить до I5 12400F + 32гб памяти в планах.
До нынешнего момента проблем по производительности не замечал нигде, стоит актуальная 10 последней версии, noavx параметр прикручен. Плата нормальная, 4-х канал сейчас,- тайминги если подкинешь буду рад.
Ошибки не успеть прочитать, просто закрывает командную строку.
Аноним 17/06/23 Суб 22:57:42 360229 451
>>360226
noavx2 параметр прикручен*
Аноним 17/06/23 Суб 23:01:14 360237 452
>>360226
> не сказал что уж слишком
Неплохим он считался в 2016-17 году
> Плата нормальная, 4-х канал сейчас
Гони до 2133-2400, там речь про латентность, тайминги ддр3 не помню, но их там буквально 5 параметров важных и все просто.
> Ошибки не успеть прочитать
Запусти из консоли или сделай батник где в конце пропиши паузу.
Аноним 17/06/23 Суб 23:10:13 360258 453
>>360237
>Неплохим он считался в 2016-17 году
Я собирал как раз в 18.

Забавно, но даже через батник с паузой окно само закрывается.
Оперативную память сейчас разгоню, спасибо за наводку.
Аноним 17/06/23 Суб 23:15:09 360266 454
>>360226
Даже мой 5500 с ddr4 — довольно слабый для этих дел, как и твой 12400 в планах, а твой нынешний и вовсе раритет, действительно. Особенно по цене если смотреть, то там никакого выигрыша нет — вдвое слабее, вдвое дешевле.
Норм под ламки собирают всяких 13700/13900 с ддр5 разогнанной. =)
Хотя тоже, такое, парочка 3090 будут бодрее.
Аноним 17/06/23 Суб 23:21:49 360283 455
>>360266
> с ддр5 разогнанной
Быстрой и объемной ддр5 нет, если действительно ламы крутить то стоит на skylake-x или трипак смотреть, можно со вторички. 4 канала быстрой ддр4 будут лучше, AVX512 должно дать буст производительности.
> парочка 3090 будут бодрее
Тут и одной хватит, говорят из под дяди майнера они сейчас дешевые, но рулетка покруче 97% new
Аноним 17/06/23 Суб 23:46:18 360315 456
>>360283
>Быстрой и объемной ддр5 нет
Так любая чуть ли не стоковая выебет DDR4 по PSP, а большего и не нужно, задержки там не сильно критичны.
>>360283
>говорят из под дяди майнера
Нахуй-нахуй, разве что за 1000 рублей.
Аноним 17/06/23 Суб 23:55:38 360322 457
>>360012
Чел, когда ты раскидываешь слои по двум картам, у тебя при переключении на вторую карту должны все активации слоя копироваться на другую карту. Если брать усреднённо, то там будут потери в 30+ мс на прогонку активаций по шине. То что от 15 т/с будет оставаться чуть больше половины - это уже хорошо, на деле там наверняка нихуя не 30 мс, а сильно больше оверхеда, все 50+ наверное есть на х4. Пробуй на 16 линий псины садить, а иначе это пиздец. Гонять память по шине - это сильно медленнее записи-чтения в ОЗУ.
Аноним 18/06/23 Вск 00:19:25 360337 458
>>360322
А как считал? Вроде объем данных должен быть невелик и для х4 псины 4.0 сильно затягиваться не должно. И как часто гоняются эти данные? В плате банально нет второго х16 слота, это нужна другая платформа.
Аноним 18/06/23 Вск 01:37:33 360448 459
>>360012
> Разобранный пополам квантованный хронос33 выдает 6-9т/с вместо 10-15 на одной карточке.
Ну как по мне это всё равно импрессив скорость, учитывая как это всё костыльно у тебя работает, иметь скорость младшего ампера, не на зион же наматываться в конце концов.
> Квантованную 65б загружает, по памяти запас есть, 2-5 т/с.
Неплохо же прямо.
> Можно покумерить на хроносе в 16 битах, но там часть все равно выгружается и на выходе менее 1т/с.
А разве 33б 16 битная вообще поместится в 48гб то? Поэтому наверное и получаешь рамные 1т/с на выходе.
> или карточки переткнуть чтобы сменился порядок.
Интересная идея, попробуешь?
> Пока есть возможность еще поиграюсь, предлагай что попробовать/проверить.
> x4 слот
У тебя обрезанная версия материнки какая то? Жаль, так было бы интересно 8х8 узнать что там, с напрямую вставленными в мамку картами, ну или райзерами чуть покачественнее, чем х1.
Аноним 18/06/23 Вск 03:00:17 360515 460
1663496958296.png 254Кб, 968x309
968x309
>>360448
Да бля, поигрался с этим airoboros-65B, сука, это вот литерали пикрелейтед, а вместо длинных подробных ответов оно генерирует диалог с постами от твоего имени на 10 реплик вперед. Может для другого и хороша но для рп днище.
> попробуешь
Да
> обрезанная версия материнки какая то
Наоборот разумная, закладывая мысль "какой идиот будет в 2д23м году ставить две видюхи лучше сделаем удобные расположения под реальный юзкейс" они еще не знали о нейронках. х4 там, посмотрим по ситуации с х16.
Аноним 18/06/23 Вск 03:41:15 360539 461
>>360515
> оно генерирует диалог с постами от твоего имени на 10 реплик вперед
блядь да, вот эта хуйня, почти у каждой модели такое.
Аноним 18/06/23 Вск 03:44:26 360541 462
>>360515
>диалог с постами от твоего имени
Но ведь есть же стоп токены...
Аноним 18/06/23 Вск 03:44:33 360542 463
Ну и где посты, обновы? Ясно сдулся тред, потому что хуйня бесполезная эти LLM.
Аноним 18/06/23 Вск 03:51:50 360551 464
>>360539
Ну как, визард/хронос даже малых размеров пишут нормальные полотна что под разные направления общения/взаимодействия, хорошо тебя понимая. А здесь на тех же промтах короткие или вообще односложные ответы.
>>360541
В интерфейсе таверны ты видишь только нужный ответ, но в консоли можешь посмотреть куда по факту ушел запрошенный бюджет токенов, которые генерировались так долго.
Аноним 18/06/23 Вск 03:55:06 360553 465
>>360515
> Да бля, поигрался с этим airoboros-65B, сука, это вот литерали пикрелейтед
Проиграл с пика.
> а вместо длинных подробных ответов оно генерирует диалог с постами от твоего имени на 10 реплик вперед
Визард таким не страдает кстати, он и полотна пишет и отвечает без разговора с собой, может к другим моделям надо какие то специальные параметры поставить, хз.
Аноним 18/06/23 Вск 04:00:40 360555 466
>>360542
>Ну и где посты, обновы?
Что тебе ещё надо? Всё уже есть.
>>360551
>но в консоли можешь посмотреть куда
В смысле? Стоп токены как раз обрывают сетку на нужной фразе.
Аноним 18/06/23 Вск 08:16:40 360610 467
1552850918327.png 60Кб, 768x300
768x300
>>360337
> объем данных должен быть невелик и для х4 псины 4.0 сильно затягиваться не должно
Там скорости очень маленькие у псины. Размер активаций бери грубо в 300-350 мб для квантованой 30В. Вот и считай какая жопа если надо каждый токен гонять по псине столько. Если брать 300 мб, то чтение через 16х и запись во вторую карту по х4 - 45 мс.
Именно из-за этого с NVME столько дроча и каждые два года новая версия псины, потому что SSD уже упираются в скорость х4, у псины 4.0 предел скорости 8 гб/с с мелочью и пиздарики.
Подобная конфигурация с несколькими картами жизнеспособна только при генерации батчами, когда первая карта сразу начинает генерить следующие данные не дожидаясь вторую. Т.е. кроме обучения оно и не нужно нигде.
Аноним 18/06/23 Вск 09:01:28 360629 468
>>360610
Кста, на А100 и других серверных картах для этой проблемы куртка придумала NVLink, там скорости под 600 гб/с, буквально в 20 раз выше чем у 16 линий псины, уже можно не волноваться за шину.
Аноним 18/06/23 Вск 14:19:52 360893 469
>>360610
> Именно из-за этого с NVME столько дроча и каждые два года новая версия псины
Желаемое за действительное для красивого словца, 5.0 уже не нов а ссд под него почти нет, те что есть полную скорость задействовать не могут и весьма позорны. С 4.0 ситуация похожей была, разве что там действительно затянули с переходом и контроллеры-память были лучше готовы к новым скоростям.
30-50мс на токен вообще не много, если говорить про крупную модель.
> Гонять память по шине - это сильно медленнее записи-чтения в ОЗУ.
В таком случае обработка одной картой с выгрузкой буфера в рам была бы почти такая же, но по факту
х2
Output generated in 5.74 seconds (2.09 tokens/s, 12 tokens, context 72, seed 1127174079)
Output generated in 42.54 seconds (4.68 tokens/s, 199 tokens, context 93, seed 1323256690)
Output generated in 39.07 seconds (3.51 tokens/s, 137 tokens, context 302, seed 625493609)

х1
Output generated in 52.16 seconds (0.23 tokens/s, 12 tokens, context 72, seed 1481354181)
Output generated in 801.53 seconds (0.25 tokens/s, 199 tokens, context 93, seed 1365223019)

Что намекает малую значимость импакта от шины относительно ускорения. Но, офк, надо сравнивать с полноценными х16 чтобы понять влияние и потанцевал.
Аноним 18/06/23 Вск 14:49:39 360933 470
>>360893
> те что есть полную скорость задействовать не могут
Зато 4.0 на 4 линиях уже всё, в упор. Например самсы 990 уже в шину упираются, только на 5.0 перекатываться для увеличения скорости.
> 5.0 уже не нов
Всего пол года как на десктопе массово выкатили, видеокарт всё ещё нет под него.
> вообще не много
Это время, за которое в принципе токен генерируется. Т.е. у тебя половину времени карты работают, половину стоят в ожидании передачи данных. И ты учитывай, что на 65В слои жирнее, проёб времени будет больше.
> обработка одной картой с выгрузкой буфера в рам была бы почти такая же
С чего бы вдруг? Шина х4 раз 10 медленнее чтения из RAM, от того что ты оставил только карту на х16 и в RAM слои затолкал оно не перестало в шину долбиться. Естественно оно медленно, у тебя теперь вместо одного слоя 30 по шине идёт и скорость падает почти во столько же раз.
> ускорения
Если цель просто запустить 65В, то ты добился её. Но речь про то что эффективность этого мероприятия сомнительна. На ЦП с DDR5 ты тоже можешь 2-3 токена в секунду вытянуть, это будет даже дешевле двух 3090. И по факту что первое, что второе - слабо юзабельно с генерациями по 30+ секунд.
Аноним 18/06/23 Вск 15:29:39 360994 471
>>360933
> Зато 4.0 на 4 линиях уже всё, в упор
Топовый сегмент смог достигнуть скоростей под закат стандарта, и то только в определенных сценариях, тогда как массовый продукт еще из 3.0 или вовсе с qlc ячейками, и даже для коммерции редки юзкейсы где скорость единичного накопителя выступала бы узким местом. Это вовсе не "требование нового стандарта потому что старый не вывозит ссд", речь об этом.
> Это время, за которое в принципе токен генерируется.
Овер 30 токенов в секунду будет, на 7б моделях разве что.
> а 65В слои жирнее, проёб времени будет больше
Как раз если они жирнее то время их обработки будет выше а доля времени обмена данных по шине ниже.
> Шина х4 раз 10 медленнее чтения из RAM
А порше в 5 раз быстрее классики, но в пробке стоят одинаково, смекаешь?
> от того что ты оставил только карту на х16 и в RAM слои затолкал оно не перестало в шину долбиться
> у тебя теперь вместо одного слоя 30 по шине идёт и скорость падает почти во столько же раз
С чего вдруг? Распиши подробно как и что оно "гоняет по шине". Не могу понять, ты знаешь что-то важное но не можешь объяснить, или вообще не догоняешь тему, бросаясь поверхностными знаниями.
> На ЦП с DDR5 ты тоже можешь 2-3 токена в секунду вытянуть
Уточняй на каких моделях и в каких условиях, выше в треде скорости приводились.
> слабо юзабельно с генерациями по 30+ секунд
Толстишь чето
Аноним 18/06/23 Вск 15:48:33 361019 472
>>360994
> Овер 30 токенов в секунду будет, на 7б моделях разве что.
Чел, ты сам показывал что у тебя с 30В 60 мс на токен на одной карте и больше сотни на двух. Ты с чем споришь вообще? С реальностью?
> доля времени обмена данных по шине ниже
У тебя от жирного слоя дольше будет передача активаций идти. Я вижу у тебя на 30В 60+50, а на 65В уже 250, из которых максимум 150 мс - работа карты, потому что работа карты скейлится линейно от увеличения модели.
> С чего вдруг?
Ты траллишь тупостью или реально не можешь посчитать сколько весит каждый слой и сколько нужно времени чтоб им протиснуться через шину?
Аноним 18/06/23 Вск 16:51:50 361134 473
>>361019
> ты сам показывал что у тебя с 30В 60 мс
Ага, а тут ты заявляешь что достижимы скорости в 1.5-2 раза выше.
> Ты с чем споришь вообще? С реальностью?
Пока пытаюсь разобраться что ты втираешь, мешая в кучу активации, слои, шины и прочее.
> У тебя от жирного слоя дольше будет передача активаций идти
А то что сам по себе жирный слой будет дольше обрабатываться и число этих слоев выше тебя не смущает? Сам пишешь 60 работы 50 прогонка данных в одном случае и 150 работа - 100 (на самом деле меньше) прогонка и тут же с этим споришь.
> Ты траллишь тупостью
Пчел, это ты траллишь, скатываясь на хейт, а ведь еще не предъявил тебе за запредельную предубежденность, что в каждом посту читается.
Аноним 18/06/23 Вск 17:44:29 361253 474
>>361134
> заявляешь
Я тебе ничего не заявляю, лишь говорю где твой подход говно, тыкая в цифры. Как с этим бороться и так очевидно.
> запредельную предубежденность
Это не я спорю с цифрами. Сам показал их, сам бахаешь теперь, включая врёти. Нахуй тогда высераешься в тред, если неспособен в нормальный диалог.
Аноним 18/06/23 Вск 17:52:04 361262 475
>>361253
Ты с собакашизом разговариваешь, он всегда переходит на лай когда понимает что обосрался. В этот раз наверное у него боль от того что вторую карту купил, а остальное нет и пристроить к модели не может.
Аноним 18/06/23 Вск 18:33:09 361312 476
А кроме bluemoonrp 4k есть модели с контекстом больше 2K?
Аноним 18/06/23 Вск 19:15:17 361397 477
1636666887455.png 104Кб, 1046x625
1046x625
>>361253
> Я тебе ничего не заявляю
> Это время, за которое в принципе токен генерируется
> 30мс
Из контекста как раз 30мс на токен что для больших моделей слишком круто. Если имел ввиду что сравнимо - ок, так и написал бы.
> лишь говорю где твой подход говно, тыкая в цифры
В чем он говно? Как минимум позволяет на консумерском железе запускать модели огромных размеров что влезут только в ускорители за сотни денег ценой незначительного увеличения времени на токен. Потанцевал сложения мощностей туманен, на реддите из-за бунта все тематипа закрыта и гите заявлилось о хороших результатах, тут не подтверждается. Осталось дождаться хороших 65б моделей.
> Это не я спорю с цифрами.
Уперся рогом и свои же цифры опровергаешь. А на другие так и не ответил, ага.
> сам бахаешь теперь, включая врёти
Ай лолд, это ты так на слив уводишь чтобы не обсираться или что? Вот литерали нормально тебе писал, попросил уточнить и подробностей а ты агришься. О каком нормальном диалоге заявляешь если сам подобное выдаешь?
>>361262
Кто шиз, ты шиз. Нищукский пожар, начинающийся с обвинений "ты сгорел" это лучшее бинго.
> купил
лол

В общем, прогнал на х16 процессорных линий на каждую карточку (правда 3.0 версии). Объективных тестов также не получается потому что здесь взрованная шинда, в SD 512 эйлер выдает ~11-12 итераций вместо 30+. Выпилив Hyper-V, целостность памяти, виртуалки и прочее удалось поднять до 18-20, при батче в 4 11-13 ит/с (положенные 45-50 эффективных). Возможно дело в самой платформе со странным L3 и однопотоком, это к вопросу о производительности >>360448 только что в псп рам упора нет.
Скорость на одной карточке на этой платформе (до ООМА) 7-10 т/с, на двух пополам 5-8. Выставить порядок работы можно через CUDA_VISIBLE_DEVICES ничего не перетыкая. Если сгружать во вторую карточку малое число слоев (4 гб врам) то выдает порядка 7т/с, буквально немного больше чем если пополам. В общем, целесообразность второй мелкой гпу будет зависеть от того сколько выгружается, на малом количестве оно и в рам хорошо поживает, далее преимущество значительное. Тут больше может дать отсутствие невыгружаемого фреймбуфера и обработки графики, но это и встройкой можно сделать.
Аноним 18/06/23 Вск 20:18:27 361464 478
>>361397
> целостность памяти
Вут?
> В общем, целесообразность второй мелкой гпу будет зависеть от того сколько выгружается, на малом количестве оно и в рам хорошо поживает, далее преимущество значительное.
Неплохо, спасибо что потестил. Практическое применение будет лучше же явно, если подпихивать более слабую карту, чтобы не вылететь в оом, скорость не так сильно падает судя по твоим тестам, псие 4 8х8 ведь будет эквивалентна 3 версии по идее. Физически бы ещё как нибудь эти громадины расположить. У тебя случаем что нибудь более "затычкового" нету гигов на 6-10? Если её подоткнуть к любой из 24гиговой чтобы 4к контекст 33б умещать, перформанс будет так же проседать или сильнее, интересно.
> невыгружаемого фреймбуфера и обработки графики, но это и встройкой можно сделать
Привелегия для тех у кого есть встройка, ну или гпу стоит в отдельном компе без гуёв, ну или просто без гуёв.
Алсо хз о чем вы тут спорите, но какой вообще юзкейс у псие диска выше 3 версии для обычносыча, ну кроме ещё одного кипятильника на материнке? Да даже хорошей саты для всего с головой до сих пор хватает же.
Ты походу нормальный чумба оказывается, я думал тебя не просто так шиз называет в наитреде, ну ты знаешь как
Аноним 18/06/23 Вск 20:28:57 361479 479
>>361397
> нормально тебе писал
> первый же ответ начался с врёти и обвинений
Вот о чём и речь, ты даже не замечаешь как начинаешь хлопать порванным очком. Не вижу смысла продолжать с тобой диалог.
Аноним 18/06/23 Вск 20:56:40 361523 480
>>361464
> Вут?
Сходу захотел потестить аидой память, оно выдало в районе 60гб/с вместо ~90 и сообщение о том что гадит гипервизор и целостность рам. Гуглани
> hypervisor is present forcing...
там пояснения есть.
> скорость не так сильно падает судя по твоим тестам
Ну как, относительно 12-20 т/с сильно, относительно 7-10 на странном софте/железе слабо. 65б модель кстати там примерно также крутится, разве что просадки до 2 токенов почти не случаются.
> Физически бы ещё как нибудь эти громадины расположить
2 печки в корпус не влезают, потому и с райзером подключал, а там вообще на столе собрали. Если будет мелочь двуслотовая то все проще, но действительно вопрос эффекта.
> что нибудь более "затычкового" нету гигов на 6-10
Не, из того что можно одолжить подобного или на воде или вообще амудэ, больные ублюдки.
> 4к контекст 33б умещать
Это что за модель где такое можно? Кроме блумун про норм поддержку 4к не слышал, и то она специфична что так и не удалось проверить.
> не просто так
Залупнулся, не вывез став едой, в итоге тихо сидит зубоскалит

>>361479
Чел, чсв посбавь, то что тебя поправили или переспросили это не
> врёти и обвинений
Аноним 18/06/23 Вск 21:12:41 361546 481
1550713121777.png 183Кб, 1960x1208
1960x1208
>>360893
> 3.51 tokens/s
И зачем оно тогда нужно, если у Жоры я получаю почти такое же на 65В с одной картой?
Аноним 18/06/23 Вск 21:20:27 361555 482
>>361523
> Сходу захотел потестить аидой память, оно выдало в районе 60гб/с вместо ~90 и сообщение о том что гадит гипервизор и целостность рам. Гуглани
> AMD processors do not suffer such limitations under Windows 11, but there used to be other problems about them under Windows 11 that Microsoft resolved by now
Эх, какая же лёгкость бытия быть амудешником нет
> Не, из того что можно одолжить подобного или на воде или вообще амудэ, больные ублюдки.
Я тоже с их палаты, у меня нави21 есть.
> Это что за модель где такое можно?
Ну я про блумун и говорю.

> Залупнулся, не вывез став едой, в итоге тихо сидит зубоскалит
Безусловно, ваши срачи было забавно почитать, но бессознательно я начал твои сообщения тоже читать наполовину игнорируя.
Аноним 19/06/23 Пнд 00:07:53 361712 483
>>361546
С какими параметрами ты ее запускаешь и какая версия лламы-питон? Не хочет такую скорость выдавать, один раз звезды сошлись и было 2 т/с. Алсо сильно деградирует с повышением контекста?
Аноним 19/06/23 Пнд 00:26:45 361721 484
>>361712
> С какими параметрами ты ее запускаешь
Просто 42 слоя на GPU, остальное на ЦП. Ничего больше не крутил.
> Не хочет такую скорость выдавать
Это ещё у меня Q4, на Q3_K_M с новым квантованием ещё можно токен в секунду выжать, она на 4 гига поменьше и больше слоёв на GPU влезет.
> сильно деградирует с повышением контекста?
До 2.5-2.6 опускается с полным контекстом, скорость стабильная в пределах одной десятой.
Аноним 19/06/23 Пнд 01:49:21 361820 485
>>361721
Хм, забавный там код, ставишь максимальное число потоков - ниже 1 т/с, снижаешь - растет, галочки тоже влияют. Так какая версия? Последняя (коммит несколько часов назад) не собирается, 0.1.63 встает нормально но по производительности явно не дотягивает, версию бы сразу откинуть чтобы понять в чем дело.
Аноним 19/06/23 Пнд 04:53:02 361865 486
Аноним 19/06/23 Пнд 04:59:44 361866 487
image.png 88Кб, 1802x519
1802x519
Аноним 19/06/23 Пнд 07:42:07 361930 488
>>361820
> Так какая версия?
Вчерашняя, собранная из pip.
Аноним 19/06/23 Пнд 09:36:08 361977 489
>>361523
>>360610
Так, профи, поясните, а если воткнуть, например, две 3060 12 гиговые в 8x8 pci-e4 , это будет ли быстрее, чем одна? Предполагаем, что модель в 24 гига влазит.
Что полезнее по итогу — частичная выгрузка в одну карту, или полная в две, если обе — затычки?
Аноним 19/06/23 Пнд 10:09:32 362003 490
>>361977
Проверь да нам скажи.
Аноним 19/06/23 Пнд 10:17:25 362009 491
>>361820
> понять в чем дело
Я надеюсь у тебя нормальная DDR5 стоит хотя бы на 6400 и проц текущего гена?
Аноним 19/06/23 Пнд 11:43:58 362124 492
>>361866
Фалкон когда? Он ебёт ламу 65В по манятестам, а ни всё труп RWKV трясут.
Аноним 19/06/23 Пнд 12:13:35 362147 493
изображение.png 65Кб, 1249x720
1249x720
Аноним 19/06/23 Пнд 12:23:32 362156 494
Аноним 19/06/23 Пнд 13:26:39 362206 495
>>362156
>не слепые
Ты думаешь им есть время отслеживать все форки всех форков?
Аноним 19/06/23 Пнд 13:39:21 362229 496
>>361930
Ну йобана, пердолиться искать что ей не нравится.
>>361977
В кейзе где почти полностью используется врам две точно будут быстрее одной. Там где модель помещается в одну карточку пока только проигрыш.
>>362009
А то
Аноним 19/06/23 Пнд 16:45:23 362345 497
>>362124
Ближе к выходным подвезут.
Аноним 19/06/23 Пнд 16:48:43 362348 498
>>362206
Про фалкон они должны были уже слышать, а ссылка на форк везде прикладывается к фалкону.
Аноним 19/06/23 Пнд 16:51:09 362351 499
Есть какие-то подвижки по моделям с контекстом выше 4000? Мне уже даже на скорость насрать по большому счёту, готов сократить длину ответов и ждать по 3 минуты, лишь бы реплаи были вменяемого качества и память хотя бы в тысяч 8.
Аноним 19/06/23 Пнд 17:02:46 362369 500
>>362351
Да, там и 4к один отщепенец сделал, его даже никто не заметил за пределами этого треда, все остальные дрыщут файнтюнами, которые друг от друга ничем не отличаются. Если хочешь подвижек, это надо на форче срать.
Аноним 19/06/23 Пнд 17:13:54 362383 501
Аноним 19/06/23 Пнд 17:14:23 362385 502
Аноним 22/06/23 Чтв 19:29:55 366534 503
Аноним 27/06/23 Втр 19:45:24 373516 504
Когда она сможет решить простейшее уравнение x^2+2*x+1=0 и хотя бы пытаться в рифму в небольших стихах?
Аноним 08/07/23 Суб 03:56:02 391094 505
>>373516
> хотя бы пытаться в рифму в небольших стихах?
Разве тот-же Клод/GPT такое умеют? У меня с клодом на русике не получалось ничего срифмовать.
Аноним 08/07/23 Суб 03:57:13 391095 506
>>391094
> 27/06/23
Блять, куда я ответил.
Аноним 08/07/23 Суб 22:41:30 392412 507
>>391094
> Разве тот-же Клод/GPT такое умеют?
GPT4 прекрасно рифмует. На английском. Даже на староанглийском.
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов