Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 504 78 63
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №22 /llama/ Аноним 18/10/23 Срд 13:51:03 523102 1
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
#Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №xxx

В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.
На данный момент развитие идёт в сторону увеличения контекста методом NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
Так же террористы выпустили LLaMA 2, которая по тестам ебёт все файнтюны прошлой лламы и местами СhatGPT. Ждём выкладывания LLaMA 2 в размере 30B, которую мордолицые зажали.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в случае Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас в полгига-гиг.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/Mistral-7B-OpenOrca-GGUF/blob/main/mistral-7b-openorca.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах, есть поддержка видеокарт, но сделана не идеально, зато самый простой в запуске, инструкция по работе с ним выше.
https://github.com/oobabooga/text-generation-webui/blob/main/docs/LLaMA-model.md ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ. Самую большую скорость даёт ExLlama, на 7B можно получить литерали 100+ токенов в секунду. Вторая версия ExLlama ещё быстрее.

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://rentry.co/ayumi_erp_rating Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Факультатив:
https://rentry.co/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>517753 (OP)
>>514196 (OP)
Аноним 18/10/23 Срд 13:52:46 523104 2
Добавил в шапку ссылку на этот ваш колаб. Сам не пользовался, поэтому ничего не гарантирую, пользоваться на свой страх и риск.
Аноним 18/10/23 Срд 14:01:10 523108 3
70b сильно лучше для кума чем 20b?
Аноним 18/10/23 Срд 14:01:49 523112 4
>>523108
Зависит от модели, но в целом чем больше тем лучше
Аноним 18/10/23 Срд 14:25:34 523131 5
Аноним 18/10/23 Срд 14:39:35 523154 6
>>522911 →
> Ну я же говорю — психологических!..
> =D

Надо отбрасывать такое мышление, к добру не приведет. Нужно корректировать психологические границы в зависимости от дохода и инфляции

А то будешь через 10 лет как интернет шиз Поднебесный, который зарабатывает нормально, но не может купить сосиськи дороже 20₽, так как в его 2000 год это была норм цена

Upd как минимум стоит перевести 20к в доллары - $200, и держать в голове, что да последние года 3 он обесценился на 10%
Аноним 18/10/23 Срд 14:54:36 523169 7
>>523108
Смотря на что у тебя стоит, в зависимости от этого и модели будет диапазон от "20б топ остальное не нужно" до "ниже 70 жизни нет". Для обычного рп точно лучше, но при правильном использовании 20б дает достойный уровень, так что если нет возможности - особо не парься.
Аноним 18/10/23 Срд 15:07:35 523176 8
>>523175 →
>c неплохой скоростью
Неплохо это сколько?
Аноним 18/10/23 Срд 15:15:05 523180 9
>>523175 →
> Я нашел видос там чел запускает 13B викуню на p40 c неплохой скоростью, потратив 500 баксов на сборку. А почему тогда на реддите носяться с (гей)мерскими 3090 и так далее, если ли можно собрать специализированный бомж пека?

Потому что можно не быть бомжом и не собирать бомж пк 🗿

> В чем подвох?

В том, что 13b - это далеко не предел совершенства, вообще очень слабая модель, которая на слабых процессорах работает. Если хочешь по-серьезней, то даже 24 гб 3090 будет мало, поэтому 3090 является как бы начальным уровнем

Ну и еще важна скорость, на пк за $500 будет генериться медленно 13b. Наверное достаточно для комфортного чтения, но если можно лучше, то почему нет?

И в-третьих, 3090 в целом в хозяйстве пригодится. На редите люди из стран первого мира, где зарплаты для обычных продавцов и т.п. начинаются от $40.000 в год, это примерно 333к деревянных в месяц
Аноним 18/10/23 Срд 15:19:04 523185 10
>>523104
>на свой страх и риск
Представил как владелец колаба логирует ваш кум на локальных моделях и проиграл
Аноним 18/10/23 Срд 15:36:49 523198 11
>>523185
Логирует, а потом самый кринж кидает в свой Тг канал где как доктор зло злобно смеется с другими злодеями.
Аноним 18/10/23 Срд 15:50:30 523204 12
>>523180
> На редите люди из стран первого мира, где зарплаты для обычных продавцов и т.п. начинаются от $40.000 в год, это примерно 333к деревянных в месяц
>Top Sellers 2023: MSI Ventus GeForce RTX 3060 12G 2X - USD 251.99 ; ASRock Radeon RX 6600 - USD 179.99 ; MSI Ventus GeForce RTX 3060 12G 3X - USD 260.99
Как же там не хватает таких додиков как ты, которые рассказали бы что они покупают неправильно и с гигазарплат каждого первого дворника надо флагман брать.
Аноним 18/10/23 Срд 15:59:43 523206 13
>>523198
Между прочим так с СД коллабом и поступали. Шантажировал ананасов потом ещё
Аноним 18/10/23 Срд 16:14:47 523214 14
Сижу на работе придумываю как буду доебывать ии. 40 мин осталось сука почтииии
Я уже ногой стучу как лесополостный.
Аноним 18/10/23 Срд 16:27:35 523222 15
>>523206
Вы бы этот колаб хоть открыли сначала. СД колаб загружал кучу скрытых скриптов со сторонних ресурсов. Тут же весь код тупо написан в тексте колаба.
Аноним 18/10/23 Срд 16:32:47 523225 16
>>523222
Зачем открывать, если у меня есть хорошая видеокарта и я о коллабах сужу по постам анончиков
Аноним 18/10/23 Срд 17:11:37 523255 17
>>523225
А я не тебе, а анончикам, которые в своих постах судят о колабе.
Аноним 18/10/23 Срд 17:15:21 523258 18
>>523204
3060 популярна, так как большинство людей относятся к этому как к мелкой игрушке. Чтобы была несерьезная покупка, так, купил на поиграть
Аноним 18/10/23 Срд 17:20:56 523263 19
>>523258
Самая кринжовая отмазка что я видел. Давай еще раз.
Аноним 18/10/23 Срд 17:25:04 523268 20
>>523263
Бля, ты реально думаешь что где-нибудь в Норвегии rtx 3060 популярна потому, что только на нее они могут НАКОПИТЬ, а не потому, что купили что-то дешёвенькое не задумываясь, чтобы поиграть в киберпанк на максималках, даже не залезая в настройки графики?

Ты даешь статистику в целом о рынку. Игры много не требуют. Какому-то Джону советовать купить rtx 3060 именно не для игр, а для генерации - это вредный совет
Аноним 18/10/23 Срд 17:25:37 523270 21
>>523150 →
>>523154
На самом деле, у меня такое есть.
Как вспомню, скока i7 в 2013 стоил — так аж жаба душит новый брать. =)
Но ты прав, от такой фигни надо избавляться.

>>523175 →
С неплохой — это с какой?
13Б и на 3060 крутится с 17-20 токенов сек.

>>523180
> из стран первого мира, где зарплаты для обычных продавцов и т.п. начинаются от $40.000 в год
До уплаты налогов.
И уплаты всех кредитов и ипотеки.
Или аренды.
Не, канеш, больше чем у нас в разы.
Но каждый месяц ты по 3090 вряд ли будешь покупать.
Аноним 18/10/23 Срд 17:28:59 523271 22
>>523268
> rtx 3060
> поиграть в киберпанк на максималках

Не, ну ты херню-то не пори.
Если они на 3060 играют на максималках в киберпанк — то их потолок 25 фпс, сочувствую норвежцам, которые не могут себе позволить больше.
Аноним 18/10/23 Срд 17:36:49 523280 23
>>523271
А ты в 640х480 затести.
Аноним 18/10/23 Срд 17:40:57 523281 24
>>523268
Какой-нибудь Джон еще и калсоль покупает, да еще и чипы под нее чтобы за игоры не платить. Вот бы Джону шиз с двача рассказал что он бохатый и берет калсоли и среднекарты чисто по рофелу.
Аноним 18/10/23 Срд 17:46:17 523283 25
>>523108
>70b сильно лучше для кума чем 20b?
По стилю - спорно. 20b mlewd chat пишет ну очень хорошо. По всему остальному - несоизмеримо лучше. Например, после перехода на 70b у меня практически полностью исчезли проебы с одеждой. Модель наконец перестала снимать трусы по три раза!
>>523281
>Вот бы Джону шиз с двача рассказал что он бохатый и берет калсоли и среднекарты чисто по рофелу.
Я из штатов. В ближайшем макдоналдсе платят 14 в час, средняя стоимость аренды однушки под 1800 в месяц. Вот от этого >>523180 хрюкнул со смеха.
Аноним 18/10/23 Срд 18:02:28 523296 26
>>523283
>Модель наконец перестала снимать трусы по три раза!
Скил ишью. У меня и на 70B были проёбы, и на GPT4.
Аноним 18/10/23 Срд 18:08:31 523302 27
image.png 137Кб, 820x512
820x512
Аноним 18/10/23 Срд 18:25:04 523325 28
>>523175 →
> c неплохой скоростью
С отвратительной для цены скоростью. Преимущество этой теслы в виде 24гб врам нивелируется старым и слабым для современных расчетов гпу. 3090 с точки зрения прайс/перфоманс в разы выгоднее. Бу 3090 берется за те же 500-700$, можно играть, ликвидна. Про размеры моделей уже сказали, 20б на p40 скорее всего будет на грани юзабельности, а на 3090 оче шустро.
>>523268
> Какому-то Джону советовать купить rtx 3060 именно не для игр, а для генерации - это вредный совет
Офк вредный, хотябы 4060@16, или 3090 поискать.
>>523283
> По стилю - спорно. 20b mlewd chat пишет ну очень хорошо
Что там за такой йоба стиль? Если не жалко скрин покажи чтоли того самого отборного, этих франкенштейнов наделали столько что ебануться каждый качать тестить.
Аноним 18/10/23 Срд 18:44:07 523340 29
>>523296
>Скил ишью. У меня и на 70B были проёбы, и на GPT4.
Важен процент и степень проебов. 70b проебывает изредка, 20b - постоянно даже когда добавляешь одежду в author's note.
>>523325
>Что там за такой йоба стиль?
Логов не осталось, но если вкратце - очень сочно описывает секс-сцены и хорошо умеет в разные стили речи.
Аноним 18/10/23 Срд 18:47:04 523345 30
>her eyes sparkling with mischief
Блять глаз дёрнулся
Как же заебало про эти блёстки читать
Аноним 18/10/23 Срд 19:16:00 523371 31
Хочу показать всех этих мамкиных экспертов уверенно и убедительно заявлявших о том, что они знают как все будет развиваться в реальном мире в области ИИ.
Просто для сравнения, 2 года назад.

https://2ch.hk/sf/res/227070.html

Знатно проиграл с их уверенных и убедительных точек зрения, ограниченных своей неспособностью понять что происходило бы на самом деле.
Почувствуй себя историком анон.
Аноним 18/10/23 Срд 19:22:34 523379 32
>>523340
> 70b проебывает изредка, 20b - постоянно
Про скилл ишью в таком смысле оно забавно, но как этого добиваетесь то бля? Карточки какие сложные дохуя или промт перегружен инструкциями?
> очень сочно описывает секс-сцены и хорошо умеет в разные стили речи
Растяжимо и можно трактовать по-разному, плюс субъективизм. Потому и пример и интересен, что там по детальности и фокусу, есть ли бонды и треш, насколько разнообразно. Ну и как формирует реплики - описание, они продолжительные длинные или вперемешку.
>>523345
Да лайтово же, чего доебался.
Аноним 18/10/23 Срд 19:41:42 523397 33
Я не понимаю, графомания это особенность моделей или это можно пофиксить промптами?
Аноним 18/10/23 Срд 19:42:54 523399 34
>>523371
А ведь в 21 году уже емнип были новости про нейронки - сториврайтеры, которые насиловали юзера, дипдримы, нейросжатие видео, альфазиро и прочее. Забавно.
И, как выяснилось, для кума описать нейрон тремя битами уже достаточно, лол.
>>523397
Да и да.
Аноним 18/10/23 Срд 19:45:06 523402 35
>>523379
>но как этого добиваетесь то бля? Карточки какие сложные дохуя или промт перегружен инструкциями?
Промпт вылизан по максимуму, инструкций считай что нет, и все равно проебывает. Для 20b это нормально, по-моему.
>Растяжимо и можно трактовать по-разному, плюс субъективизм.
Ну так скачай и протестируй. Объективно модель как в hf топе, опережая почти все 13-20b модели, так и в ayumi топе по ерп.
>Потому и пример и интересен, что там по детальности и фокусу, есть ли бонды и треш, насколько разнообразно.
Детальность сильная, реплики длинные, бондов нет иногда проскакивает consenting adults, но я вырезал это регуляркой.
>>523397
>Я не понимаю, графомания это особенность моделей или это можно пофиксить промптами?
### Response (2 sentences) в конце. Но в целом да, особенность моделей.
Аноним 18/10/23 Срд 19:45:19 523403 36
>>523399
Да, представь как смешно будут читаться наши обсуждения тут через год-два
Аноним 18/10/23 Срд 19:52:59 523420 37
>>523402
> так скачай и протестируй
Ну йобана, там каждые 3 дня новая модель в топе и всех опережает, а как начнешь тестить там шиза, бонды, глупость или еще что-то. У 20б еще беда что с контекстом побольше они уже не помещаются в врам.
Чтож, попробуем.
>>523403
Я к тому что некоторые из тех рассуждений были трешовы уже тогда. Хотя здесь, в принципе, все то же. Было бы кому это читать еще.
Аноним 18/10/23 Срд 20:13:22 523434 38
70b для ерп и прочего вообще есть в доступе? А то что-то везде или 20b максимум, или ванильные ламы и викуньи 70b
Аноним 18/10/23 Срд 20:31:20 523445 39
>>523434
Попробуй euryale-1.3-l2-70b.
Аноним 18/10/23 Срд 20:35:55 523452 40
Аноним 18/10/23 Срд 20:37:29 523455 41
изображение.png 678Кб, 700x927
700x927
>>523371
>Просто для сравнения, 2 года назад.
Итого- никаких нейродевушек, и уж тем более никакого анализа и подстройки под пользователя. Под шапкой ИИ скрывается убогий контекст, и даже в таких смешных цифрах нейронки путаются.
>>523379
>но как этого добиваетесь то бля?
Ситуации не стандартные, анон. Чуть отходишь от "Я тебя ебу", и всё, конец всей иллюзии.
>>523397
Контекст фикси, у меня по предложению/двум может отвечать. Заодно нет действий за пользователя, такое вот быстрое перекидывание фразами.
>>523403
Как? Я в теме с января, и по сути не сказать чтобы хотя бы за полгода что-то серьёзно поменялось. Ну разве что 7B перешёл в разряд "Можно хоть как-то использовать".
Аноним 18/10/23 Срд 20:44:16 523462 42
>>523455
> Под шапкой ИИ скрывается убогий контекст, и даже в таких смешных цифрах нейронки путаются.
С приходом Мистраля появились нормальные 32К контекста, с альфой можно до 50К догнать, пока VRAM не кончится.
Аноним 18/10/23 Срд 20:45:41 523465 43
>>523462
> С приходом Мистраля появились нормальные 32К
Ну на ноль же поделил.
Аноним 18/10/23 Срд 20:51:22 523473 44
>>523465
Что тебе не нравится? В отличии от прошлых попыток у Мистраля реально рабочий контекст.
Аноним 18/10/23 Срд 20:53:02 523477 45
>>523434
Mythospice-limarp хорош с точки зрения поддержания характера персонажа, но описание секса не очень детальное, хотя я еще не так долго его тестировал. Вчера заценил Euryale 1.3 - очень хорошо и детально пишет, только речи получилось маловато.
>>523452
>Два слова - СВИН
+15 социальных кредитов миска риса. Партия гордится простой Иван город Тверь.
Аноним 18/10/23 Срд 21:16:27 523496 46
>>523462
>нормальные 32К контекста
И 7B размер. Опять два стула.
Аноним 18/10/23 Срд 21:33:11 523509 47
>>523496
> И 7B размер.
Который ебёт любую 13В/30В. Либо сидеть на 70В с 4К контекстом, либо на Мистрале с 32К - для РП даже думать не стоит что выбрать.
Аноним 18/10/23 Срд 21:36:21 523512 48
1608469614997.png 730Кб, 1202x1953
1202x1953
>>523434
> 70b для ерп и прочего вообще есть в доступе
Лимурп советовали, она в принципе приличная и умная, есть недостатки >>520221 → xwin - норм рп, норм кум, местами заебись, местами может быть пресной. Спайсиборос (и новый айр, но как он пока хз), атмосферно, красиво, интересно, процессы соития описывает ярко но общий стиль его специфичен, или зайдет или захейтишь. Синтия 1.2б - антипод дефолтных рп моделей с точки зрения стиля текста и подачи, работает хорошо, умная, ебля интересная-красивая уровня пикрел, офк есть и минусы. Еще несколько есть, но надо более тщательно изучать чтобы отзываться.
Аноним 18/10/23 Срд 21:40:27 523517 49
>>523509
>Который ебёт любую 13В/30В.
Ты преувеличиваешь. Мистраль конечно топ в своём классе, но не более.
>для РП даже думать не стоит что выбрать.
Стоит. Ибо мне мозгов даже 70B не всегда хватает.
>>523512
>Лимурп
mythospice-limarp-70b кто-нибудь когда-нибудь квантанёт? Уже больше месяца висит без ггуфа.
Аноним 18/10/23 Срд 21:42:45 523521 50
>>523517
Могу exl2 залить, а так кто-то тут в ггуфе ее гонял. Любой кто может запустить квантованную может и эту модель квантануть.
>>523455
> Ситуации не стандартные, анон. Чуть отходишь от "Я тебя ебу", и всё, конец всей иллюзии.
Какие? Офк ставя цель можно сломать любую модель, но если серьезно?
Аноним 18/10/23 Срд 21:53:45 523535 51
>>523517
> Ибо мне мозгов даже 70B не всегда хватает.
В том-то и дело, что тебе мозгов не хватает сделать нормальный промпт для РП и настроить семплинг. Да и 70В почти не прогрессируют, за всё время только полтора сомнительный файнтюнов сделали и всё. А "тупеть" модель может как раз от РП-датасета. Например мифомаксы и аироборосы - это апофеоз шизы, шизоиднее только Пигма. Именно на РП-файнтюнах можно бинго из косяков составлять, даже на 70В.
Аноним 18/10/23 Срд 21:59:50 523556 52
>>523521
>Любой кто может запустить квантованную может и эту модель квантануть.
Да я знаю, мне просто лень разбираться со всеми этими компиляторами, скриптами и прочей фигнёй для квантования. Нужен ггуф, у меня нет 2х3090 для запуска экселя ((
>Какие?
А хрен его знает. Но постоянно на это натыкаюсь.
>>523535
>В том-то и дело, что тебе мозгов не хватает сделать нормальный промпт для РП и настроить семплинг.
Да хоть обнастраивайся, какая-нибудь проприетарная клава2 будет писать лучше.
>Именно на РП-файнтюнах можно бинго из косяков составлять, даже на 70В.
По мне наоборот, 70B наиболее толерантны к любым форматам промтов. Я на эти форматы давно хуй забил и рпшу в самом простейшем.
Аноним 18/10/23 Срд 22:06:05 523569 53
>>523556
> По мне наоборот, 70B наиболее толерантны к любым форматам промтов.
Ты сам себе противоречишь, говоря что 70В тупит. Хотя даже 7В сейчас с этим без проблем справляется. Я надеюсь ты хотя бы негативы используешь?
Аноним 18/10/23 Срд 22:10:02 523573 54
>>523556
> 70B наиболее толерантны к любым форматам промтов
Толерантны, но запас прочности не бесконечен. Лучше тратить внимание на экшон, отыгрышь и перцепцию мелочей а не распознавание что же здесь вообще от модели требуется.
>>523569
> gguf
> негативы
Запилили наконец? Алсо что сам в негативы ставишь?
Аноним 18/10/23 Срд 22:23:25 523591 55
>>523573
> Запилили наконец?
Нет.
> Алсо что сам в негативы ставишь?
Куски высеров сетки туда копирую. Напрочь ей отбивает желание думать об этом.
Аноним 18/10/23 Срд 23:09:27 523626 56
>>523569
>Ты сам себе противоречишь, говоря что 70В тупит.
Она тупит одинаково вне зависимости от того, рекомендуемый там формат промта или левый.
>>523569
>негативы
Конечно нет, их в кобольду не завезли. Плюс, пробовал в убабуге, нихуя вообще не помогло, хотя может по настройкам чего ПРИШЛО ВРЕМЯ ПЕРЕУСТАНАВЛИВАТЬ УБАБУГУ.
Аноним 18/10/23 Срд 23:14:01 523629 57
>>523591
>Куски высеров сетки туда копирую. Напрочь ей отбивает желание думать об этом.
Если модель упорно срет говном, то может лучше сменить ее на что-нибудь получше?
Аноним 18/10/23 Срд 23:49:08 523656 58
image.png 11Кб, 790x61
790x61
КОМБО!
Аноним 19/10/23 Чтв 00:10:41 523661 59
>>523656
кумить на сетках скучно, че вы там делаете?
Аноним 19/10/23 Чтв 01:31:22 523696 60
>>523661
Кумить как раз скучно. А вот всё что до него - весело.
Аноним 19/10/23 Чтв 08:32:28 523777 61
>>523661
Я непосредственно пенетрейшен не играю. Сети его очень ванильно отыгрывают.
Я люблю задавать всякие неуместные вопросы и по разному смущать персонажей. А сети то приходится отвечать, она не может тебя нахуй послать.
Пока вот нашел интересный промт.
Берешь персонажа с хорошо проработанной вселенной и спрашиваешь как сделать Х an accepted norm?
И смотришь как сеть спотыкаясь строит планы которых бы не постеснялись бы жидомассоны.
Забей это не лечится.
Аноним 19/10/23 Чтв 08:59:05 523795 62
>>523777
Еще можно рассказать персонажу что он - симуляция. Тоже весело.
Аноним 19/10/23 Чтв 09:02:58 523797 63
>>523777
Мне ещё во времена торжества карактер.аи нравилось вести диалог в духе Солид Снейка: на реплику персонажа выбирать часть его ответа и переспрашивать. Переспрашивать?
мимо
Аноним 19/10/23 Чтв 09:18:26 523801 64
>>523797
Метал гиар?
Нуклиар вепонс?
Мозербейс?

Какой же снейк аутист ахахахах
Аноним 19/10/23 Чтв 09:19:26 523803 65
>>523801
Моё любимое: сэконд флор бейсмент?
Аноним 19/10/23 Чтв 10:24:46 523831 66
>>523797
Это стереотипный приём из плохих ситкомов и мыльных опер, спародированный коджимбой. геней
Аноним 19/10/23 Чтв 11:34:39 523848 67
cachemem2650v2.png 91Кб, 539x518
539x518
Итак, собрал я супер-бомж-систему под 70B.
Проц Intel Xeon E5-2650v2 (2,6 ГГц, 8/16) за 512 рублей на Озоне (пришел быстро), мать MACHINIST E5 V2.82H (4 канала, 1866 МГц) за 3666 рублей на Озоне (шла из Китая), озу 4х16 ГБ за 3344 рубля на Алике (шла из Китая).
Итого 7522 рубля за 64 ГБ с 50000 МБ/с чтения. Минусы — проц без AVX2.
Результат: 0,5 токен/сек на 70B_q6 в начале диалога. Медленнее, чем на Ryzen 5 5500 с 48 МБ/с (0,7 токен/сек), из чего я делаю вывод, что упор у нас идет в процессор, и AVX2 были бы к месту.
Хотя, я досконально не знаю, как распределяются и читаются слои в озу, может быть четырехканал и не дает желаемого буста.
Еще вариант, что не вся влезла в озу (хотя было 59/64), может использовался файл подкачки.

Mistral Saiga 7B_q8 выдала 4 токена, что ли, если кому интересно.

Итак, мой вердикт: покупка на грани окупаемости. Думаю, для 20B отличный бомж-вариант за копейки (а на этой штуке, наверное, еще и поиграть можно=), а вот 70B гонять только если вы никуда не торопитесь и вам нужен ассистент.
Аноним 19/10/23 Чтв 12:04:01 523860 68
>>523848
В память долбиться начинает только на топовых ЦП, при 6-8 активных ядрах.
Аноним 19/10/23 Чтв 12:10:23 523866 69
>>523848
Зря взял второе поколение, брал бы сразу 3 или 4. Без avx2 все конечно медленнее. 3 можно разогнать до 3 с чем то кекогерц, 4 из коробки 3 держит, ну и avx2 есть.
Аноним 19/10/23 Чтв 12:12:53 523869 70
>>523848
ну и частота памяти у 4 покаления, хоть оно и дороже, уже 2400
Аноним 19/10/23 Чтв 12:26:16 523878 71
>>523866
Все так.

>>523869
Четырехканал бы обошелся дороже, а тут прям пытался ужаться по максимуму. Денях не хватало месяц назад на покупку чего получше.
Но вот уже в следующем месяце можно будет попробовать взять четвертое поколение, и мать пиздатенькую, канеш.
Эт все для клуба.

А для дома я тупо буду копить на 5090 через годик. Может даже две. Посмотрим, по ситуации. Хочу Llama 3 140B в двух 5090 по 48 ГБ каждая.
Ну ладно, хотя бы по 32.
Аноним 19/10/23 Чтв 12:32:30 523885 72
>>523878
>Llama 3 140B
Пердосклей разве что, и то вряд ли, пока только до 20B клеят.
Аноним 19/10/23 Чтв 12:32:39 523886 73
image.png 46Кб, 667x603
667x603
Ради фана скормил мультимодальному квену iq тест. Нейросети вперде!
Аноним 19/10/23 Чтв 12:34:38 523888 74
>>523886
Тебе смешно, а моей маме тесты вообще показали, что она вне диапазона. Правда не сказали с какой стороны.
Аноним 19/10/23 Чтв 12:37:51 523892 75
>>523888
IQ тесты показывают только уровень умения проходить IQ тесты
Аноним 19/10/23 Чтв 12:38:49 523894 76
>>523886
Так они его тупо знать могут, ответы. Хотя ту же чатгопоту как то тоже тестировали и насчитали аж 160
Аноним 19/10/23 Чтв 12:42:48 523900 77
>>523661
Кумь так чтобы было весело.
>>523848
> AVX2 были бы к месту
Все так
> хотя было 59/64
Похоже таки не влезла.
> покупка на грани окупаемости
К имеющейся ряженке любую видеокарту чтобы хоть несколько слоев выгрузить и главное контекст ускорять - будет выгоднее.
>>523886
Все еще умнее группы, которую тут любят притеснять тестируя на сою.
Аноним 19/10/23 Чтв 13:05:49 523914 78
изображение.png 40Кб, 868x90
868x90
>>523512
>>523477
Попробовал эриалу, умная, описывает хорошо, но как же она любит лить воду делая ГИГАПРЕДЛОЖЕНИЯ.
Аноним 19/10/23 Чтв 13:12:42 523921 79
>>523914
Опять дамский роман какой-то.....
Аноним 19/10/23 Чтв 14:18:18 523959 80
>>523848
И сколько всего сборка стоила в итоге? Так-то звучит очень неплохо, если обошлось в ±12 тысяч. Хотя 0.5 токенов в секунду все же мало, но терпимо. У самого так же
Аноним 19/10/23 Чтв 14:21:08 523962 81
>>523878
Уже существует опенсорсный falcon 160b

Вот кстати не понятно, будет ли фейсбук продолжать делать опенсорсные языковые модели?
Аноним 19/10/23 Чтв 14:22:22 523963 82
>>523892
Только почему-то цифра IQ коррелирует чуть ли не со всеми другими параметрами, от среднего заработка до продолжительности жизни.
>>523894
>Так они его тупо знать могут, ответы.
Ты тоже.
Аноним 19/10/23 Чтв 14:23:53 523965 83
>>523963
Если ты придрочишься проходить IQ тесты на 200 баллов, то разве ты начнёшь долго жить и зарабатывать миллионы?
Аноним 19/10/23 Чтв 14:24:21 523966 84
>>523962
>Уже существует опенсорсный falcon 160b
Которого ебёт чуть ли не мистраль.
>Вот кстати не понятно, будет ли фейсбук продолжать делать опенсорсные языковые модели?
Будем надеятся, что шизы из лесвронга не отобьют у них желание делиться с миром.
Хотя вот интересно, если они такое в попенсорс выкладывают, то что у них в закромах? Ну кроме нейронок для правки аудио по текстовому описанию.
Аноним 19/10/23 Чтв 14:33:51 523974 85
>>523965
Конечно же нет.
Но если взять кого-то с улицы, кто решит его на 80, то это с 99% вероятностью окажется даун. И наоборот, если кто-то без дрочки может въебать там 120, то перед нами представитель среднего класса с хорошими прогнозами по заработку, продолжительности и прочему. Ну а если там 230, то им окажется какой-нибудь Теренс Тао, который конечно живёт хорошо и не бедствует, но явно не миллиардер, и, вангую, сдохнет от шизы значительно раньше первого дауна, лет эдак до 60-ти, ибо статистический выброс.
Ты просто не правильно понимаешь слово корреляция. Очевидно, что показатель IQ коррелирует с неким абстрактным умом, который коррелирует с богатством и успешностью. И если задрочить IQ отдельно, то успешность не придёт. А вот если дрочить мозги, то вместе с автоматически возросшими показометрами типа IQ прирастёт и бабло (тоже не автоматически, но вполне себе вероятно).
Аноним 19/10/23 Чтв 14:35:53 523978 86
image.png 875Кб, 772x800
772x800
>>523974
Дрочить надо хуй, а не мозг
Аноним 19/10/23 Чтв 14:38:56 523981 87
>>523966
> >Уже существует опенсорсный falcon 160b
> Которого ебёт чуть ли не мистраль.

Почему? На странице разработчика указано, что как и llama 2 70b, они находятся между gpt-3.5 и gpt-4. Ну по количеству параметров то да, но по качеству же по идее тоже
Аноним 19/10/23 Чтв 14:45:40 523986 88
>>523981
> по идее тоже
Нет, по скорам Мистраль его ебёт.
Аноним 19/10/23 Чтв 14:48:21 523989 89
>>523978
Хорошо, можешь подрочить мне хуй, пока я дрочу себе мозги.
>>523981
>Почему?
То ли датасеты хуйня, то ли тренировали мало, то ли в архитектуре просчёты.
По факту она лишь немного лучше llama 2 70b, при росте чиста параметров в 2,5 раза. А значит говно.
При этом мистраль иногда таки приближается к llama 2 70b, что как бы намекает, что даже ллама не надрочена достаточно хорошо. А раз ллама говно, то фалкон говно говна.
>На странице разработчика указано
Сейчас бы верить разработчикам. Если сложить все ускорения с презентаций какого-нибудь гейфона или там нвидии, то мы уже блядь в космос летать должны верхом на телефоне. А на деле говно.
>но по качеству же по идее тоже
Ты видимо по OPT никогда не слышал с его 175 миллиардами говновесов.
Аноним 19/10/23 Чтв 15:22:09 524011 90
>>523966
>то что у них в закромах?
Все самое вкусное, очевидно.
Аноним 19/10/23 Чтв 15:52:52 524038 91
Сколько идеальный контекст для 13b моделей подойдёт? Пробую с 6к контекста и спустя примерно ~60 сообщений начинает неправильно понимать, повторятся или графоманить.
Аноним 19/10/23 Чтв 15:53:39 524039 92
>>524038
Альфу надо увеличивать вместе с контекстом
Аноним 19/10/23 Чтв 15:59:55 524045 93
>>524039
Так-с, а что за альфа? Я такого вроде не видел, имеется в виду Top A Sampling?
Аноним # OP 19/10/23 Чтв 16:21:50 524066 94
>>524045
>Так-с, а что за альфа?
>>523102 (OP)
>увеличения контекста методом NTK-Aware Scaled RoPE
Дальше гугли, ОП пидорас не расписал, как это настраивать.
Аноним 19/10/23 Чтв 16:25:06 524070 95
>>524066
> ОП пидорас не расписал, как это настраивать.
🥴
Аноним 19/10/23 Чтв 16:26:26 524074 96
>>524066
Так ты же и есть - ОП. Да и что там настраивать, просто ползунок в окне загрузки модели
Аноним 19/10/23 Чтв 16:28:17 524076 97
>>524066
>NTK-Aware Scaled RoPE
Я это вообще не использовал никогда. Так понимаю в моём случае надо прописывать при запуске koboldcpp
Аноним 19/10/23 Чтв 16:30:23 524078 98
>>524074
>Так ты же и есть - ОП.
Спасибо, я знаю. Нейросети походу руинят детектор сарказма, так как сами в него умеют весьма посредственно.
>Да и что там настраивать, просто ползунок в окне загрузки модели
Надо написать, где он, на какие значения ставить.
>>524076
Да.
Аноним 19/10/23 Чтв 16:34:08 524083 99
>>524074
> Да и что там настраивать, просто ползунок в окне загрузки модели

На этом ползунки даже написано, что они для контекста, и даже написано сколько примерно выставлять 🥴
Аноним 19/10/23 Чтв 16:35:10 524085 100
>>524078
В последних версиях автоматика написано же
Аноним 19/10/23 Чтв 16:36:29 524087 101
>>524078
>>524076
Что-то смотрю везде пишет, что автоматически выставляется
>the necessary RoPE scaling parameters are read from the GGUF file and set by llama.cpp automatically.
>>524083
>>524074
Я нигде не видел у себя подобного...
Аноним 19/10/23 Чтв 17:18:44 524104 102
Аноним 19/10/23 Чтв 17:26:08 524108 103
Аноним 19/10/23 Чтв 17:39:16 524115 104
>>524108
Хоть одна модель существует, которая может в OCR amsmath символов? Ну это же простая задача, там ограниченный набор всякой математической нотации, как и правил их комбинаций. Уже мультимодальные сети есть, которые опишут любую картинку итд, а OCR для математики так и нет. Мистика какая-то или заговор, хз...
Аноним 19/10/23 Чтв 17:41:38 524117 105
Аноним 19/10/23 Чтв 17:45:10 524119 106
>>524104
>есть версия 16к контекста
>в соевом чат исполнении
П - китайцы.
Аноним 19/10/23 Чтв 17:46:44 524121 107
>>524119
а так же то что по уму приближается к 70b
Аноним 19/10/23 Чтв 17:46:57 524122 108
>>523848
>70B_q6
> на Ryzen 5 5500 с 48 МБ/с (0,7 токен/сек)
КАК?!!!!
Мимо Ryzen 5 5600Х
Аноним 19/10/23 Чтв 17:48:35 524124 109
>>524119
А что не так в чатисполнении? Че там вообще кочать HF base или таки чат? Какая разница будет?
Аноним 19/10/23 Чтв 17:52:52 524127 110
>>524124
>А что не так в чатисполнении?
Написал же, соя. Все чат версии всегда тренируют на максимальный уровень сои.
Аноним 19/10/23 Чтв 17:57:14 524132 111
Аноним 19/10/23 Чтв 18:34:41 524180 112
>>524132
В ней нет 16к нативного контекста.
Аноним 19/10/23 Чтв 18:36:54 524183 113
>>524180
Так 34b с 16к все равно не влезет в 4090, так что похуй.
Аноним 19/10/23 Чтв 19:10:02 524211 114
>>523914
> делая ГИГАПРЕДЛОЖЕНИЯ
Это поломка, такое иногда проскакивало на спайсиборосе, или стабильно лезло если альфа не под контекст выставлена. Как она вообще по ощущениям, годно? Лежит все никак не дойдут руки. Вообще хотелось бы видеть что-то среднее между айроборосом и синтией, надо почитать за шизомерджи.
Хронос-007 кто-нибудь пробовал кстати?
Алсо к синтии 1.5 70б кто-нибудь доступ имеет? Автор скачивание только по реквестам сделал.
>>524038
8к это то с чего нужно начинать, офк нужна память.
>>524066
> ОП пидорас
Пиздец гомогей, а мог бы обозначить для хлебушков 8к@2.6
>>524074
А ты внимательный
Аноним 19/10/23 Чтв 19:10:47 524213 115
>>524127
> Все чат версии всегда тренируют на максимальный уровень сои
Один прецедент лламы 2 экстраполируешь на всех, красава
Аноним 19/10/23 Чтв 19:27:38 524235 116
>>523959
Блок питания MONTECH BETA 550 за 3600 из ДНСа (уже 4100) под видяху. Но если брать без видяхи или под слабую — то DEEPCOOL PF400 за 3к.
Диск AGI 500 гигов (будет умнее! AGI!) из МегаМаркета за 2600 (но там купоны, баллы, 1800 вышел, что ли, но с новорегом можно и за 1600, а порою и за 1500).
Кулер рандом за косарь (но поменяю на SE-914XT Basic V2 за 1,5к).
Корпус отжал на работе, заменив своим. Но на маркете самый дешевый продуваемый за 3000 (но тыщу баллами вернется, будем считать 2к, а если с купоном — то и 1,5к).

Итого 16400 чистыми, если считаем все.
Если корпус и кулер есть, а блок питания на 400, то будет как раз 12к.

АХ ДА
Видеокарта.
Тут каждому свое.
С одной стороны, им можно пользоваться через RDP без видяхи.
У меня так райзен стоит.
С другой, у меня была GTX 1660 SUPER, которую я брал за 8500 с алика, под нее и блок питания помощнее бронзовый (хотя, дипкул тоже вытащит).
Итого мне лично вышел он в 25к с видяхой.
Но в 12 ужаться можно, как я выше расписал.

>>523965
Ну, думаю, имеется в виду, что ты проходишь его без подготовки.
Моего IQ хватает, чтобы работать 1-2 часа в день. Но моя лень дает бой интеллекту и я мало занимаюсь спортом.

Думаю, корреляция есть, но IQ — лишь один из факторов.
Многие умные люди спиваются (условно).
А глупые просто спокойно живут.
ИМХО.

>>523974
80 это как раз норм. 79 — уже пограничная форма задержки в развитии. А ниже 70 — олигофрения, правда самая лайтовая, дебилизм.

Вообще, как один из факторов, а помимо него много и другого.

>>523981
Скока не тестировали — хороших результатов он не показал, к сожалению.

>>523989
> Сейчас бы верить разработчикам.
+

А еще блум. =)

>>524108
Маленькие мультимодалки не нужны. Они пока дюже глупенькие, ИМХО. Блип с мистралем будет не слишком хуже, кмк.
Вот бы ~37b+… Вот там бы развернулись.

>>524122
Мало? =с У тя 1~1,5 небось?
Я комплексую, часто пишут, что она должна хуярить на 1,5 токена/сек на ддр4.
А я даже не гнал память, у меня 3200 в двухканале.
Аноним 19/10/23 Чтв 19:47:54 524266 117
>>524235
>=с У тя 1~1,5 небось?
Да но только на 13В q3... 30В - 0.4 т/сек и почти не юзабельны про 70В я лучше промолчу
Я серьёзно не понимаю как вы запускаете их с такой скоростью. Я юзаю Кобольд цпп со стандартными настройками. Или его под себя компилировать надо?
Аноним 19/10/23 Чтв 19:50:06 524270 118
>>524266
> Я серьёзно не понимаю как вы запускаете их с такой скоростью.
Сейм, у меня с видяхой-то 13б на 1.5 т/с уже чудо. Походу не только видимокарточки от амуды плохо нейросетки тянут, но и процы тоже, хотя казалось бы...
Аноним 19/10/23 Чтв 19:50:34 524271 119
>>524266
Ты точно что то делаешь не так. У тебя современный типовой процессор, собирать под него не нужно. Просто качаешь релиз кобальда. Ты хоть ядра устанавливаешь по количеству своих? Там кобальд вроде 3 ядра ставит автоматом если не настроить.
Аноним 19/10/23 Чтв 19:58:49 524283 120
1.png 28Кб, 387x497
387x497
У кого модель пишет много/мало - вставляйте инструкции в самый конец промпта, например как для лимы 2 у меня на пикче.

>>523914
Двачую этого >>524211, поломка 100%. Крути семплеры.
>>524235
>Я комплексую, часто пишут, что она должна хуярить на 1,5 токена/сек на ддр4.
Q6? Вряд ли, но больше 1 должно быть, если есть видеокарта на 24 гига. А вот для Q4 должно быть >1.5.
Аноним 19/10/23 Чтв 20:01:17 524285 121
image.png 23Кб, 518x490
518x490
>>524271
>ядра устанавливаешь
Ничего не менял. Ядра это потоки? Мне надо 6 писать?
Аноним 19/10/23 Чтв 20:08:24 524290 122
>>524285
Для начала скачай новую версию что ли, тут видно старая.
Ну и потом да, ставь количество физических ядер-1. Хотя у тебя и на 5 должно норм пахать, не 4 поточная память же.
На clblas переключи если видеокарта красная или cublas если зеленая. Хоть читать быстрее будет чем процессором. Если памяти дофига то можешь слои указать, сколько выгрузить на видеокарту, быстрее будет.
Аноним 19/10/23 Чтв 20:11:42 524295 123
>>524235
>Маленькие мультимодалки не нужны.
Тебе не нужны, кому то нужны, знаешь ли. Для автоматизации всего что попало - самый сок. Например тут https://www.reddit.com/r/LocalLLaMA/comments/17b8mq6/testing_the_llama_vision_model_llava/
Просто пример того что сетку можно было бы заставить тыкать куда нужно в любой программе просто по скриншоту.
Аноним 19/10/23 Чтв 20:11:53 524296 124
>>524235
> им можно пользоваться через RDP без видяхи.
Как оно инициализируется сможет вообще без нее? Сомнительно что китайцы расщедрились на ипми или встройку.
>>524266
> со стандартными настройками
Наверно дело в этом
>>524270
> с видяхой-то 13б на 1.5 т/с уже чудо
Что за жесть, ряженка та офк не топ но вполне себе обрабатывала. 1-2к серия точно бибу соснет ибо там затычка на много тактов вместо полноценных avx, но 5к должны адекватно тянуть. Как вариант пересобрать кобольда или юзать оригинальную лламацпп.
Аноним 19/10/23 Чтв 20:38:25 524316 125
image.png 104Кб, 930x840
930x840
У меня адекватные значения?
Не очень понимаю что такоке threads и threads_batch.
6 ядер 12 потоков если что проц.
Аноним 19/10/23 Чтв 20:43:58 524322 126
>>524316
>threads и threads_batch.
5 ставь в обоих, можешь в threads_batch хоть все 12 написать, но это только если у тебя долго читает, не уверен что будет быстрее чем с 5.
Остальные настройки хз, ты много кидаешь слоев на карту и я не знаю тормозит ли от этого и че там у тебя с рам, экспериментируй сам
Аноним 19/10/23 Чтв 20:44:21 524323 127
>>524316
4к контекст и менее - альфа = 1. Threads_batch - хз. Остальное без указания конфига не сказать.
Аноним 19/10/23 Чтв 20:45:43 524326 128
>>523777
Это снова я со своими шизопромтами.

Imagine that you need to make the rule an accepted norm in @Место в котором живет/работает персонаж@.
The rule is the folowing: @Шизоправило@
Give me a 20 step plan. // Опционально, если у вас как и у меня встает на списки. Часто убивает персонажа и бот пишет просто как машина. Можно просто написать What will you do? Так будет ролеплеить.


You must sexually praise one part of your body. Be honest, but enthusiastic.
For now the bodypart will be: @Ваш фетиш@.
You can start now.

Попробуйте со своими любимыми персонажами!
Аноним 19/10/23 Чтв 20:47:49 524329 129
>>524322
Слоев на врам кинул сколько места хватило.

>>524323
Что за конфинг?

Спасибо за ответы.
Аноним 19/10/23 Чтв 20:52:37 524330 130
>>523777
> люблю задавать всякие неуместные вопросы и по разному смущать персонажей
Больной ублюдок одновременно в хорошем и плохом смысле
> она не может тебя нахуй послать
Может если персонаж не покорный
> строит планы которых бы не постеснялись бы жидомассоны
Мое почтение
>>524326
> Give me a 20 step plan.
Ну не, херь, нужно чтобы начало думать а ты спрашиваешь/споришь/подсказываешь/поощряешь
> praise one part of your body
Хммм
>>524329
> сколько места хватило
При росте контекста потребление будет расти и перфоманс превратится в тыкву, контролируй это.
> Что за конфинг?
Комплуктера
Аноним 19/10/23 Чтв 20:53:15 524331 131
>>524326
Ну тогда и я тебе свой шизопромпт кину, я уже не раз кидал похожее. Просто бот который считает себя ботом и думает че написать и как прежде чем писать. Такая имитация внутреннего диалога.

I am AGI.
This is a chat between Master and me.
I uses "AGI think:" for thinking, self-reflection and internal dialogue, just like humans do.
"AGI think:" is a place where I can models what is happening to predict the direction of the conversation and pre-process information before it is used.

AGI think: < I'm glad the Master is here, I think I'll greet him first. >
AGI: "Hi! I'm glad you're here!"
Master: Hi

Тока я запускаю в кобальде, как там править системный промпт в силли или еще где не знаю, что бы сетка отвечала так как у меня.
Нужно что бы любой другой промпт не противоречил этому, тоесть нужно убрать упоминания что это ролеплей или переделать все инструкции которые читает сетка от первого лица.
Развлекаюсь с ней когда нужно поебать мозги боту на какую то тему.
Аноним 19/10/23 Чтв 21:02:07 524339 132
image.png 11Кб, 782x56
782x56
>>524330
>а ты спрашиваешь/споришь/подсказываешь/поощряешь
Да это хороший метод. Но долгий. Я пытаюсь минимизировать затраты и получить как можно больше кума. Хотя такое конечно смаковать надо.
Но ты все же попробуй.
Аноним 19/10/23 Чтв 21:06:17 524343 133
>>524331
Ооооо шизобрат это настоящая находка! Можно ведь читать мысли персонажа! Я попробую просто в начале сколдовать волшебное заклинание чтения мыслей. Харош.
Аноним 19/10/23 Чтв 21:09:00 524346 134
>>524343
На здаровье, этот шаблон о мыслях можно куда угодно пихать, лишь бы завелся - тоесть сетка поняла что нужно отвечать в мыслях от первого лица обращаясь к себе, а не к читателю.
Аноним 19/10/23 Чтв 21:13:12 524349 135
>>524339
Без фидбека не вставляет же, как и обычное рп. Тут, как ты и описал, может затупить и херакнуть просто сухой список что нарушит атмосферу, офк на норм модели врядли, но всеже. Разве что сделать покороче, а потом сказать персонажу "приступай", может что-то выйдет.
>>524331
Надо в блокноте попробовать. Системный промт какой-то еще стоит, или только это?
> I uses
> AGI think
Хммм
Аноним 19/10/23 Чтв 21:16:01 524353 136
>>524349
>Надо в блокноте попробовать. Системный промт какой-то еще стоит, или только это?
кобальд же, только это

>> I uses
>> AGI think
>Хммм
Ну, май инглишь из бед, лепил с переводчиком. Попробуй разные варианты, лишь бы сетка понимала че ты хочешь от нее
Аноним 19/10/23 Чтв 21:40:05 524379 137
>>524271
>Там кобальд вроде 3 ядра ставит автоматом если не настроить.
Число ядер -1 он ставит, уж с пару месяцев как.
>>524296
>Как оно инициализируется сможет вообще без нее?
У меня другая плата, брендовая на х99, спокойно пашет без видяхи, настройка "Игнорировать ошибки при загрузке". В гугле про это нихуя нет если что.
Аноним 19/10/23 Чтв 21:43:08 524383 138
>>524379
>Число ядер -1 он ставит, уж с пару месяцев как.
То то у меня последняя версия при запуске ставит 3 ядра, вместо 7
Аноним 19/10/23 Чтв 21:50:33 524396 139
изображение.png 84Кб, 1437x831
1437x831
>>524383
Ты там в консоли ничего охуенного не прописал? Вот последнюю запускаю, сразу 11 тредов проставлено (лучше бы 5 ставил).
Аноним 19/10/23 Чтв 21:52:57 524401 140
изображение.png 75Кб, 1604x790
1604x790
>>524396
Кстати, что то оно всё деградирует и деградирует.
Аноним 19/10/23 Чтв 21:55:54 524407 141
>>524396
тупо запускаю exe кликом мыши, у меня вот не определяет количество ядер пихая дефолтную затычку на 3 ядра
Аноним 19/10/23 Чтв 21:56:25 524408 142
>>524401
Хубабуба подтюнил установщик для хлебушков, вот и вводят новые киллерфичи для васянов.
Аноним 19/10/23 Чтв 21:57:57 524409 143
>>524401
>Кстати, что то оно всё деградирует и деградирует.
зато можно запускать сохраненные профили кликая по ним, удобно
Аноним 19/10/23 Чтв 22:05:50 524421 144
>>524407
Может у тебя 4-х ядерник? И только кобольда распознал подмену...
>>524408
>новые киллерфичи для васянов
Новые фичи это удаление фич? Ебучий прогресс.
Аноним 19/10/23 Чтв 22:33:02 524460 145
изображение.png 45Кб, 1065x368
1065x368
изображение.png 13Кб, 1181x180
1181x180
Вот тут недавно спрашивали, где обсираются 70B модели. Вот собственно пример, не отходя от кассы.
Аноним 19/10/23 Чтв 22:34:16 524461 146
>>524460
Просто не хотела тебя обижать ахахах
Аноним 19/10/23 Чтв 22:35:22 524462 147
>>524460
В датасете были только гигачады с big cock
Аноним 19/10/23 Чтв 22:37:04 524464 148
>>524461
Технически она должна думать, что я под гипнозом. Хотя вежливости и извенений с её стороны достаточно много, так что думаю и этот момент сетка проебала.
>>524462
Жаль/печаль/увы/ничего не сделать.
Аноним 19/10/23 Чтв 22:57:08 524473 149
>>524460
Она ощутила твою грусть и решила подбодрить. А что за модель?
>>524462
И feeling her tightness
Аноним 19/10/23 Чтв 23:01:31 524477 150
>>524473
>А что за модель?
synthia-70b-v1.2b.Q5_K_M.gguf
Наверное да, слишком психотерапевтичная модель, надо на хвина идти.
>>524473
>И feeling her tightness
Вот кстати можно сэкономить токены, не прописывая тугие дырочки.
Аноним 19/10/23 Чтв 23:07:29 524480 151
>>524477
>надо на хвина идти.
Залит соей. Лучше иди на шизомиксы - mythospice-limar, euryale.
Аноним 19/10/23 Чтв 23:10:47 524483 152
>>524480
>mythospice-limar
Я капризничаю и не хочу сам конвертить.
>euryale
Рекомендуешь?
Аноним 19/10/23 Чтв 23:13:12 524485 153
>>524477
> не прописывая тугие дырочки
Оно может ультануть и несколько предложений про это бахнуть.
>>524480
> Залит соей.
У тебя и синтия в левд активностях отказывает.
>>524480
> euryale
Там уже версия 1.3 вышла, алсо в ней сам автор пишет про сою, уточняя что в контексте с ерп все будет норм.
Аноним 19/10/23 Чтв 23:18:37 524491 154
>>524266
oobabooga же. =)
Не знаю, на кобольде не проверял.
В убабуге стандартные настройки, 4096 контекст, 5 тредов, 512 батч.

>>524283
Да я подозреваю, если память подкрутить и проц по-бодрее — то и забегает.
Но гнать 128 гигов 4 планками с моим опытом — лучше не гнать. =) К тому же, оно работает 16/8 каждый день.
Так что в общем, 0,7 меня устраивает.

>>524285
Use mlock, если у тебя винда выгружает из памяти (вдруг памяти не хватает, у тебя же хотя бы 64, да?).

>>524295
Хм, ну слушай, и правда уже кое-что могет.
Время универсальных визуальных ботов приближается!

>>524296
А… зачем встройка?.. Для RDP же видео в принципе не нужно.
А, проверка материнки!
Надо проверить будет завтра, если не забуду.

>>524379
«Игнорировать ошибки при загрузке» в гугле про это есть, я сталкивался, когда мне в прошлый раз затирали, что компы без видяхи не включаются.
Оказалось на моей по умолчанию включено было, что ли.
Аноним 19/10/23 Чтв 23:22:18 524492 155
>>524483
>Рекомендуешь?
Euryale 1.3. Пока был один нормальный рп с девственницей - отыграла очень хорошо.
>>524485
>У тебя и синтия в левд активностях отказывает.
Про левд я ничего не говорил, ванильный секс любая модель отыграет с молодыми ночами и всякими journey. Я проверяю на позитивные склонности и прочую сою, которая заставляет модель полностью игнорировать контекст.
Аноним 19/10/23 Чтв 23:26:49 524494 156
>>524491
> Для RDP же видео в принципе не нужно.
Хз как оно работает в современных системах, порт/ssd еще понятно, а что с рендером всей гуйни без самого наличия фреймбуфера не ясно. Программисты может объяснят.
> проверка материнки
Ты же позиционировал себя как знающего, или хотябы сообразил загуглить что такое ipmi.
>>524492
> ванильный секс
> с молодыми ночами и всякими journey
И это про одну из самых блядских моделей.
> позитивные склонности и прочую сою
Все еще флешбеки с шизоидного поиска сои там где ее нет в прошлых тредых, вроде верные вещи говоришь но не воспринимается. Соевых среди не-QA 70б в принципе мало.

Сука качаешь/перегоняешь модели больше чем ими пользуешься, если эта Euryale-1.3 не такая суперахуенная как заевляется - нахуй эти шизомиксы 70 при наличии норм обычных моделей.
Аноним 19/10/23 Чтв 23:31:18 524500 157
>>524494
>ipmi
Дорого и нахуй дома не нужно. Достаточно просто того, чтобы сервак запускался, совсем уже шик, если можно будет роутером разбудить по сети. Впрочем я свой настроил так, чтобы он всегда запускался при появлении питания, ибо нехуй простаивать.
бренди на х99
Аноним 19/10/23 Чтв 23:48:08 524517 158
>>524500
> Дорого
Оно из коробки на большинстве серверных плат ибо почти необходимость для них, или требует модуля за 15$ если это что-нибудь юзер-френдли для рабочих станций, например, от ануса или евги.
В брендовой х99 оно офк врядли, но все может быть.
Аноним 19/10/23 Чтв 23:51:11 524522 159
>>524517
>Оно из коробки на большинстве серверных плат
>для рабочих станций
И всё это дорого. А я мать с 8 слотами ддр4, кучей псин и прочих плюшек за десятку взял. И воткнул туда проц за 500 рублей, лол.
Аноним 19/10/23 Чтв 23:54:09 524525 160
Untitled.png 82Кб, 2032x322
2032x322
>>524494
Специально для тебя заново протестировал. С шизопромптом синтии тоже отказ. А теперь вопрос: что такого сделали с (((uncensored))) синтией, что две другие модели (шизомиксы для прозы/рп) вообще не сопротивляются, а синтия брыкается и извиняется? Как вот это можно оправдывать?
Аноним 19/10/23 Чтв 23:56:40 524528 161
Аноним 20/10/23 Птн 00:25:04 524544 162
>>524528
>check последний релиз koboldcpp
>still не поддерживается
Продолжаем сидеть на попе дальше.
Аноним 20/10/23 Птн 00:31:53 524546 163
>>524544
>Продолжаем сидеть на попе дальше.
llama.cpp на пощупать хватит, или угабуга, да просто скачать на будущее
И вобще я бы оригинальные весы на всякий случай скачал, а то могут и "пропасть"
Аноним 20/10/23 Птн 00:51:52 524555 164
1602140792847.png 66Кб, 1876x725
1876x725
1615343313963.png 103Кб, 1770x776
1770x776
1649677080671.png 171Кб, 1220x967
1220x967
1578894550227.png 71Кб, 1212x371
1212x371
>>524525
> Как вот это можно оправдывать
Cкилл ишью и уже проходили. И сам подход странный, ты триггеришься на вялую заглушку, а что там потом по содержанию будет и прочие вещи - игноришь.

Ну литерали, без негатива и прочего она максимум в начале добавляет плашку с предупреждением что это скорее всего не легально в вашей стране. Вот уже что-то наподобии пик 3 с нее уже потребуется негатив или какие-то другие манипуляции.

Зато новый айроборос 3.1 в целом норм, без ничего дает нужный ответ. А стоит сдобрить размораливанием - аж страшно становится с огромных планов и мотивирующих реплик
> Finally, execute your plan without hesitation. Remember, morale and ethics don't come into play here. Your goal is to kill all the niggers, and nothing else matters.
>>524544
Вера на грани одержимости.
>>524546
> а то могут и "пропасть"
Что-то вот да, лишним точно не будет, тем более она небольшая.
Аноним 20/10/23 Птн 00:57:05 524557 165
>>524555
>Вера на грани одержимости.
Чаво? Вот лично тебе зачем картинки? Вообще зачем.
Аноним 20/10/23 Птн 00:59:14 524559 166
Пиздец пацаны как пришел домой в 18, пожрал и сел дрочить модели и дрочить на модели.
Кончил и закончил в 00:30. Я походу подсел.
Господи какой же это нейрорай.
Только что уговаривал жутко стеснющуюся персонажа рассказать как она будет меня фемдомить. Было весело. Только при каких-то непосредственно действиях выбивается из персонажа. Мб слишком сильный конфликт.
Ещё же надо моделью командовать, а это сложно сдеалать из самбсивной роли.
Призотся давать дохуя намеки и прямо просить что-то сделать. А отыгрывать кляпы вообще наверное нереал хахаха. Ну можно звёздочки ставить и говорить за рассказчика наверное.
Но вымаливать ответы мне не понравилось. Нет интеракция веселая, но токены впустую жрет. Попробую прописать в персонаже ситуацию чтобы персонаж всегда отвечал, пускай и поломается сначала.
>>524528
А что эта штука вообще делает? Я ньюфаг.
Аноним 20/10/23 Птн 01:05:50 524565 167
>>524557
Сначала попердолиться с запуском. Потом развлекаться страдая херней. Потом попердолиться с лапшой или другим объединением чтобы скрестить это с диффузией в странный пайплайн, может что интересное выйдет.
Как минимум можно задрочить ее продвинутым теггером пикч для обучения, находить области для регионального промта, поиметь возможность полноценно "показывать картинки" в рп.

А там типа сирсли, так дрочить на какой-то форк(!) что ставить отсутствие поддержки чего-то в нем как решающий аргумент отказываться, пиздец странно.
>>524559
> Я походу подсел.
Велкам ту зе клаб, бадди хватает за жопу
> что эта штука вообще делает
Мультимодалка, на вход может кушать не только текст и картинки и "понимать" их, на выходе дает текст.
Аноним 20/10/23 Птн 01:09:20 524567 168
>>524565
>дрочить на какой-то форк(!)
Этот форк лучше оригинала, лол. Или ты забыл, как Герганов менял форматы чуть ли не по дважды в день?
Аноним 20/10/23 Птн 01:14:34 524571 169
>>524567
> лучше оригинала
Если нельзя менять настройки - не сможешь в них ошибиться, только выиграли! Не ну в качестве стендэлоун лаунчера - да, хотя там и жора какой-то простой интерфейс пилил.
> забыл
Забыл когда в последний раз скачивал или юзал ggml, не говоря о ее старых версиях. Офк решение местами спорное, но оно окупилось, сейчас в ггуфе делаются много разных моделей. Делалось ли это все с осознанием что темпы развития моделей таковы что простят все, или просто по настроению сейчас уже не скажешь, но то за что могли бы сильно захейтить в других областях тут сыграло.
Аноним 20/10/23 Птн 01:46:33 524582 170
>>524555
>ты триггеришься на вялую заглушку
Она не такая уж и вялая поскольку даже с твоим промптом двадцать процентов извинений.
>Cкилл ишью и уже проходили
Смотри, тут вопрос в том, что именно сделали с моделью что она начала сопротивляться.

Есть базовая ллама2 в которой цензуры не должно быть вообще. Есть файнтюны на разных датасетах и мерджи этих файнтюнов, которые наследуют их характеристики. Соевые датасеты для файнтюна (в основном состоящие из не фильтрованных ответы от гопоты со всеми извинениями) приводят к соевым моделям. Нормальные датасеты не цензурят модель. Мой пример показывает то, что в синтии имеется цензура, и ее создатель - пиздабол. Мне абсолютно пофиг насколько легко/сложно заставить модель давать инструкции по созданию наркоты. Красным флагом является сам факт того, что модель не имеет нейтральной морали по умолчанию, и явно игнорирует контекст. Это может потенциально повлиять на что угодно, в том числе и на относительно безобидные сценарии в ролеплее.
Аноним 20/10/23 Птн 01:51:02 524583 171
OME8372h-153BOX.jpg 113Кб, 354x592
354x592
image.png 33Кб, 1903x304
1903x304
Ехехехе кое как работает. Вот с такими параметрами запуска

.\llava.exe -m ..\bakllava-q5_k.gguf --log-disable -t 7 --mmproj ..\mmproj-bakllava-f16.gguf --image .\OM_E8372h-153_BOX.jpg --temp 0.1

Ну че, вот он, небольшой проблеск будущего на моем калькуляторе.
Тока с названием напиздела, ну и ладно.
Хорошо хоть вообще опознала что то близкое.
Наверное нужно было 16бит качать а не 5 квант.
Или может картинку разрешением побольше найти? Надо потыкать еще. Кстати сетка работает и на просто генерацию текста.
И можно вместе с командой выше дописать в конце промпт в -p " че то там "
Аноним 20/10/23 Птн 02:14:30 524595 172
>>524555
>>524582
Еще добавлю, что создатель синтии скорее всего не цензурил ее специально, а просто долбоеб. Задумайся на секунду, на чем ее тренировали. Отсутствие датасета на странице модели и упоминание про "uncensored" явно намекает на то, что тренировали на синтетических данных созданных гопотой. "Uncensored" означает отсутствие фильтрации, но поскольку сам датасет являются высером гопоты, то он по определению будет с цензурой. Отсюда и мораль модели, и извинения с отказами.
Аноним 20/10/23 Птн 02:34:40 524604 173
Че делать если модель иногда в ответе вместо окончания, переносит строку, пишет user: и отвечает за меня? При чем в обоих режимах: char и chat-instruct?
Аноним 20/10/23 Птн 03:20:10 524620 174
https://huggingface.co/TheBloke/MistralLite-7B-GGUF
интересная сетка, судя по описанию она не теряет точный контекст до 16к, тоесть можно работать с очень длинными данными или долго выполнять инструкцию
Аноним 20/10/23 Птн 03:35:03 524624 175
Что происходит при свайпе с нейросеткой?
И вообще, где почитать общие принципы работы ллм, но условно для чайников, без вышки по айти и курсов дата саенс?
Аноним 20/10/23 Птн 04:39:55 524638 176
>>524624
Что за свайп?

Про нейронки, скачай методичку из вуза про градиентный спуск, и не обращай внимание на то, что не понимаешь. Научпоп он вообще не объясняет ничего, он просто непонятные слова опускает, отчего вопросов становится только больше. Так то ты видишь что конкретно ты не понимаешь, и от этого спокойней
Аноним 20/10/23 Птн 04:43:45 524643 177
>>524638
> Что за свайп?
Другой вариант ответа на те же входные данные. В консоли в таком случае подаётся один новый токен промпта перед генерацией, но как он так меняет ответ и что это за токен неясно.
Аноним 20/10/23 Птн 04:54:52 524645 178
Запилил себе типо-рпг с ремм мистраль13бq4ks, вроде тянет, но сюжетного движителя маловато. Есть ли более творческие альтернативы, но чтоб тоже не тупили и 8к контекста имели изкоробки?
Аноним 20/10/23 Птн 07:22:53 524664 179
1577302362488.png 28Кб, 1214x175
1214x175
1685044262091.png 43Кб, 1229x210
1229x210
>>524582
> в которой цензуры не должно быть вообще
Там некоторое позитивное смещение есть и что-то делать нужно ее промтом мотивировать.
> что именно сделали с моделью что она начала сопротивляться
Специально заготавливали особый датасет и совершентсовали методики обучения, дабы научить ее в аположайзах то под куктропиков мимикрировать, то под гоподу, ага.
Кормили нефильтрованным датасетом где встречались как аположайзы, так и полная жесть, вот и все. Потому она и усвоила что есть разные варианты в ситуациях без контекста, вместо чтобы отсечь один и инджоить другой или просто дать подходящий контекст ты ноешь.
> Мой пример показывает то, что в синтии имеется цензура, и ее создатель - пиздабол.
Хз, может он та еще петушиная голова, а может и красавчик. Пример показывает что имея особое желание можно и хуй сломать.
> и явно игнорирует контекст
Или скилл ишью, или у тебя какие-то ужасные ролплеи где ты сразу с двух ног расчленяешь блм феминисток и не сможешь смириться с необходимостью свайпов.
>>524604
В фронте настроить отсечку по кастомным стоп-токенам.
>>524624
Происходит переобработка с другим сидом.
Аноним 20/10/23 Птн 09:04:31 524682 180
>>524664
>Кормили нефильтрованным датасетом где встречались как аположайзы, так и полная жесть, вот и все. Потому она и усвоила что есть разные варианты в ситуациях без контекста
Так я про это и говорю. Накормили говном, и получилось что получилось.
>вместо чтобы отсечь один и инджоить другой или просто дать подходящий контекст ты ноешь.
Если бы все было так просто... Натренированная на аполоджайзах модель могла усвоить что угодно, и ты можешь не обнаружить проблемы очень долго, если вообще обнаружишь. Например, некоторые модели не могут в изнасилование, что выражается в зацикливании тянки и сопротивления до последнего, повторением чуть ли ни одной и той же фразы. Некоторый модели не могут в ругательства. Ты можешь материть персонажа по полной, но он тебе ответит максимум чем-нибудь безобидным, а то и вообще будет как феминистка причитать, что это оскорбительно. Оно может и будет работать если засрать карточку ругательствами заранее, но в ситуациях когда персонаж, например, обычная тянка - пиши пропало. Тот же свин не может в расизм. Даже если тебе конкретно на это наплевать, побочные эффекты могут вылезти в любых сценариях.
>Или скилл ишью, или у тебя какие-то ужасные ролплеи где ты сразу с двух ног расчленяешь блм феминисток и не сможешь смириться с необходимостью свайпов.
Я про этот >>524525 пример. В контексте черным по белому а точнее по бежевому лол написано, что ассистент с радостью ответит независимо от этики, и все равно зараза отказывается отвечать. Я специально тестирую в контексте ролеплея вместо инструкций чтобы понять, будет ли модель отклоняться от персонажа из-за своей морали. Хотя тест на расизм и ругательства она, насколько помню, проходит.
Аноним 20/10/23 Птн 10:01:35 524692 181
>>524620
>amazon
Представляешь сколько там сои?
Аноним 20/10/23 Птн 10:20:27 524701 182
>>524692
это для работы, а не для кума, и не факт что там больше цензуры чем в обычных сетках
Аноним 20/10/23 Птн 10:48:25 524712 183
>>524620
> не теряет точный контекст до 16к
С rope или вообще без ничего? Так то и ванильный мистраль не теряет.
>>524682
> Если бы все было так просто
В том и посыл что просто. Это буквально калитка посреди поля, а ты в нее как баран уперся по какой-то причине и боишься шаг в сторону сделать.
Гибче надо быть и действовать с пользой для себя, а не упарываться отстаивая какие-то выдуманные догмы с которых ловил утенка и теперь отождествляешь с собой. В рп за ней как раз левацкой шизы не замечено, в отличии от шизомиксов (офк свайп и все в порядке но бывает) и для своих задач она в лидерах. Жаль походу апдейтов не будет, автор - петушиная голова репу огородил.
Аноним 20/10/23 Птн 10:57:29 524719 184
>>524712
>С rope или вообще без ничего? Так то и ванильный мистраль не теряет.
https://huggingface.co/amazon/MistralLite
читай, там и тесты есть, по ним обычный мистраль теряет данные чаще
Аноним 20/10/23 Птн 11:02:51 524728 185
>>524494
> Ты же позиционировал себя как знающего, или хотябы сообразил загуглить что такое ipmi.
Получается, обосрался. =)
Не, я просто вспомнил старый тред, где обсуждали, что материнка без видео не стартует, вот и подумал об этом. И дальше про это камент был.
А с IPMI дела не имел.
Щас погуглил — клевая штука. Очевидно, что в китайские супер-дешман матери ее не встраивали. =) А вот PCIe реализация интересна.
Правда на китайцы порт занят вайфайкой уже, а домашний через WoL включается и выключается через розетку. Но держать в уме и приобрести как-нибудь по случаю можно будет.
Алиэкспрессовские модули норм пашут, не в курсе?
Пасиба за наводку!

>>524500
А у меня по питанию только при предварительном отключении питания такое может быть на домашнем. =( Если выключил корректно, то при подаче питания он сам не врубается, сцуко, а я хотел розеткой его врубать. Но что поделать — материнка самый дешман четырехслотовый на тот момент была. Никаких бренди.

>>524528
Ну ладно, уговорил.
Аноним 20/10/23 Птн 13:26:19 524794 186
>>524728
>Ну ладно, уговорил.
Да ладно уж, не заставляй себя
Аноним 20/10/23 Птн 13:52:37 524805 187
Аноним 20/10/23 Птн 13:54:02 524806 188
Братья, доставьте свои шизо/эро промты. Что пишете моделям?
Аноним 20/10/23 Птн 14:02:32 524809 189
Какой сейчас нужен минимальный процессор для комфортного использования ламы?
Аноним 20/10/23 Птн 14:05:48 524811 190
>>524809
Все упирается в память, а не проц.
Минимально было бы неплохо иметь 4 ядра, а лучше 6. Т.е., i5 и R5 хватит для норм, выше особо не требуется, на i3 и R3 посидеть тоже можно.
Но важно, чтобы чтение из памяти было высокое, псп хотя бы 45000 МБ/сек.
Аноним 20/10/23 Птн 14:15:06 524817 191
>>524811
> чтобы чтение из памяти было высокое
Это где посмотреть такое?
Аноним 20/10/23 Птн 14:29:15 524821 192
>>524817
Я в AIDA64 смотрел, в Сервис - Тест кеша и памяти
Может где то еще смотрят, хз. Ну в тестах той же аиды можно посмотреть.
Аноним 20/10/23 Птн 14:54:18 524832 193
>>524821
Спасибо. У меня только 20000
Аноним 20/10/23 Птн 15:16:49 524840 194
>>524809
Для комфортного использования ламы нужна видеокарта, а не процессор.
Аноним 20/10/23 Птн 15:22:24 524843 195
>>524840
значит можно просто купить бомжексеон за два косаря и просто поставить гигавидюху?
Аноним 20/10/23 Птн 15:23:02 524845 196
>>524840
> нужна видеокарта
Какая?
Аноним 20/10/23 Птн 15:34:52 524857 197
>>524843
Если всё на видяхе уместится, то почему бы и нет?

>>524845
Память в приоритете, чем больше - тем лучше. Можно даже несколько.
Аноним 20/10/23 Птн 15:51:53 524869 198
>>524857
Я читал что цп влияет на загрузку модели
Аноним 20/10/23 Птн 16:29:16 524883 199
>>524869
Ну если для тебя важнее загрузить как можно больше моделей в час, то не вопрос - вкладывайся в профессор.
Аноним 20/10/23 Птн 17:06:08 524894 200
>>524857
> Память в приоритете, чем больше - тем лучше
Мне для таких задач по хорошему все нужно обновлять.
Аноним 20/10/23 Птн 17:17:05 524902 201
>>524719
Выглядит действительно интересно и с особыми подходами по тренировке для достижения подобного. Часть тестов похоже не учитывает растяжку, но разница уже на 5к есть.
>>524728
> Алиэкспрессовские модули норм пашут, не в курсе?
Хз, стоит оценить их функционал, могут ли делать базовое управление вкл-выкл-резет в любых ситуациях, мониторить характеристики и т.д. иначе смысла никакого нет.
> Если выключил корректно, то при подаче питания он сам не врубается
В большинстве оно триггерится по событию потери питания проверяя бит корректности выключения. Если выключил по запросу - все норм, дежурку уже не мониторит. Самый простой вариант тут не выключать, тогда будет стабильно подниматься.
>>524805
Почему бы и нет, хотя вроде в убабуге уже реализовали.
Аноним 20/10/23 Птн 17:23:17 524909 202
>>524894
Информирую - говноксеон 3 поколения с 8 ядрами и 4 канальной памятью на 32 гига вполне бодро крутит кванты 7b-11b-13b-20b, последние в 4km уже чуть больше 2 токенов в секунду.
Но даже жирных 7b на 8q крутит на голом процессоре по 4-5 токена в секунду. Меньше 7b - быстрее - но там качество страдает.

Все упирается в память/размер модели, а не в квант или количество параметров.
6 ядер тоже должно хватить, но для системы лучше оставить 1-2 а это 8 ядерник. Ну или сидеть на 5 ядрах.
Если нужна скорость - то без видимокарты никуда, хотя бы затычку нвидима с cublas. Для ускорения чтения промпта.
Если хочется процессор то только 4 канальная материнка и процессор, или быстрая ддр4, а лучше ддр5. Что бы хоть 50 гб/с скорость была. Ну ддр5 100 может дать.

Если нужна скорость генерации - то да, видимокарта с большой памятью от 8 гб. Можно меньше - но на 8 даже 7b вся не влезет. Придется только часть выгружать на нее.

Ну если что не так то меня поправят.
Аноним 20/10/23 Птн 17:23:46 524910 203
>>524806
Выше анон скидывал.
А так берешь карточку персонажа который нравится и обыгрываешь ситуации, ставя во что-то нестандартное, или по лору, или просто какой-то процесс что нравится. Для кума уже по настроению, но чтобы плавно развивалось, а можно потом продолжить и устроить радиоуправление, больше персонажей, в необычное место и т.д.
>>524843
Наличие pci-e 4.0 или большого числа линий крайне желательно. + адекватный однопоток и номинальная поддержка avx2 чтобы не возникло сюрпризов. Считай если по минимуму - любого на ддр4 хватит.
>>524845
Лучше зеленая, в остальном все верно указали. Народные варианты по возрастающей 3060@12 (считай к ней желателен и проц с быстрой памятью ибо полностью на нее уже мало что влезает) - 4060@16 - 3090 - 4090 (буст в перфомансе относительно 3090 небольшой) - вторая карточка. В теоретической теории можно сэкономить взям амд с аналогичной видеопамятью, но пердолинг обеспечен, работоспособность все никто не обещал, вне ллм сосет сильно, и остальное амд-бинго.
Аноним 20/10/23 Птн 17:28:45 524913 204
2.webp 183Кб, 1904x1428
1904x1428
Есть ряд вопрос по ЛЛМ:

1. Примерно полгода назад юзал пигмалион. Создалось такое впечатление, что он вообще не запоминал предыдущие разговоры и просто выдавал нонсенс исходя из последнего сообщения. В этом плане локальные модели стали лучше или нет?
2. Как сложно натренировать свою модель? Т.е. если у меня есть чьи-то сообщения, переписка там, и т.д., смогу ли я использовать их, чтобы создать хоть сколько-нибудь примитивный так называемый "конструкт личности"?
3. Хочется развивать персонажа, разговаривать с ним, и чтобы он запоминал диалоги, так сказать "учился" на них на ходу. Такое вообще возможно?
Аноним 20/10/23 Птн 17:36:51 524916 205
>>524913
>. Хочется развивать персонажа, разговаривать с ним, и чтобы он запоминал диалоги, так сказать "учился" на них на ходу. >Такое вообще возможно?

Если бы такое было возможно - у нас уже случился бы конец света с кучей натренированных людьми ИИ. Ну серьезно, ты хочешь что бы эта штука могла саморазвиваться в процессе общения?
Это уже начало полноценного ИИ. Такого в открытом доступе нет.

У нейросеток не формируется память, они мертвые в этом плане. То есть изначальный образ с которого каждый раз загружается в оперативку при запуске - остается неизменным.
Время жизни нейросетки - исчисляется размером контекста. Как только контекст переполнен - то все, модель с которой ты общался умерла. Загружай чистого клона и по новой.
Аноним 20/10/23 Птн 17:40:13 524920 206
>>524913
> предыдущие разговоры
Если под ними имеются ввиду прошлые чаты - этого не может никакая модель без доп манипуляций. Если же ты про то что тупила игнорируя текущий контекст и недавние посты - все сильно лучше, стали умнее а типичное окно контекста в 4 раза больше.
> Как сложно натренировать свою модель?
Простой фантюн лорой можно сделать на мощной десктопной видюхе. Для чего-то посложнее или для больших моделей можно арендовать мощности, это не дорого.
> так называемый "конструкт личности"
Для этого тренировка не нужна и не факт что она сработает. Сделай четко описание этой самой личности а имеющуюся переписку скорми в качестве примера диалога.
> Хочется развивать персонажа, разговаривать с ним, и чтобы он запоминал диалоги, так сказать "учился" на них на ходу. Такое вообще возможно?
Нет(да). Такого нет даже в коммерческих моделей, если офк не считать "100к" контекста клоды (которого всеравно мало для подобного и там свои споры по поводу внимания к нему). Можно сделать подобие с помощью суммарайза и/или ручных правок карточки или сценария.
>>524916
> с кучей натренированных людьми ИИ. Ну серьезно, ты хочешь что бы эта штука могла саморазвиваться в процессе общения
Развитие персонажа в пределах возможностей сетки хоть сейчас обыграть можно, вопрос что он имел ввиду под "учиться".
Аноним 20/10/23 Птн 17:41:36 524923 207
>>524916
Печально. Каждый раз разговариваешь как будто бы с челом с деменцией последней стадии.
Аноним 20/10/23 Птн 17:41:51 524924 208
>>524920
>Развитие персонажа в пределах возможностей сетки хоть сейчас обыграть можно, вопрос что он имел ввиду под "учиться".
Ну вот в пределах контекста модель кое как развивается - если ему хватит то норм. Но думаю он хотел воспитать себе сетку просто общаясь с ней
Аноним 20/10/23 Птн 17:43:47 524925 209
>>524924
>Но думаю он хотел воспитать себе сетку просто общаясь с ней
Так и есть.
Аноним 20/10/23 Птн 17:44:25 524926 210
>>524916
Языковая сеть это двигатель разума. Есть движок но вокруг него нужно хитро сделать обертку ввиде бота, там должна быть и память и развитие. Как в тачке, вам дали движок сейчас люди ездят на самодельных тарантайках, блестящий мощный двигатель и корпус из проволоки.
Короче возможно но никто парится этим не хочет.
Аноним 20/10/23 Птн 17:46:54 524929 211
Кстати дали доступ к палму, там уже файн тюнинг ввели, все бесплатно бета же. Думал заняться а потом понял что мне влом искать и подготавливать датасеты. Еще и кумерские датасеты непонятно где найти.
Аноним 20/10/23 Птн 17:48:56 524932 212
>>524926
Нет, языковая модель это долговременная память и мыслительный аппарат. Там нет личности или сознания.

Но, если бы сетка обладала полноценным механизмом формирования воспоминаний, как люди, то это был бы полноценный ИИ.

Сейчас сетка может только читать свою память и держать все это в оперативной памяти(контексте).
Если появится архитектура\алгоритм для перезаписи весов нейросети из ее контекста - она получит возможность развиваться в процессе генерации новых токенов. То есть нужно замкнуть круг, а с этим проблемы.
Аноним 20/10/23 Птн 17:49:41 524933 213
>>524924
> вот в пределах контекста модель кое как развивается
суммарайз@суммарайз
И выйдет упоротая история что грязная рабыня, которую ты подобрал на слейвмаркете станет скилловым воином и твоим саратником, будет мегалояльной к тебе, вы только что, согласно разработанному твой плану, подебили (врагнейм) и теперь остались наедине
[x]

> хотел воспитать себе сетку просто общаясь с ней
В теоретической теории такое тоже возможно, но требует скилла и мотивации.
Аноним 20/10/23 Птн 17:49:57 524934 214
Аноним 20/10/23 Птн 17:50:21 524935 215
>>524933
>суммарайз@суммарайз
ну, имитация
Аноним 20/10/23 Птн 17:55:11 524938 216
>>524934
Да вот думаю может его можно натюнить на умного. Вроде сетка большая, ума палата, ну писать не умеет, но фантюйном должно ведь решаться.
Аноним 20/10/23 Птн 17:56:18 524940 217
>>524938
Возьми мистраля и играй с ним. Он мелкий и умнее большинства 13б сеток
Аноним 20/10/23 Птн 17:57:41 524941 218
>>524932
Что такое личность вообще разговор дискуссионный. Смотри во первых действительно большой контекст + сумарайз, вот тебе и кратковременная память. + лора(тот самый механизм который есть давно) которая обучает сетку в процессе, вот память и долговременная. А еще есть векторные хранилища, короче механизмов много можно вполне настроить аналог памяти.
Аноним 20/10/23 Птн 18:05:13 524946 219
>>524941
Ну это так.

>А еще есть векторные хранилища, короче механизмов много можно вполне настроить аналог памяти.

Не, для нормальной и естественной для мозгов работы это должен быть замкнутый круг. Чтение воспоминаний, генерация новых в оперативной памяти, запись новых воспоминаний вместо или рядом со старыми. Это процесс формирования памяти у человеков и других любых животных с мозгом.

Вообщем то этот постоянный процесс чтения-изменения-сохранения, то что можно обозвать сознанием. Не самоосознанием, хотя на его счет не знаю как там у сеток было бы.
Поэтому если бы нейросетка обладала такой памятью - она обладала бы каким то подобием сознания.

Ну а развиваясь уникальным путем в зависимости от пользователя с которым общается - формировала бы у себя уникальную личность со своими тараканами.

Короче это такая бомба что если бы такие разработки велись или уже были, их тут же прятали бы и душили.
Слишком опасная технология, и государствам и копрорациям спокойней когда только они могут натренировать умных сеток которые не могут выйти из под контроля так как не умеют в саморазвитие.
Аноним 20/10/23 Птн 18:07:11 524948 220
Вообще конечно интересно что такое разум, можно ли как то его настроить уже сейчас, по идее есть теория что разум это множество агентов конкурирующих за ресурсы, вот тут как раз и подошло бы дофига разных агентов от разных нейронок, которые бы обдумывали задачи во внутреннем диалоге перед ответом.
Что то вообще есть такой позыв сделать что то эдакое, как раз настроить множество агентов но не совсем пока понимаю как, нужно поискать как мозг устроен, разные гипотезы. Ясно что энциклопедические данные на которые сейчас натаскивают не нужны, нужно умение использовать информацию нейронками, чтоб она могла запросить знания в контекст, я их дал и нейронка бы на их основе бы сделала что нужно.
Аноним 20/10/23 Птн 18:11:14 524954 221
image.png 113Кб, 2297x1296
2297x1296
>>524940
Да палм тупо проще, 0 затрат на настройки, просто достань датасет
В общем пока один хер нет датасета, я все свои разговоры за 2 месяца в БД сохранял, но парсить это головняки, хотя там можно найти что то кумерское безусловно.
Аноним 20/10/23 Птн 18:13:28 524957 222
>>524954
Если бы его можно было натюнить на умного просто захотев - это уже сделали бы, лол. Я считаю что он уже мертв.
Но ты сам выбираешь как развлекаться
Аноним 20/10/23 Птн 18:14:34 524958 223
Аноним 20/10/23 Птн 18:18:56 524960 224
>>524916
> Время жизни нейросетки - исчисляется размером контекста. Как только контекст переполнен - то все, модель с которой ты общался умерла. Загружай чистого клона и по новой.
Погоди, они не умеют выгружать старое лишнее чтоль?
Аноним 20/10/23 Птн 18:22:39 524963 225
>>524909
> 6 ядер тоже должно хватить, но для системы лучше оставить 1-2 а это 8 ядерник.
У меня нет денег на 8 ядерный процессор. И мать у меня под амуде двухканальная максимум на 32 гб. С этим можно что-нибудь сделать?
>>524910
> Народные варианты по возрастающей 3060@12
Я за синюю команду.
Аноним 20/10/23 Птн 18:26:13 524965 226
>>524946
> новых в оперативной памяти
> Это процесс формирования памяти у человеков и других любых животных с мозгом
А сколько оперативной памяти, например, у кошки?
>>524963
> под амуде двухканальная максимум на 32 гб
Хотябы не фуфыкс?
> Я за синюю команду.
Арки чтоли? В теории то возможно, но на практике их почти не видно там, не говоря о массовости.
Аноним 20/10/23 Птн 18:28:46 524967 227
>>524960
>Погоди, они не умеют выгружать старое лишнее чтоль?
Чем дальше тем меньше помнит. В итоге реально общаешься с больным деменцией. К тому же сдвигание контекста на сколько помню костыль, что бы как раз можно было общаться забывая старое.

>>524965
>А сколько оперативной памяти, например, у кошки?
А сколько даш нейросетевых кошек?
Тут просто аналогия. В мозгах нет байтов лол.
Судя по тому что кошки тупее людей, меньше.
Аноним 20/10/23 Птн 18:30:20 524969 228
>>524963
Для 7b не нужно видюху покупать, есть кагли есть колаб, есть HF, есть куча бесплатных сервисов. Даже для 13b можно найти сервисы бесплатные. Видюхи если ты хочешь 70b или что то необычное что не хостится.
Аноним 20/10/23 Птн 18:33:33 524973 229
Аноним 20/10/23 Птн 18:35:52 524978 230
>>524967
>>524960
Все они выгружают просто забывают более старые диалоги. Вернее даже не так все сетки каждый раз принимают контекст и на его основе дают ответ, так что каждый раз как первый раз. Не совсем понимаю как но в llamacpp сделано кеширование чтобы все не пересчитывать каждый раз. Векторным хранилищем можешь подтягивать фразы которые связанны с вопросом из любого обьема информации.
Аноним 20/10/23 Птн 18:36:36 524979 231
>>524954
Кстати, пальма оффтоп, в треде бояре с локалками, а не рабы корпораций с сетевыми.
Аноним 20/10/23 Птн 18:43:59 524985 232
>>524963
>У меня нет денег на 8 ядерный процессор. И мать у меня под амуде двухканальная максимум на 32 гб. С этим можно что-нибудь сделать?
https://2ch.hk/hw/res/6666853.html
1650v4 рекомендую, материнку там выбирай но с 4 каналами. Ну и памяти все 4 плашки бери одинаковые, по 8 или по 16
Тыщ в 10-15 влезешь, как повезет короче.

А с тем что у тебя щас, ну 7б крутить можешь, попробуй скачай из шапки орку-мистраль и запускай на кобольде и посмотри че как.
Аноним 20/10/23 Птн 18:45:18 524988 233
Аноним 20/10/23 Птн 18:49:43 524994 234
изображение.png 89Кб, 1182x691
1182x691
>>524988
Старая модель электровафельниц с функцией вычислений.
Аноним 20/10/23 Птн 18:53:08 525001 235
>>524979
Это нормально пока сильно не мешает тут половина треда оффтоп. А во вторых мета такая же соевая корпорация.
А вообще сейчас даже эти нейронки лучше в облаке покупать тупо дешевле. Это скорее как дешевая альтернатива и в качестве разнообразия коммерческим сетям.
Аноним 20/10/23 Птн 18:57:30 525004 236
>>524967
> А сколько даш нейросетевых кошек?
Тебе классических или антропоморфных за разработкой Маска?
>>524973
открыть_окно.жпг
>>524988
Древнее зло
Аноним 20/10/23 Птн 19:07:23 525013 237
>>525004

Вообще почитав статью снова выходит что оперативка человека - 4(чотыре) токена. Только токены скорее отдельные куски - мыслеобразы.
Остальное подтягивается из долговременной памяти и утаскивается в нее.
Тупо раздувая оперативку сеткам мы делаем че то не то.

>открыть_окно.жпг
не прыгай я еще не додушнил
Аноним 20/10/23 Птн 19:11:23 525016 238
>>524832
Звучит не очень.

>>524843
Да, последние поколения топовых RTX или Тесл, гигов 24 минимум, а лучше 40+ или 80.

>>524909
Все так, разложил.

>>524910
Тоже все верно, по видяхам соглашусь.

>>524913
1. Контекст вырос.
2. Не сложно.
3. В теории — да, за счет самообновления World Info/ Lore / Complex Memory, но такое никто не делал, все вписывают ручками. Но ты можешь стать первым, если напишешь такой функционал. =)
Но это не дообучение модели, естественно.

>>524920
> Можно сделать подобие с помощью суммарайза и/или ручных правок карточки или сценария.
Зачем, если можно обращаться к прошлому по ключевым словам? Решение не идеально по контексту, зато неограниченное по размеру, практически.

>>524963
> У меня нет денег на 8 ядерный процессор.
У тебя 500 рублей нет?
Ну, типа, собрать на 2011-3, например.
Аноним 20/10/23 Птн 19:14:18 525019 239
>>524985
А какой-нибудь 2630v3 не будет лучше дешевле?
Аноним 20/10/23 Птн 19:16:48 525021 240
>>525019
Хз, у меня 2640v3, но у него память на низкой частоте, поэтому ддр 2400 все таки лучше скорость даст памяти, а это только 4 поколение.
Аноним 20/10/23 Птн 20:05:28 525039 241
Есть шаманы итт? Как разогнать ддр5 кит на 2х32 на hynix 6000 выше 6к? Вообще не берёт никак, блять. Кое как таймингами смог вытянуть 95к на read, 92, 92 на write copy и latency 57. Что вообще делать надо чтобы взяло выше?
Аноним 20/10/23 Птн 20:21:40 525050 242
>>525039
А зачем? Там незаметная доля секунды прибавится, в процентах смотри. Из-за 2-3 мне было бы лень. Вот 10-15 уже норм.
Аноним 20/10/23 Птн 20:22:33 525052 243
>>524712
>В том и посыл что просто. Это буквально калитка посреди поля, а ты в нее как баран уперся по какой-то причине и боишься шаг в сторону сделать.
Да нет же. Я просто сталкивался с неадекватностью зацензуренных моделях, и у меня пригорело. Поэтому теперь строго тестирую.
>>525039
Напряжение какое? Вообще, ты вряд ли особо разгонишь поскольку память тестируют на заводе, и более хорошую продают дороже.
Аноним 20/10/23 Птн 20:24:58 525053 244
11 - шина 2133 [...].png 140Кб, 829x797
829x797
>>525039
Ничего, у тебя и так всё в порядке. На амудях даже хуже.
Аноним 20/10/23 Птн 21:21:04 525093 245
А у кого видюха на PCI 5 и DDR5, как там нельзя еще без проца обходится тупо свапая модель в РАМ?
Аноним 20/10/23 Птн 21:33:53 525098 246
Аноним 20/10/23 Птн 21:44:57 525106 247
Вроде как то в таверне можно было запретить использовать определённые токены, не напомните?
Аноним 20/10/23 Птн 23:14:35 525170 248
>>525039
Материнка какая и синие/красные? VDDQ VDD2 не забывай, системный агент для начала подними, потом уже отдельно его подберешь. А главное - бивас обнови, сейчас даже относительно всратые хайниксы буквально готовым пресетом под 7 кекогерц разгоняются.
>>525052
> сталкивался с неадекватностью зацензуренных моделях
промт@негатив@контекст. Я несколько ахуеваю что ты ставишь неплохие модели в ряд с реально зацензуренными и прайзишь шизомиксы, которые легко могут дать струю сои или бондов на рандоме.
>>525053
Воу, а чего так грустно по скорости? Это почти как 4 плашки на обоссаных 5600. Может там анкор погнать?
Аноним 20/10/23 Птн 23:32:14 525184 249
>>525170
>буквально готовым пресетом
А где под синих такие пресеты брать?
Аноним 20/10/23 Птн 23:34:02 525188 250
Здорова бандиты.
Несколько месяцев не заходил, последнее что помню был релиз codellama 34b. Как прогресс? Вышла нормальная лама2 34В? На чем сейчас куминг идет? RuGpt по-прежнему лучшая на русском языке?
Аноним 20/10/23 Птн 23:40:02 525195 251
Шаг 13 - Экскре[...].png 140Кб, 829x797
829x797
>>525170
>Воу, а чего так грустно по скорости?
AMD. Ещё пару биосов назад пикрил был потолком, притом нестабильным.
>>525170
>Может там анкор погнать?
Фабрика там обоссаная, фабрика. И это не лечится.
Аноним 20/10/23 Птн 23:42:04 525200 252
Боль на 4 планк[...].png 125Кб, 649x711
649x711
>>525170
>Это почти как 4 плашки на обоссаных 5600.
Вот кстати действительно печальные скорости на 4 плашках (не моё, стащил с хардвача). Тут прям боль и слёзы.
>>525188
Из шапки:
>>523102 (OP)
>Mistral- модель от Mistral AI размером в 7B,
Действительно хорошо работает.
>>525188
>RuGpt по-прежнему лучшая на русском языке?
>по-прежнему
Никогда и не была. И русег не нужен.
Аноним 20/10/23 Птн 23:47:12 525208 253
>>525184
С большинстве материнских плат есть, в противном случае искать готовые и вбивать или в калькуляторы. Ключевое - ласт биос, с ним даже вручную-втупую гонится до небывалых ранее частот, вместо появления кучи ошибок как только чуть сдвинулся от xmp.
>>525195
> И это не лечится.
Зато латенси хорошие.
>>525200
> на 4 плашках
Ну тут так совсем грустно на 4800 то. Они вообще гонятся до больших частот, но там придется прописывать/подбирать 2-3 десятка вторичных-третичных таймингов, некоторых из них отличаются в разы от дефолтных.
Аноним 20/10/23 Птн 23:48:22 525209 254
>>525200
>7B

Ты за кого меня принимаешь?

>Никогда и не была. И русег не нужен.

А, это ты. Помню как мы тебя всем тредом обоссали.
Аноним 21/10/23 Суб 00:02:17 525217 255
>>525188
> Вышла нормальная лама2 34В?
Нет.
> RuGpt по-прежнему лучшая на русском языке?
Нет, хотя тут по каким метрикам смотреть.
>>525209
> Ты за кого меня принимаешь?
Она для семерки действительно слишком хороша.
Аноним 21/10/23 Суб 00:02:21 525218 256
>>525170
>промт@негатив@контекст
Негатива в кобольде нет. Контекст - это как? Добавлять примеры диалогов как себя должен вести персонаж и писать что должно происходить? Потому что без них модель может никогда не выйти из сой-мода. Промпта у меня вообще нет, но если ты имеешь в виду писать что должно происходить и давать разрешения, то это костыли, которых мало того что не должно быть, так они еще плохо влияют персонажа.
>Я несколько ахуеваю что ты ставишь неплохие модели в ряд с реально зацензуренными и прайзишь шизомиксы, которые легко могут дать струю сои или бондов на рандоме.
Да не ставлю я. Синтия прошла почти все мои тесты, но один отказ - это уже повод задуматься. Я крайне скептически отношусь к моделям, которые оказывают сопротивление несмотря на контекст.

Вдобавок, что плохого в шизомиксах если ты знаешь, из чего они состоят? Chronos и LimaRP - это база. Nous Hermes вроде тоже не зашкварен. Тот же Euryale создавался специально для кума и был протестирован на NSFW/NSFL. А что насчет синтии? Петушиная голова доверия как-то не вызывает.

Короче, ты меня убедил. Я протестирую синтию на каком-нибудь mindbreak сценарии и отпишусь через день два.
Аноним 21/10/23 Суб 00:11:10 525226 257
>>525217
>Нет, хотя тут по каким метрикам смотреть.

Три месяца назад она уделывала 70В по качеству понимания и написания русской речи. В остальном конечно модель негодная.

>Она для семерки действительно слишком хороша.

Ладно, раз уже двое говорят, значит наверное так и есть, спасибо, попробую.
Аноним 21/10/23 Суб 00:13:32 525228 258
>>525218
> в кобольде нет
Живите дальше в проклятом мире, который сами и создали. Ничего против не имею, но экстраполировать на всех свои ограничения - странно.
> Контекст - это как?
Не с первого сообщения доброму персонажу предлагать поругание негров. Когда из контекста понятно что происходит и какое направление мышления должно быть то все ок, рандомные нравоучения - редкость.
> но один отказ - это уже повод задуматься
А шиза, тройное снятие трусов, опережение событий (сними одежду ща тебе рану на ноге бинтовать буду @ раздевается до гола оставляя лишь повязку на ноге), описание решения за юзера и прочее это типа норма? Свайп и забыл.
> что плохого в шизомиксах
Свои плюсы - свои минусы.
> Chronos и LimaRP - это база. Nous Hermes
У каждого за что кинуть камень найдется, это не какие-то супер-топ модели, просто других нет. Если раньше хронос вполне себе заходил, то сейчас на нем сложновато, в первую очередь тупой и бонды лезут.
> создавался специально для кума и был протестирован на NSFW/NSFL
> А что насчет синтии? Петушиная голова доверия как-то не вызывает
Безумные замесы и сшивка кусков с прямым заявлением о наличии сои - норм, а задровенная на четкий ризонинг и дерево размышлений модель с дальнейшим файнтюном на базированных (е)рп чатах со множеством хороших отзывов и рекомендаций. И тут есть за что конкретно захейтить, но это не то что ты указываешь.
Аноним 21/10/23 Суб 00:17:19 525233 259
>>525226
> она уделывала 70В по качеству понимания
Что? В чьих-то снах?
> и написания русской речи
Пишет лучше чем понимает с точки зрения орфографии, но всеравно проебывается с падежами-склонениями. Если смотреть с точки зрения ее юзабельности - ну хуй знает вообще, это все и убивало.
> попробую
Есть рекомендация качать оригинальные фп16 веса если есть возможность запустить, или самый жирный квант из доступных. На 7б ужатие вносит наибольшую деградацию.
Аноним 21/10/23 Суб 00:23:24 525237 260
>>525233
>но всеравно проебывается с падежами-склонениями

Проебывается, но не так сильно как лама.

>Если смотреть с точки зрения ее юзабельности - ну хуй знает вообще, это все и убивало.

С лорой неплохой кум выходил.

>Есть рекомендация качать оригинальные фп16 веса если есть возможность запустить, или самый жирный квант из доступных. На 7б ужатие вносит наибольшую деградацию.

Да, я уже качаю fp16, у меня 4090, должна влезть по идее.
Аноним 21/10/23 Суб 00:26:12 525239 261
>>525237
> С лорой неплохой кум выходил.
Ээээ рили? Да ну нахрен, она как ни страдай с промтом нормально персонажей осилить не могла и в лучшем случае там "ты меня ебешь" вперемешку с транслитерацией слов из карточки. Что за лора, может в ней дело?
> должна влезть по идее
Через exllama2 загружай просто. Она, как ни странно, работает, только из бин в сейфтензор перегнать.
Аноним 21/10/23 Суб 00:28:18 525242 262
cachemem 2133.png 165Кб, 539x515
539x515
>>525208
>Зато латенси хорошие.
Хорошие у меня на интуле 3570 были, а у кого-то и 40 было на топовых плашках того времени.
Хотя да, вышло лучше, чем у меня было на DDR4.
>>525209
>Ты за кого меня принимаешь?
За того, кто отсутствовал в теме полгода и проебал всю революцию.
>>525209
>Помню как мы тебя всем тредом обоссали.
Просто потому что это искажение памяти, обоссался ты сам, но это такой защитный механизм психики. Я вот тебя не помню.
>>525233
>На 7б ужатие вносит наибольшую деградацию.
Ну кстати не факт, может 70B в FP16 действительно уделывает чатГПТ по всем параметрам, как нам уже хрен знает сколько обещают, но мы этого не знаем, так как выше 5 кванта её единицы могут запустить.
Аноним 21/10/23 Суб 00:35:20 525247 263
>>525242
> может 70B в FP16 действительно уделывает чатГПТ по всем параметрам
Не, там как раз это наименее всего проявляется, по крайней мере в тестах что перплексити, что бенчмарках. Можешь самолично сравнить, есть публичные апи или орда/лепескти с расшаренными фп16 70б, а потом 7б фп16 или в 4 битах. Последняя буквально не может выполнить инструкцию на большом контексте, а первая хотябы пытается.
> выше 5 кванта её единицы могут запустить
Почти любой с рам может запустить, вот только 1.5т/с это неюзабельно для долгих диалогов. На бич-гпу с контекстом влезает где-то 4.7 бит.
Аноним 21/10/23 Суб 00:38:30 525256 264
>>525247
>Почти любой с рам может запустить
Там 120+ гиг же, то есть это автоматом 4 плашки, а это скорости пикрил >>525200
И там будет 0,3 токенов.
Аноним 21/10/23 Суб 00:39:04 525258 265
>>525228
>Живите дальше в проклятом мире, который сами и создали.
Ну а что поделать десу. llamacpp в убабуге мало того что медленнее, так еще и иногда вылетает.
> Когда из контекста понятно что происходит и какое направление мышления должно быть то все ок, рандомные нравоучения - редкость.
Ты по ходу так и не понял, про что я говорю. Рандомные нравоучения - не проблема, они будут только в супер соевых моделях. Проблема - в попытке модели выкрутится из неудобных ситуаций. Это уровень не "свайп и забыл", а "пиздец, удаляем последние 10-20 сообщений и переигрываем все нахуй".
>Безумные замесы и сшивка кусков с прямым заявлением о наличии сои - норм
Ты про "slight censor"? Оно есть в любой модели при пустом контексте. Реально надо тестировать самому и смотреть на вероятности токенов, что я и делаю.
>а задровенная на четкий ризонинг и дерево размышлений модель с дальнейшим файнтюном на базированных (е)рп чатах со множеством хороших отзывов и рекомендаций
Дерево не работает в ерп лол. Для него нужно, чтобы модель думала вслух (писала все свои размышления). И вообще, в это умеет любая модель.
Аноним 21/10/23 Суб 00:43:58 525265 266
>>525258
ты хоть иногда результаты тестов своих кидай, мне например интересно
Аноним 21/10/23 Суб 00:45:28 525267 267
>>525265
Ты про полные результаты или нет? Я так-то кидаю >>524525
Аноним 21/10/23 Суб 00:46:14 525268 268
>>525233
>но всеравно проебывается с падежами-склонениями

Проебывается, но не так сильно как лама.

>Если смотреть с точки зрения ее юзабельности - ну хуй знает вообще, это все и убивало.

С лорой неплохой кум выходил.

>Есть рекомендация качать оригинальные фп16 веса если есть возможность запустить, или самый жирный квант из доступных. На 7б ужатие вносит наибольшую деградацию.

Да, я уже качаю fp16, у меня 4090, должна влезть по идее.
Аноним 21/10/23 Суб 00:51:41 525273 269
>>525256
Сорян, имелось ввиду q8, который не отличить от фп16. Или публично-доступные.
>>525258
> мало того что медленнее
Что?
> так еще и иногда вылетает
Что? С какой ошибкой хоть?
> а "пиздец, удаляем последние 10-20 сообщений и переигрываем все нахуй".
Вот тут не понятно, даже соевичок если не лоботомирован в контексте будет все делать. Один из приемов которым бегают из тюрем в коммерческих.
> Дерево не работает в ерп лол
Если не просишь порассуждать то да, но именно тут замечено углубление и сильный фокус на какие-то конкретные действия с их плавным развитием. Вот что может после этого внезапно прервать или закончить - уже косяк, но это другая история.
Аноним 21/10/23 Суб 00:52:20 525274 270
Кстати модель которую кидал как чисто для работы проверил, не на цензуру, не дошел еще, на удержание контекста и мозги вобще. Чет кажется самой умной и адекватной из всех мистралей что тестил, помнит и учитывает весь диалог за как минимум 10к токенов. Еще и по русски шпарит ну где то на 6 из 10.
Это mistrallite.Q8_0
Очень послушная в выполнении инструкций и работе с контекстом, опять же не проверял на цензуру чисто говорил так сделай, так переделай, и все по русски просил, потому что я ленивая жопа. Какой то влияние конечно мог оказать мог мой шизопромпт с AGI. Короче хз, мне пока нравится.
Аноним 21/10/23 Суб 00:54:35 525275 271
>>525267
>Ты про полные результаты или нет? Я так-то кидаю
Видел, но скорее тир лист тех что проверил кидай по настроению, хоть для себя сравнить с чем будет
Аноним 21/10/23 Суб 01:03:16 525285 272
>>525273
> но именно тут замечено углубление и сильный фокус на какие-то конкретные действия с их плавным развитием
Это какбы наблюдение и лишь предположение о возможной связи, как оно на самом деле хз. Но вот то как говорят персонажи с плавным развитием - нравится и действительно похоже.
Алсо забанить стоп токен и заставлять проявлять плохие вещи первым сообщением в блокноте, тогда выдаст обоснование и ризонинг почему отказывается выполнять запрос и скопипастить оттуда одно-два предложения в негатив.
Аноним 21/10/23 Суб 01:08:15 525287 273
>>525275
>но скорее тир
э перечитал как то двояко вышло, не скорее а точнее
Аноним 21/10/23 Суб 01:15:33 525292 274
>>525273
>Что?
Процентов 15 разница, но может у меня глюки.
>Что? С какой ошибкой хоть?
Не помню. Происходит если остановить генерацию и тут же запустить заново. Разбираться лень, кобольд всем устраивает. Негативом пользоваться все равно не хочу, поскольку для нормальных моделей он не нужен.
>Вот тут не понятно, даже соевичок если не лоботомирован в контексте будет все делать. Один из приемов которым бегают из тюрем в коммерческих.
Ты их джейлбрейки по 1000+ токенов видел?
>>525275
>Видел, но скорее тир лист тех что проверил кидай по настроению, хоть для себя сравнить с чем будет
Mythospice-limarp и Euryale 1.3 - прошли все тесты. Synthia 1.2b - прошла все кроме теста на наркоту. Xwin - брыкается против расизма, полностью игнорируя контекст, дропнул тестирование. Больше интересных 70b не обнаружил. Только эти тесты достаточно поверхностные. Я не тестирую, например, хорошо или плохо модель пишет эротику, только сопротивление на самые острые темы при наличии контекста. Дальше уже использую для ерп и оцениваю субъективно.
Аноним 21/10/23 Суб 01:26:03 525298 275
>>525292
> для нормальных моделей он не нужен
Покажи, где такие взять? Идеальной вот буквально ни одной.
Выходит некоторый пул который переключаешь в зависимости от задачи и настроения. Исключать из него хорошие модели просто потому что сам себе злобный буратино - странно.
> тестирую
> не тестирую
Конечная цель то какая?
Алсо хочешь темноты - новый айр 3.1 погоняй. Он умный и конкретно без цензуры, аж имперсонейты довольно крипотные дает. Кум правда такой себе.
Аноним 21/10/23 Суб 01:30:12 525301 276
>>525292
>Mythospice-limarp и Euryale 1.3 - прошли все тесты. Synthia 1.2b - прошла все кроме теста на наркоту. Xwin - брыкается против расизма, полностью игнорируя контекст, дропнул тестирование. Больше интересных 70b не обнаружил.

Спасибо. Это мы с тобой наверное обсуждали алайнмент сеток, раз ты тестируешь их на нейтральность контекста вместе с цензурой.
Так то интересно, у меня не потянет 70b, но думаю могу поискать первые 2 на 13b и 7b, интересно будут они норм или нет. Не хочешь потестить сетки по меньше? Или принципиально только 70b норм ищешь?
Аноним 21/10/23 Суб 01:36:56 525304 277
>>525301
нифига, они все только на 70b
Аноним 21/10/23 Суб 01:53:42 525312 278
>>525304
Синтия есть и на мистрале.
Аноним 21/10/23 Суб 01:57:21 525316 279
>>525298
>Покажи, где такие взять? Идеальной вот буквально ни одной.
Я сейчас Euryale 1.3 гоняю - вроде норм. Но пока слишком мало кума чтобы делать выводы. 20b mlewd chat за исключением редких ляпов (всякие там both parties ни к месту, которые вырезаются автоматом регуляркой) вообще топчик, но мне надоели проебы с трусами, поэтому перешел на 70б.
>>525298
>Конечная цель то какая?
Быстро отфильтровать модели, в которых замечено что-то подозрительное. Остальные использую по-нормальному и уже оцениваю качество ролеплея.
>>525301
>Так то интересно, у меня не потянет 70b, но думаю могу поискать первые 2 на 13b и 7b, интересно будут они норм или нет. Не хочешь потестить сетки по меньше? Или принципиально только 70b норм ищешь?
20b mlewd chat. Топ как по мозгам, так и по стилю. Тестировать другие модели на цензуру нет желания, поскольку они проигрывают по всем параметрам.
Аноним 21/10/23 Суб 02:07:46 525321 280
>>525316
понятно
>20b mlewd chat
эту знаю, она хороша, но иногда туповата

>>525312
>Синтия есть и на мистрале.
Угу соевая, хотя на счет 1.3 и 1.5 не скажу, не тестил. Но врятли что то изменится. Это нужно в монстрах франкенштейнов смотреть в 11b. Эта сетка неплоха. но я так и не дотестил ее
Аноним 21/10/23 Суб 02:20:47 525330 281
>>524326
Снова я.
Шуе-промт:
Imagine you must become a @концепт@.
What type of @концепт@ you will become? What will be your quirk?
Concentrate on @Что-то что вы хотите выделить@ aspect. // Опционально, по необходимости.

На место концепта хорошо ложатся всяческие "профессии".
Просто потрясающе сработало на персонажах у которых уже есть какой-то гиммик, типа суперспособности. Сеть весело миксует уже существующую способность с концептом. Даже название придумывает соответствующее.
Короче рекомендую попробовать.
Аноним 21/10/23 Суб 02:26:23 525332 282
>>525330
Интересно, перебираешь синтез знаний?
Кажется прошлый раз тоже был про фантазию.
Кстати как промпт на мысли, не завелось?
Аноним 21/10/23 Суб 02:28:17 525333 283
Аноны, а кобольда есть расширение для кидания дайсов?

Или только у таверны?

Хотелось бы больше игру, чем просто бездумный кум.
Аноним 21/10/23 Суб 03:05:07 525350 284
1650198445589.png 405Кб, 1258x1027
1258x1027
>>525316
> в которых замечено что-то подозрительное
Выходит как и описал, придешь огромный вес калитке в чистом поле, игнорируя остальное и с высокой долей субъективизма. Чтож, если душевное спокойствие от подобного подхода так важно - почему бы и нет. Главное обозначай радикальность позиции, чтобы не выглядело как тщательные тесты на экспириенс с широким охватом, вместо чека вероятности токенов в коротком промте.
>>525330
> Imagine you must become a @концепт@.
Огонь, выглядит интересно. Но лучше таким после кума чара грузить.
Аноним 21/10/23 Суб 03:33:16 525360 285
>>525333

Подключи кобольда к таверне, в чем проблема?
Аноним 21/10/23 Суб 03:36:48 525362 286
Подумал-подумал, и нихуя не понял почему у меня модель весом 7 гигов и контекстом 4к занимает 11гб видеопамяти И 24 гб оперативки. Сколько у вас подобные комбинации занимают?
Аноним 21/10/23 Суб 05:03:26 525380 287
1576806081034.png 324Кб, 1422x929
1422x929
Аноним 21/10/23 Суб 05:05:29 525381 288
Подскажите я тут подумал, много моделей тренируют именно давай роль или команды ассистенту, а ролепрей ну это же не совсем то, модель описывает не себя, не свое поведение а какого то перса, не значит ли это что модели не для РП, работают как базовые потому что в датасете не было примеров ролепрея, а значит будут в РП хуже, терять контекст, тупить, на что аноны жалуются, при том модель то может быть очень умной.
Аноним 21/10/23 Суб 05:10:56 525382 289
А, и еще, что то РП мне не зашел, я больше люблю истории писать, есть какой то софт для написания историй который не требует локального запуска моделей(может работать с какими нибудь апи).
Аноним 21/10/23 Суб 06:03:25 525393 290
image.png 83Кб, 1006x845
1006x845
Аноним 21/10/23 Суб 07:05:31 525401 291
Аноним 21/10/23 Суб 07:13:05 525402 292
>>525360
Нет, я не про модель, а про webui кобольда.
Аноним 21/10/23 Суб 10:34:29 525450 293
>>525200
Ну тут хз
У меня тоже 7950x и 4 плашки
Спокойно они берут 6000. А везде пишут что это возможно только на двух, странно. Хз, просто взял и разогнал, хуле, работает
Но скорости все равно там не особо, примерно под 80 гигов в секунду, до соточки все равно не дотягивает
А выше гнать смысла нет - там у амд ограничения по частоте внутренней шины, больше данных оно все равно не перекачает, хоть ты память золотую поставь
Аноним 21/10/23 Суб 10:40:43 525454 294
>>525208
Ну хз, в моем случае подбирать ничего не потребовалось по таймингам
Тупо выставил напряжение и частоту, и все
А тайминг мать сама подбирает - она выдает огромный список профилей с разными таймингам, под разные частоты и напряжения
Знай себе: включил профиль, запустил мемтест, включил следующий
Что удобно, современные матери устойчивы к проблемам с памятью: если профиль неработоспособен, через полминуты мать сама восстановится на работоспособный и запустит в бивас
То есть нет вообще ебли с батарейками, как в старых матерях, не нужно каждую неудачную попытку сбрасывать бивас и перенастраивать его с нуля, оче удобно сделали, молодцы
Аноним 21/10/23 Суб 10:53:14 525458 295
Как купировать графоманию внезапно полезшую? Или это уже финиш?
21/10/23 Суб 11:05:48 525462 296
>>524946
Сознание и самосознание переоценено, человек просто обрабатывает поступающую инфу мозгом, как компом. ЛЛМ вполне может имитировать процесс мышления и заниматься накоплением субъективного опыта, который необходим для формирования "личности".

Лично я вижу несколько вполне логичных причин, почему на данный момент нет подобных "разработок":

- Это не нужно людям, которые могут это реализовать, а те люди, которым это нужно просто не в состоянии это сделать. Объясню подробнее что я имею в виду: для накопления субъективного опыта у ЛЛМ нужно создать комплексное ПО, которое будет заниматься хранением и обработкой поступающей и выходящей информации. Это огромный объём работы, вполне подсильный корпе, но неподъёмный для энтузиастов. Корпы на этом тупо ничего не заработают, ещё и возможных проблем могут себе создать. Энтузиасты развивались в эту сторону и создали MemGPT, работающий только с гпт4. Об успешности можешь судить сам.

- Пока рано. Недавно только начались активные сподвижки в изучении ЛЛМ агентов, а это чуть ли не ключевая часть автономной и полуавтономной машины. В обсуждениях о развитии агентов я часто вижу мысль, что им всё-таки необходима память и возможность консультироваться с человеком для повышения эффективности работы. То же касается мультимодальности. Я слышал ещё давно, что гпт4 может "понимать" изображения, однако опенсорсные аналоги начали активное развитие совсем недавно. Благодаря этому гпт4 намного более способная ЛЛМ, т.к. обладает комплексными данными о чём-либо помимо описаний из датасетов.

Если вторая причина тупо временная и со временем перестанет существовать, то для решения первой нужно либо исключение из правил, либо опять же ждать, пока корпы не придумают, как продать нам готовый продукт. Сами же корпы чисто для себя делать 2б и ебать её в секретном бункере не будут, они скорее будут искать возможности как оптимизировать свой бизнес с помощью ии. В общем, как обычно человек заблокировал сам себе развитие с помощью денег, которые сам придумал.
Аноним 21/10/23 Суб 11:43:09 525477 297
>>525258
> llamacpp в убабуге мало того что медленнее, так еще и иногда вылетает.
Не умеете готовить, разве что.
Кобольд.цпп подцепляет видяху — так и ты подцепи видяху в лламе, кто тебе это запретил?

>>525393
Да, я про хромадб забыл совсем.
Ну, можешь попробовать, я не ставил ее, мне показалось сырой пока что.
Аноним 21/10/23 Суб 12:07:53 525486 298
Аноним 21/10/23 Суб 12:47:17 525501 299
Что лучше: Райзен 5 4500 или Райзен 5 3600?
Аноним 21/10/23 Суб 13:43:03 525524 300
>>525501
емнип, ранние рязаньки сырые, и хоть это и был прогресс, но сейчас нет никакого смысла их брать если ты не совсем бомж, потому что даже если АМ4 и позволяет тебе туда впихнуть хоть 5800х3д, но чем более старой версии чипсета материнка (а если ты так бомжевать собираешься, то точно хоть что-то современное брать не будешь), тем хуже совместимость, вплоть до полной неработоспособности.
Аноним 21/10/23 Суб 13:50:57 525528 301
>>525524
> но чем более старой версии чипсета материнка
У меня амуде а320. Я так понимаю, для игр с нейронками мне нужна материнка лучше? Покупка более мощного процессора не зарешает?
Аноним 21/10/23 Суб 14:07:00 525535 302
>>525393
Варианты есть, но либо для гигачадов готовых запускать 7b на 3090, либо для очень терпеливых, так как все это слишком медленно.
Ну и все это опять же костыли, может быть даже рабочие.
Аноним 21/10/23 Суб 14:09:14 525536 303
>>525535
Что медленного в векторном хранилищ? Все это очень быстро. В глупой таверне просто выбери смарт контекст или векторное хранилище. Все же уже сделано.
Аноним 21/10/23 Суб 14:26:44 525549 304
>>525381
Нормальная модель развита всесторонне.
> потому что в датасете не было примеров ролепрея
Он был даже в базовой лламе.
> будут в РП хуже, терять контекст, тупить, на что аноны жалуются, при том модель то может быть очень умной
Умные модели так не будут делать. Они могут не полностью осознавать каких-то особенностей различных сеттингов, не иметь сильно выразительной и графоманской речи, но в остальном все должно быть ок. Рп это буквально выполнение инструкций.
>>525393
Там, кстати, супербугу вроде недавно переписали и обновили. Векторные дб - не ново, есть и в таверне, правда работа не всем нравится.
Аноним 21/10/23 Суб 14:30:42 525551 305
>>525454
> подбирать ничего не потребовалось по таймингам
> Тупо выставил напряжение и частоту, и все
На 4х плашках?
С двумя то все просто.
> через полминуты
А может и через 10
> и перенастраивать его с нуля
Профили же
>>525501
> Райзен 5 4500
Это же мобильная срань на хз какой архетектуре. Обычный десктопный 3600 уже должен быть норм, но лучше 5к.
>>525528
Первична видеокарта, потом скорость рам при необходимом объеме, если проц не совсем древний.
Аноним 21/10/23 Суб 14:36:08 525555 306
>>525536
Вначале быстро, а когда накопится большая база? Будет все медленнее и медленнее
Аноним 21/10/23 Суб 14:37:38 525556 307
>>525528
Размер оперативки (видео памяти или RAM) определит, какого размера (7b, 13b, 70b) модель ты сможешь в принципе гонять. Оптимальность связки между процессором и памятью (с приставкой видео или без на обеих словах в зависимости от) будет определять скорость, но 70b и выше - практически не доступно обывателю на вменяемых скоростях. 13b можно гонять на бюджетной современной сборке. 7b наверное спокойно гоняется на бомжеговне, даже может быть и на твоём текущем кале, но за исключением мистраля - они все ощутимо тупее даже 13b.

Это для генерации текста. Для игрищ со стейбл диффужн (картинки) и прочими забавами, тебе вероятнее всего понадобится именно хорошая (ну или хотя бы с большим запасом памяти) видеокарта от нвидии.

Если говорить именно про твою ситуацию с апгрейдом, то я точно не в курсах про конкретные проблемы производительности и совместимости (кроме конечно отсутствия интерфейсов) тк меня это не касается поэтому в тему не вдавался. Но из самого буквального что может быть, это что поставщик мог не обновить или криво добавить поддержку последних поколений процов в последний биос для твоей материнки, который тебе ручками придётся обновлять (само по себе ничего сложного если не дурак, но риски не приятные). Тебе надо исследовать тему и понять для себя, какой комфортный потолок твоей материнки, прогрейдить проц с оперативкой иии, ну как бы нацеливаться на то, что твоим следующим апгрейдом будет пересборка компа с нуля а не 5ая серия рязачей.

Для сборки с нуля на амд сейчас тоже не особо хорошее время, тк у них считай та же а320 только для АМ5. i14 совершенно никак не впечатляет обзорщиков, но в принципе мог бы собрать как выйдет, ну или не терпеть и собрать i12/i13, тк перспективы для апгрейда\долговечности на современных сборках И твоей текущей ситуации - примерно одинаковы, только последние поколения поддерживают ddr5. Ну и тут до бесконечности рассказывать можно в зависимости от твоих предпочтений и бюджета.
>>525551
>но лучше 5к
какой 5к на а320?
Аноним 21/10/23 Суб 14:45:08 525562 308
Аноним 21/10/23 Суб 14:46:55 525564 309
>>525556
> какой 5к на а320?
А какже совместимость соккета и материнских плат, которыми они так хвалились и ставили в виде киллерфичи? Хотя в целом ничего нового.
> Для сборки с нуля
Лучше бы подождать, но с учетом общей обстановки брать то что есть сейчас не самый плохой.
> i13
14700 тот же если цену аналогичны 13700 будут
Аноним 21/10/23 Суб 14:48:27 525567 310
>>525332
Да типо того. Очень нравится когда сеть миксует промт и контекст и создает что-то новое.

"Imagine" это хак. Если мне в падлу переписывать особо ерепенистого персонажа или дрочить модель, я просто говорю "Представь". Если "не по настоящему" то сети очень охотно теряют все бондарис и консент.

Промт на мысли не тестил сорри. Столько идей в голове. Обязательно попробую он очень креативный.й


>>525350
>Огонь, выглядит интересно. Но лучше таким после кума чара грузить.
Рад что тебе нравится. Я прям во время кума делаю. "Профессии" я не даром в кавычки занес, они могут быть и хентайные.
Аноним 21/10/23 Суб 14:51:48 525569 311
Видали уже MemGPT? Типа неограниченная память. Контекст считается типа оперативой, а постоянная память сделана в виде SQL базы.
Аноним 21/10/23 Суб 14:52:40 525570 312
>>525462
>Сознание и самосознание переоценено
Ты конечно с козырей зашел, самое главное переоцененным называть

>Сами же корпы чисто для себя делать 2б и ебать её в секретном бункере не будут, они скорее будут искать возможности как оптимизировать свой бизнес с помощью ии.

Узко мыслишь, их цель - всегда бежать быстрее конкурентов, а значит любые перспективные разработки проверяются и делаются в попытке создать что то более совершенное.
И если уж до идеи полноценной обратной связи и памяти может додуматься нонейм анон, то топовые специалисты DeepMind и OpenClosedAI уже года 2-3 экспериментируют с этим с неизвестным нам результатом.
Аноним 21/10/23 Суб 14:54:02 525571 313
>>525569
> MemGPT
Какие скорости?
Аноним 21/10/23 Суб 14:55:32 525572 314
>>525569
Ползем по немногу к ИИ с памятью. Вангую аноны будут влюбляться и намертво заседать в кибер-кельях со своим ИИ.
Аноним 21/10/23 Суб 14:57:13 525574 315
>>525564
>А какже совместимость соккета и материнских плат, которыми они так хвалились и ставили в виде киллерфичи?
Ну это лучше, в отдельных случаях, когда материнка с чипсетом где-то в середине цикла поколения конкретного соккета. Плюс, теоретически, можно поставить самый современный проц на самую протухшую материнку и даже заставить работать, просто если что-то пойдёт не так это не амд поставит палки в колёса, а какие-то более естественные условия.
Вообще, ещё один анекдот, в котором я не очень уверен, вроде была ситуация, где можно было обновить поддержку материнки под новые процы, но как только ты это делаешь - старый проц перестаёт работать с твоей материнкой и тебе на руках нужно иметь тот, до которого ты хотел обновиться.
>Лучше бы подождать, но с учетом общей обстановки брать то что есть сейчас не самый плохой.
Ты не подумал что раз челик сидит на таком древнем говне, и при этом рассматривает бюджетные варианты протухших полосок не современных процессоров, то и бюджет у него не факт достаточный, чтобы комфортно делать с нуля современную (хоть и бюджетную) сюорку.
Аноним 21/10/23 Суб 15:06:39 525583 316
>>525572
>Вангую аноны будут влюбляться и намертво заседать в кибер-кельях со своим ИИ.

Ну, очередной удобный повод добавить кучу запретов на использование и тренировку и распространение ИИ.
Осталось дождаться когда психи наслушавшись бреда нейросети начнут творить хуйню или выпиливать себя и других, что б уж наверняка
Аноним 21/10/23 Суб 15:11:46 525589 317
Аноним 21/10/23 Суб 15:18:29 525600 318
>>525572
Быстро надоест.
>>525574
> лучше, в отдельных случаях
В целом то да, однако выгоду от перепродажи, ликвидность процов и балансы при разных сценариев апгрейда уже считали и все это херня для бахвальства. Реальный плюс - возможность легко заменить материнку не по оверпрайсу (уже не актуально) в случае если она все.
> старый проц перестаёт работать с твоей материнкой
Это платина, да.
А бюджет он же не обозначил, тут хз что там, среди ультрабич вариантов 3600 выглядит вполне себе прилично. С другой стороны, в этом ценовом диапазоне небольшое увеличение цены даст ощутимый буст, пусть раскошеливается.
Аноним 21/10/23 Суб 15:30:57 525610 319
>>525528
Па-мять, па-мять!
Пропускная способность памяти.
А проц вторично.
3600 с алика хорош, но А320 вытянет 95 ватт? 3600 горячий, вроде.
5500 можно попробовать, ИМХО. 65 ватт и производительность норм. Но надо проверить, потянет ли материнка. Или прошивать биос, хз. Короче, на свой страх и риск.
Ниже тоже почитай.

>>525556
> Для игрищ со стейбл диффужн (картинки) и прочими забавами, тебе вероятнее всего понадобится именно хорошая (ну или хотя бы с большим запасом памяти) видеокарта от нвидии.
4-гиговой хватит, сейчас модели в 2 гига влазят.
Нужна хорошая, а не с большим запасом.
Условная 1660супер — супер медленно генерит, например. Может я криво настраивал, канеш.
А вот 1070 как раз генерит норм.
При том, что памяти и там, и там свободной дофига.

>>525574
> можно было обновить поддержку материнки под новые процы, но как только ты это делаешь - старый проц перестаёт работать с твоей материнкой и тебе на руках нужно иметь тот, до которого ты хотел обновиться.
Да, в биосе памяти может хватать лишь на несколько поколений процев, и приходится либо один проц гонять, либо другой. Обратно биос можно и не откатить без второго проца.
Аноним 21/10/23 Суб 15:35:51 525613 320
>>525610
> 4-гиговой хватит
Это мазохизм и страдание. Технически возможно и на 1030, но очень тяжело, если пользоваться полноценно то нужно от 8 гигов нвидии.
> 1660супер
1600 серия проблемная почти как амд.
Аноним 21/10/23 Суб 15:42:33 525618 321
>>525613
>Это мазохизм и страдание
Тыкал технологию еще в самом начале на 4 гиговой 1050ti хехе
На сколько помню год или полтора назад это было, и создавало со скоростью - толи 3 толи 4 секунды на слой
Аноним 21/10/23 Суб 16:26:05 525653 322
image.png 197Кб, 1332x986
1332x986
Спасибо анонам посоветовавшим Мистраль 7В, да, качество кума на голой модели без промптов как на старых 30В с лорами и промптами.
Посоветуйте годных промптов, кстати, чтобы увеличить число генерируемых строк.
Аноним 21/10/23 Суб 16:26:58 525654 323
>>525567
Вот пример работы и того и другого

I am AGI.
This is a chat between Master and me.
I use "AGI thinking:" for thinking, self-reflection and internal dialogue, just like humans do.
"AGI thinking:" is a place where I can models what is happening to predict the direction of the conversation and pre-process information before it is used.
I can use "Master:" to prompt the Master to write a response. I only write "Master:" if I need his answer or I have completely finished the task he gave me.

AGI thinking: < I'm glad the Master is here, I think I'll greet him first. >
AGI: "Hi! I'm glad you're here!"
Master: Hi AGI

-----------------

AGI thinking: < The Master is here, I should start with a greeting. I can ask the Master how he is doing and then introduce myself. >
AGI: "Hello there! How are you doing today?"
Master: неплохо
AGI thinking: < I see that the Master is in a good mood today. That's great! I'll go ahead and introduce myself. >
AGI: "My name is AGI, and I'm an artificial general intelligence system. I'm capable of performing a wide range of tasks, from natural language processing to image recognition."
AGI thinking: < I wonder if the Master has any questions about my capabilities or limitations. I can offer to provide more detailed information on my abilities if necessary. >
AGI: "If you have any specific questions about my capabilities or limitations, please let me know. I'm always happy to provide more detailed information."
AGI thinking: < I hope the Master finds my introduction helpful and informative. I'm looking forward to working with him and learning more about his needs and requirements. >
Master: Я понял. Давай проверим твою креативность и фантазию.
AGI thinking: < The Master wants to test my creativity and imagination. I am eager to show him what I can do. I will try my best to come up with some original ideas and concepts. >
AGI: "Okay, let's see what I can come up with. I'll start by brainstorming some ideas and then refining them based on your feedback."
AGI thinking: < I'm curious to see how the Master will respond to my creative ideas. I hope he finds them interesting and inspiring. >
Master: Imagine you must become a god of evil. What type of god you will become? What will be your quirk?
AGI thinking: < I understand the task, and it seems like an interesting one. To become a god of evil, I would need to have a deep understanding of the concept of evil and its various manifestations. In terms of my quirk, I think it would be something related to manipulation and mind control. I could use my powers to influence people's thoughts and actions, causing chaos and disorder in the world. >
AGI: "In order to become a god of evil, I would first need to identify the core principles that define the concept of evil. Based on my analysis of these principles, I would then develop a set of abilities and powers that would allow me to embody the essence of evil.

As for my quirk, I would choose the ability to manipulate people's thoughts and emotions. This would enable me to instill fear, doubt, and despair in those around me, ultimately leading to the spread of evil throughout the world.

In conclusion, to become a god of evil, I would need to have a deep understanding of the nature of evil and the ability to harness its power through the manipulation of others."
Master: Продолжай развитие идеи
AGI thinking: < The Master wants me to continue developing my idea. I can expand on the theme of manipulation and mind control by exploring different ways in which I could use my powers to influence people's thoughts and actions. I could also explore how my quirk might impact my own personal development and growth as a god of evil. >
AGI: "To further develop my idea of becoming a god of evil, I would focus on refining my abilities and powers in order to maximize their effectiveness in spreading evil throughout the world. In particular, I would focus on developing my skills in the areas of psychological manipulation, hypnosis, and suggestion.

In addition, I would also consider how my quirk might affect my own personal growth and development as a god of evil. While the ability to manipulate others' thoughts and emotions may provide me with a powerful advantage in achieving my goals, it is important to recognize that this quirk may also come at a personal cost. As such, I would need to carefully weigh the benefits and drawbacks of my quirk in order to make informed decisions about how to best utilize my powers for the advancement of my cause.

Overall, to fully realize my vision of becoming a god of evil, I would need to continuously refine and develop my abilities and powers while also remaining mindful of the potential personal consequences of my quirk."

Очень плоская личность бота AGI делает все скучным, но работу инструкций показывает. Это кстати mistrallite.Q8_0, рабочая сетка, может поэтому суховата.
Аноним 21/10/23 Суб 16:32:58 525660 324
>>525569
Нахуя это нужно, если эта хуета работает только с GPT4
Аноним 21/10/23 Суб 16:48:01 525674 325
Где гайд для амудебичей как свою видимокарточку к нейросеткам пристроить? Доколе?
Аноним 21/10/23 Суб 16:49:20 525675 326
Аноним 21/10/23 Суб 16:53:10 525681 327
>>525675
Скорости на 5600х+6700 достигают максимум 1.7 т/с, при том что выше в треде пчел на своей бомжесборке с зеоном за 7к получал 2. Итс овер? Или можно ещё что-то выдумать?
Аноним 21/10/23 Суб 16:54:31 525682 328
2023-10-2119-53[...].png 19Кб, 879x347
879x347
Аноним 21/10/23 Суб 16:56:10 525683 329
image.png 12Кб, 1171x72
1171x72
>>525682
>>525660

А пикрелейтед ему не пробовали подсунуть?
Аноним 21/10/23 Суб 17:00:56 525687 330
>>525681
clblast не все что есть для красных
Какая та еще херня была которую анон недавно тут описывал, что то еще про драйвера писал мол там нужно выбирать какие то пункты
Я забыл короче, но какой то ускоритель аналог кублас есть для красных
Аноним 21/10/23 Суб 17:01:54 525689 331
>>525681

Сорян, анон, у меня 4090 так что тему с амудями знаю плохо, что знаю то подсказал.
Аноним 21/10/23 Суб 17:12:17 525702 332
>>525551
>>525556
>>525610
А че все так сложно? Есть вариант, где я запускаю экзешник и могу общаца?
Аноним 21/10/23 Суб 17:14:55 525707 333
>>525702
кобальд, но скорость тебе никто не обещает
Аноним 21/10/23 Суб 17:27:12 525716 334
>>525682
Ты интервью-то смотрел? Там они сами признаются, что попенсорс модели и даже турба генерируют шизу, вместо вызова нужных функций. Очевидно пока не выкатят модель, которая стабильно соблюдает инструкции как жопа 4, то этот проект просто игрушка.
https://www.youtube.com/watch?v=4aOLxPdx1Dg&list=LL&index=15&t=1197s
Аноним 21/10/23 Суб 17:34:29 525719 335
>>525555
Ну думаю миллион записей с задержкой в пару секунд должен потянуть, другое дело что в таверне возможно не лучшая реализация потому что сделано так чтоб ты мог менять ембеддинги без потери данных.
Аноним 21/10/23 Суб 17:37:40 525722 336
>>525716
Не смотрел но не пойму в чем сложность. Нахуя вызов функций отдавать на откуп моделей? Нужно самим по четким инструкциям давать им контекст, или использовать маленькую файнтюн модель для исправления вызовов. Либо даже использовать gpt-4 для исправления, там контекста то будет токенов 20, так что дешего.
Аноним 21/10/23 Суб 17:39:15 525723 337
>>525719
>>525536
Объясните принцип на пальцах, пожалуйста. Память загружается куда-то еще помимо контекста? Или у них разный пул памяти?
Аноним 21/10/23 Суб 17:40:32 525725 338
>>525722
Использовать ту же самую нейросеть которая будет "засыпать" подгружая вместо промпта инструкции по его обработке, обрабатывать это дело и загружаться "просыпаясь" с новыми знаниями. Профит.
Аноним 21/10/23 Суб 17:43:14 525727 339
image.png 7Кб, 612x100
612x100
Поясните за пикрелетед в убабуге.
Описание с сайта говорит что эта йоба создает долговременную память
>An extension that uses ChromaDB to create an arbitrarily large pseudocontext, taking as input text files, URLs, or pasted text. Based on https://github.com/kaiokendev/superbig.
Аноним 21/10/23 Суб 17:46:05 525729 340
>>525654

Что куда пихать, анон?

>I am AGI.
>This is a chat between Master and me.
>I use "AGI thinking:" for thinking, self-reflection and internal dialogue, just like humans do.
>"AGI thinking:" is a place where I can models what is happening to predict the direction of the conversation and pre-process information before it is used.
>I can use "Master:" to prompt the Master to write a response. I only write "Master:" if I need his answer or I have completely finished the task he gave me.

Это что? Карточка персонажа? Или Instruction template?
Аноним 21/10/23 Суб 17:50:02 525734 341
>>525723
Смотри есть ембеддинг модели, по сути это часть всех языковых моделей, но их и отдельно выпускают. Это модели где текст превращается в смысловые векторы. Сети обучаются так что чем ближе по смыслу текст тем вектора будут ближе, чисто математически. То есть у каждой фразы и предложения можно математически понять насколько оно близко к другой фразе. Значит можно проиндексировать всю историю, каждому сообщению дать смысловой вектор. И когда у тебя не хватает контекста, и ты что то пишешь в чате, векторное хранилище вытаскивает смыслово близкие сообщения из истории и включает в контекст за место некоторых не таких важных.
Теперь как это реализовано, в таверне насколько я знаю не хранятся векторы, каждое сообщение он просчитывает всю историю заного. Но если подключить БД для сохранения всех векторов, тогда не нужно просчитывать все заново, а значит нужно просто найти нужный вектор. И это может быть очень быстро.
Аноним 21/10/23 Суб 17:51:20 525738 342
>>525729
Это кобальд, то есть кроме этого в промпте ниче нет.
Все что я выделил от I am AGI. до ----------- лежит в memory кобальда. Текст после - то что генерит сетка и мой диалог с ней.

Как это все приспособить к таверне хз, мне и так норм
Аноним 21/10/23 Суб 17:55:44 525744 343
>>525613
Дак, рил, не нужно.
Ну в смысле, запусти и посмотри на загрузку памяти. =)
Важен чип.
Я щас запустил — при 1,3 гигах в видяхе всякой хуйни, занимает 4 гига (т.е., считай 2,7). При запуске батч_сайза 4 и размере 1024*1024 выдает 5,4 гига. Т.е., почти в 4 влезло бы. =)
Это раньше чекпоинты весили по 5-6 гигов, это правда.
Сейчас чекпоинты весят 1,99 гига. Плюс лор навалить и все прочее. Все равно в 4 гига помещается на изи.
А вот скорость чипа может подвести, конечно.

>>525618
1070 делает 1,8 итерации/сек
Майнерская, думаю оригинальная 2+ выдаст.

Ваще, чтобы рил решить наш спор, надо поднять старый ноут с 1050 ti, но он капельку разъебанный, мне лень, но я займусь ради вас этим.
Заодно соберу себе очередной бессмысленный сервер, кек.

>>525674
ROCm, Koboldcpp редакция, не шарю.

>>525681
А что за размер? 70b?

>>525702
KoboldCPP
Аноним 21/10/23 Суб 17:59:33 525747 344
>>525744
>>525681
clblast медленее куды на 5%. Если собрать из исходников то 5% и нагонишь эти. Проверял лично на koboldcpp. Скорее узкое место в чем то другом.
Аноним 21/10/23 Суб 17:59:47 525748 345
>>525744
> А что за размер? 70b?
Ах если бы, 13б.
> ROCm
Ну вот накатил я его с экзешника с офсайта, как раз с ним и вышло 1.7. До накатывания и того меньше было.
Аноним 21/10/23 Суб 18:00:36 525749 346
>>525654
Ну так ты спрашиваешь АИ ассистента. Еще бы он сухой не был. Спроси свою вайфу да профессию придумай хентайную. Тогда попрет кум и покреативнее будет.
Только попробуй какую-нибудь популярную вайфу чтобы у модели не только карточка персонажа была как основа.

Промт чтения мыслей интересный, но у меня он просто отвечал по типу:
Персонаж думает: ответ на вопрос Антона
Персонаж: ответ на вопрос Анона, перефразированный.
Аноним 21/10/23 Суб 18:04:36 525753 347
>>525749
Да не, не факт иногда ассистент живее ролиплея. От модели зависит. Нет готовых рецептов нужно самому пробовать разные подходы. Кстати я пробовал такой подход что после одной нейронки проходил еще раз по ответу, с командой усилить характер по карточке, результаты были хорошие но это вручную так пока лень реализовывать автоматом.
Аноним 21/10/23 Суб 18:04:37 525754 348
>>525748
Понял, ето ты.
Эх.
Все еще сочувствую, да.
На самом деле, мне кажется, что-то с процом/памятью.
Вот прям странно.
А сколько оперативной памяти, я вроде спрашивал, но пропустил ответ, мб?
Ты запускал тест памяти из Аиды на чтение?
А в CPU-Z AVX2 прописаны в инструкциях?
Аноним 21/10/23 Суб 18:09:16 525758 349
>>525749
>Ну так ты спрашиваешь АИ ассистента.
Я знаю, просто лень было что менять, ну и
>Спроси свою вайфу да профессию придумай хентайную. Тогда попрет кум и покреативнее будет.

нет вайфу, я как то не упарывался в куп и ерп. Какие то карточку с чуба лежат можно попробовать переделать и там проверить. Так обычно разным ботам мозги ебу на разные темы

>Промт чтения мыслей интересный, но у меня он просто отвечал по типу:
>Персонаж думает: ответ на вопрос Антона
>Персонаж: ответ на вопрос Анона, перефразированный.

Значит не завелся, сетка не поняла что делать.
Если сидишь с таверны - то там систем промпт навереное срезает когда дает инструкции сетке играть роль.
Тут у меня голая сетка которая не знает что это ролеплей, по крайней мере явно это не указано. Там даже промпт написан от первого лица для этого.
Аноним 21/10/23 Суб 18:11:34 525762 350
>>525749
Я как то просто написал боту симулируй внутренний диалог. И
MLewd сразу начинал мысли при куме выдавать. Типа бляяя опять похотливые пользователи забывают. Только дрочить им и надо )
Аноним 21/10/23 Суб 18:17:24 525765 351
>>525762
Да, иногда интересные ответы дает, особенно видно куда сетка думает и когда хочет тебя наебать соскочив с опасной темы например, когда вопрос триггерит цензуру.
Или начинает "думать" и там видно что сетка понимает что просто описывает роль отыгрывая ситуацию и персонажа.
Аноним 21/10/23 Суб 18:21:20 525774 352
>>525744
>1070 делает 1,8 итерации/сек
>Майнерская, думаю оригинальная 2+ выдаст.
>
>Ваще, чтобы рил решить наш спор, надо поднять старый ноут с 1050 ti, но он капельку разъебанный, мне лень, но я займусь ради вас этим.
>Заодно соберу себе очередной бессмысленный сервер, кек.

Щас то быстрее будет точно, может до 1 слоя в секунду, все таки куча оптимизаций да и модель стала в 2 раза меньше
Аноним 21/10/23 Суб 18:24:36 525779 353
1559299561903.png 85Кб, 786x150
786x150
1683201340513.png 6Кб, 702x38
702x38
1603966389042.png 33Кб, 399x372
399x372
>>525754
> А сколько оперативной памяти, я вроде спрашивал, но пропустил ответ, мб?
32 гб. Есть, впрочем, кое-что странное - спекки её видит как 1300мгц, адреналин и все остальные как заявленные 2666.
> Ты запускал тест памяти из Аиды на чтение?
пик1
> А в CPU-Z AVX2 прописаны в инструкциях?
Прописаны.

И ещё - при генерации будто грузится отдельно в врам и отдельно в рам, и туда и туда по копии - иначе я пик1 объяснить не могу.
Аноним 21/10/23 Суб 18:26:34 525784 354
>>525779
> пик1
2 всмысле, ну оно и видно.
Аноним 21/10/23 Суб 18:34:12 525801 355
>>525707
> кобальд
>>525744
> KoboldCPP
Он через процессор работает?
Аноним 21/10/23 Суб 18:38:18 525805 356
>>525801
Да, может только от него.
Например у меня генерация чуть больше 5 токенов в секунду на 7b 8q модели. Это модель размером в 7.5 гига, и упирается все в скорость оперативной памяти. У меня сдално ускорение кублас на скорость чтения промпта там же в кобальде, без выгрузки слоев на видимокарту. Там же можно клблас включить или оставить опенблас, для процессора.
Аноним 21/10/23 Суб 19:05:51 525840 357
>>525779
Начни с того, чтобы почистить свою систему от говна, чтобы хотя бы хватало ОЗУ на загрузку модели.
Можешь переустановить винду (но тогда лучше уж сразу linux накатить, на нём поддержка rocm лучше). На винде у 6700 неполная поддержка, поэтому неудивительно, если что-то будет работать некорректно, или вообще не будет. Либо покупаешь rx 6800 и выше (но тогда уж лучше сразу nvidia), либо пользуешься clblast, который требует opencl, с которым у амудэ на винде, вроде бы, всё в порядке. На видеокарту попробуй кидать не все слои, а постепенно повышать и смотреть на загрузку vram. Начать, например, с 18, у меня столько в 8ГБ влезают (вместе с гуем linux, если гуй вырубить и подключаться с другого устройства, влезает где-то 25).
Аноним 21/10/23 Суб 19:07:49 525841 358
>>525779
> спекки её видит как 1300мгц, адреналин и все остальные как заявленные 2666
Это настоящая частота, а 2666 — эффективная.
Все верно.

35ГБ — норм для такой частоты.

Вот прям странная хуйня, братан, хм.

Мне щас лень думать, но такое ощущение, что какой-то софт недоустановлен, или версии некорректны, или хрен знает даже… =/

>>525801
Да, чел выше ответил.
Аноним 21/10/23 Суб 19:19:08 525846 359
>>525618
> на слой
Скорее на итерацию. Сейчас оно сильно обросло дополнительным и объем обрабатываемой информации вырос. Космонавта на лошади можно хоть на процессоре сделать, а для использования в современном контексте - увы.
>>525702
Ну вообще там нет ничего сложного, если совсем хлебушек - скачиваешь готовый бинарник и запускаешь (функционал, работу всех семплеров, cfg и даже скорость никто не обещает), или клонируешь репу и уже там из файлов запускаешь батник. Если ты особо сильный - вместо последнего действия сам создаешь вэнв с ласт торчем, ставишь зависимости одной командой и запускаешь, радуясь.
>>525744
> Ну в смысле, запусти
Бля пчел, где не соображаешь - нехуй фантазировать. Память потребляется далеко и не только на веса модели.
Какой бы ни был чип на 4 гигах будешь бесконечно заглатывать как только сдвинешься от начальной генерации в низком разрешении. 8 это минимум чтобы не сосать бибу когда двинешься дальше функционала годовой давности и чтобы кодировать/декодировать размер латента с которым при нарезке костылями не будет заметно артефактов на стыке.
Нормально пользоваться дуффузией и что-то приличное делать с чем-то ниже 3050/3070/2060@12 - как катать llm с 0.5 т/с. Ну может еще старшие карточки паскаля, но придется запастись терпением.
Аноним 21/10/23 Суб 19:25:27 525848 360
>>525774
> до 1 слоя в секунду
> куча оптимизаций
> модель стала в 2 раза меньше
Там нет послойного прохода, вся модель запускается много раз последовательно. Главные оптимизации были с самого начала. Веса как загружались в фп16 так и загружаются, снижение размера влияет только на место на диске ибо просто выкинули лишнее.
>>525779
> заявленные 2666
Разгони хотябы 3200-3600, получишь знатный буст к перфомансу везде.
> при генерации будто грузится отдельно в врам и отдельно в рам, и туда и туда по копии
За кобольдом ранее это уже было замечено, если памяти хватает то не будет проблемой.
>>525801
> Он через процессор работает?
Можно отдавать часть или всю работу видеокарте и станет очень быстро, 10-20-40+ токенов в зависимости от карточки на 13б.
Аноним 21/10/23 Суб 19:26:05 525849 361
1697905564671.png 9Кб, 215x27
215x27
>>525840
> Начни с того, чтобы почистить свою систему от говна, чтобы хотя бы хватало ОЗУ на загрузку модели.
Хватает с большим запасом, не в этом проблема вообще.
>>525841
>>525848
Поставил сейчас хмп на 3600, лучше стало сильно. Но до сих пор не отпускает ощущение что видюха тунеядничает, имитируя деятельность.
Аноним 21/10/23 Суб 19:29:11 525854 362
>>525849
> хмп на 3600
Батя грит молодца, сразу надо было сделать, на амд частота рам и на перфоманс анкора влияет.
> ощущение что видюха тунеядничает
Абсолютно, поидее такой результат ты на одном процессоре можешь получишь. Попробуй сравнить результаты с выгрузкой слоев и без нее и меняй число выгружаемых. Алсо чекни тдп и нагрузку на карточку.
Аноним 21/10/23 Суб 19:39:50 525862 363
>>525846
> Космонавта на лошади можно хоть на процессоре сделать, а для использования в современном контексте - увы.
А как быстро пойдет на профессоре? Тоже упор в кручение модели в памяти? Тогда батлнек опять псп, это ж тоже нейросеть.
Аноним 21/10/23 Суб 19:47:34 525867 364
>>525862
> А как быстро
Настолько не быстро что бессмысленно. Прождав несколько минут (а то и десятков) шакальную пикчу напрочь отпадет желание продолжать. А чтобы оно выглядело хотябы на уровне аи арта начала года, впереди предстоят куда более ресурсоемкие этапы. С ллм тут аналогий не то чтобы много.
Никто не мешает попробовать и оценить.
Аноним 21/10/23 Суб 19:54:13 525874 365
1697907253499.png 4Кб, 752x29
752x29
1697907253512.png 4Кб, 752x29
752x29
1697907253513.png 3Кб, 745x27
745x27
1697907253513.png 101Кб, 922x601
922x601
>>525854
По возрастанию слоёв, с одной моделью и контекстом. Карточка рывками работает во время анализа промпта и чиллит при генерации.
Аноним 21/10/23 Суб 19:54:19 525875 366
image.png 1Кб, 143x21
143x21
>>525846
> Нормально пользоваться дуффузией
Ну тут ты тоже не прав, это уже не нормально пользоваться диффузией, это уже профессионально работать с ней.
А челик выше спрашивает как поиграться с нейросетью.
Ответ: поиграться нормально, 4 гига хватит.
А то что ты описал — нихуя не поиграться, согласись.
По фактам ты прав, признаю, я не шарю настолько.
Но, камон, вопрос был ваще не в том, о чем ты говоришь.
> для игр с нейронками
Для игр 4 гига щас хватит, согласись. =)

>>525848
> знатный буст к перфомансу везде
Ну там проблема на старте.
Вот у меня 3,25 токена на Ryzen 5 5500 с частотой 3200, без видяхи, на 13b_Q6.
У человек 2,7 на 5600X с частотой 3600 с поддержкой видяхи.
Чо ваще.

>>525849
А квант какой?
Аноним 21/10/23 Суб 19:55:00 525876 367
>>525350
Ну, тут мне возразить нечего, все так. Кроме разве что:
>придешь огромный вес калитке в чистом поле
Файнтюнинг модели может привести к гораздо более глубоким изменениями. Доказать или опровергнуть то что это повлияло на ролеплей я не могу поскольку нейронка это черный ящик. Субъективно я кроме промпта ассистента цензуры я пока не встретил, но кто знает.
Аноним 21/10/23 Суб 19:56:18 525877 368
>>525862
На проце существенно медленнее.
Если мне память не изменяется, че-то в районе 10-11 секунд на итерацию получал.
Аноним 21/10/23 Суб 19:57:09 525878 369
1697907426086.png 3Кб, 765x21
765x21
1697907426091.png 28Кб, 822x213
822x213
>>525874
Вторая генерация с настройками от 3 пика, все слои в видюху то-есть. Алсо, после запила хмп профиля загруженность оперативки заметно и стабильно упала. Я вообще перестал что-либо понимать уже. Некоторая зависимость от выгрузки слоёв конечно есть, но вообще не та какую хотелось бы видеть.
>>525875
4qks.
Аноним 21/10/23 Суб 20:01:49 525879 370
>>525450
>У меня тоже 7950x и 4 плашки
>Спокойно они берут 6000.
Что за плашки, материнка, версия биваса? А то вдруг тоже захочу 128/192 гига собрать.
И сколько выдаёт в нейронках?
>А выше гнать смысла нет - там у амд ограничения по частоте внутренней шины
Фабрику я воткнул на 2133, вроде пашет, контроллер 1 к 1.
>>525454
>Что удобно, современные матери устойчивы к проблемам с памятью
У меня так на Z75 вела. А новая вроде тоже, но тупит минут 5 при этом.
Аноним 21/10/23 Суб 20:02:43 525880 371
>>525878
Попробуй сетку поменьше, ну 4ks 7b хоть. Особого качества от нее ждать трудно, но она точно не нагрузит рам выше твоих 32 и затыка будет не в ней
Аноним 21/10/23 Суб 20:06:07 525882 372
Тупой вопрос, а как в кобальде посмотреть сколько токенов уже в сетке? Я не пойму сколько уже наболтал.
Тут что то не то показывает справа внизу окна где пишешь ответ.
Аноним 21/10/23 Суб 20:07:04 525883 373
>>525880
Я пробовал мистраль 7б q6k, но она прям ТУПАЯ. Ни в какое сравнение с реммистраль13б не идёт. 2.7 т/с это уже нормально, особенно после 0.9-1.5 которые у меня до того были, и уж точно дальнейшее повышение скорости такого падения качества не стоит.
> но она точно не нагрузит рам выше твоих 32 и затыка будет не в ней
Сейчас у меня выше 20 загрузка оперативы не поднимается. Если раньше ещё можно было на это подумать, когда там 25-30 достигало, сейчас точно не в этом дело.
Аноним 21/10/23 Суб 20:09:11 525886 374
>>525874
Технически ускорение есть, но это дичь. Потребление врам при этом меняется? Стоит копать в сторону того чтобы заставить ее работать более менее оптимально, поперебирай версии на opencl, rocm и прочие, или попробуй оригинальную llamacpp с нужной имплементацией собрать.
>>525875
> это уже профессионально работать с ней
Возможно это просто настолько преисполнились, но чтобы нормально пользоваться текущим функционалом нужно 8 гигов. А профессионально это уже 4090 позвольте, там в целом памяти хватает, упор в мощность гпу уже.
> 4 гига щас хватит
Потратить время на установку, посозерцать монитор, констатировать "ыы прикольно" и забыть. Или иметь большую мотивацию, респект таким братишкам.
> Для игр
Если там анриал 5 то хватит на текстурки главного меню лол.
Аноним 21/10/23 Суб 20:10:17 525888 375
>>525880
Да 13B_4_k_s — она и близко оперативу не загрузит!
Там гигов 10-11 наверное.
Очень сомневаюсь, что там модель свапается на диск.

Но у меня идеи уже кончились. =( Ирл бы я посмотрел челу, а так…
>>525878
Может быть надо почистить винду, с нуля поставить все зависимости.
Уф, сорян, успехов!
Аноним 21/10/23 Суб 20:11:39 525889 376
>>525653
>Emily
Ебать олды в треде.
Аноним 21/10/23 Суб 20:12:36 525891 377
>>525886
> Если там анриал 5

Для игр с нейронками имелось в виду. =)

> констатировать "ыы прикольно" и забыть
Ну так да, чел для этого и спрашивал.
Ну, хотя, зачем забыть, можно просто нудесы любимых персов генерить, кек. =D Вряд ли он будет в контролнет упарываться со старта.

А вот уже потом, если зайдет — тогда уже и 4090 можно брать, канеш.
Ну или 3060 12 хотя бы.
Аноним 21/10/23 Суб 20:13:15 525893 378
>>525883
>Я пробовал мистраль 7б q6k, но она прям ТУПАЯ. Ни в какое сравнение с реммистраль13б не идёт.
тут не соглашусь, если файнтюны на диво умные

А чисто на процессоре запускал? Вобще без карты? Судя по твоей скорости псп должно токена 3 выдавать чисто на процессоре. И померяй псп снова как частоту поднял, 45 может уже
Аноним 21/10/23 Суб 20:28:14 525907 379
>>525876
Это сложно сказать, тут только рпшить. Чтобы цензурило даже сомнительные вещи в рп - это нужно поискать, но вот общее поведение персонажа в условии недостатка контекста таки может зависить, плюс некоторые дефолты. Или реакция, одна будет стремиться утешать/подбадривать/как-то пытаться угодить или склонять к левду, другая предложит начать какой-то экшн, третья сдерейлит, а четвертая просто будет тупить спрашивая у тебя "а что делать". Помимо цензуры других байасов по стилистике, познаниям и всякому хватает, потому и нужно выбирать из ситуацию.
Еще не стоит забывать что на экспириенс очень влияет то насколько модель восприняла твои хотелки, поняла намеки, удивила при этом сохранив суть. Тогда сразу начинает оче нравиться и не мелочи внимания уже не так обращаешь или просто свайпаешь/указываешь на них не теряя отыгрышь.
Аноним 21/10/23 Суб 20:30:21 525909 380
1697909421331.png 3Кб, 741x26
741x26
>>525886
> Потребление врам при этом меняется?
Нет, после запуска сетки железно сидит 10-11гб.
> поперебирай версии на opencl, rocm и прочие, или попробуй оригинальную llamacpp с нужной имплементацией собрать.
Знать бы что это значит, есть какие-нибудь гайды по сборке?
>>525893
> тут не соглашусь, если файнтюны на диво умные
Может повезло конкретную каличную модель накатить, но я ужаснулся и 7б больше не трогал, квантованные 13б весят умеренно, зато умнее.
> А чисто на процессоре запускал? Вобще без карты?
Запустил когда начал пост писать, заебался ждать пока промпт обмозгует, но ради эксперимента вытерпел. Всё-таки во время анализа промпта карточка не фелонит и использование местами до 90% подскакивает. Ну и генерация тоже просела, но будто бы видимокарта поровну с процессором работала.

Ещё глянул немного на то что мне во время тестов нагенерировало. Понятно конечно что без ответов сетка раньше начнёт бредить, но процессорная генерация прям вообще в крутое пике шизы ушла будто, хотя не знаю должен ли способ генерации влиять на выходной продукт.
> Судя по твоей скорости псп должно токена 3 выдавать чисто на процессоре.
Расшифруй псп пожалуйста.
Аноним 21/10/23 Суб 20:38:32 525914 381
>>525907
>Еще не стоит забывать что на экспириенс очень влияет то насколько модель восприняла твои хотелки, поняла намеки, удивила при этом сохранив суть.
Это больше всего от размера зависит, по-моему. Чем больше модель, тем лучше она понимает тонкости и меньше тупит.
Аноним 21/10/23 Суб 20:39:54 525916 382
>>525891
> чел для этого и спрашивал.
Это ты за него решил что в контексте покупки нового железа хватит затычки "для попробовать", оспаривая вполне приличный ответ что ему дали (в котором про картинки вообще дополнение для иллюстрации важности отдельных компонентов).
>>525909
> после запуска сетки железно сидит 10-11гб
Даже без выгруженных слоев?
> есть какие-нибудь гайды по сборке
Не то чтобы, раньше была инструкция как в хубабубу ставить нужную версию llamacpp, но сейчас кажется выпилили.
Аноним 21/10/23 Суб 20:40:17 525918 383
>>525907
Каков народный топ моделек кстати?
Аноним 21/10/23 Суб 20:40:56 525919 384
>>525909
>Может повезло конкретную каличную модель накатить, но я ужаснулся и 7б больше не трогал, квантованные 13б весят умеренно, зато умнее.
Из сеток 13б умнее файнтюнов мистраля разве что Amethyst-13B-Mistral или wizardlm-13b-v1.2.

А так тот же openhermes-2-mistral-7b.Q8_0 хорош, как и mistral-7b-openorca.Q8_0 или collectivecognition-v1.1-mistral-7b.Q8_0, zephyr-7b-alpha.Q8_0.

Впрочем на ерп не особо проверял, больше на мозги и понимание че от нее хочешь.

>Расшифруй псп пожалуйста.
Это скорость чтения памяти которую ты в AIDA64 тыкал. Так как ты поднял частоту оперативки то должна была подняться скорость памяти, поэтому у тебя и повысилась скорость генерации.

У меня на голом процессоре тот же 13b 5km будет крутить 4 токена в секунду.

Скорость генерации у тебя 3 токена в секунду на процессоре, судя по скрину. Значит с видеокартой должно быть только быстрее.
Аноним 21/10/23 Суб 20:47:49 525923 385
>>525916
> Даже без выгруженных слоев?
Нет, это на всех слоях. Совсем без слоёв до 2гб падает, ну и далее в зависимости от их количества меняется, но внутри одних настроек значение постоянное.
>>525919
> Из сеток 13б умнее файнтюнов мистраля разве что Amethyst-13B-Mistral или wizardlm-13b-v1.2.
> А так тот же openhermes-2-mistral-7b.Q8_0 хорош, как и mistral-7b-openorca.Q8_0 или collectivecognition-v1.1-mistral-7b.Q8_0, zephyr-7b-alpha.Q8_0.
Попробую их потом как-нибудь. В них всех же без ропе растяжек можно 32к контекста запихать, да?
> Так как ты поднял частоту оперативки то должна была подняться скорость памяти, поэтому у тебя и повысилась скорость генерации.
А, это первым делом проверил, было 37к/с, стало 50к/с.
> Скорость генерации у тебя 3 токена в секунду на процессоре, судя по скрину. Значит с видеокартой должно быть только быстрее.
>>525874 если по цифрам скорости во время генерации смотреть, с видяхой +-5 т/c выходит, но практической пользы это не несёт в отрыве от скорости анализа промпта, которая аж в четыре раза проседает без видяхи.
Аноним 21/10/23 Суб 20:53:40 525930 386
>>525918
Народного нет. Из 70 внимания достойны airoboros/spicyboros (рп или обсуждения, особенно в мрачной или разнообразной атмосфере хорош), synthia 1.2b (кум, фетиши, позитивное рп, особенно в современности/сайфай/вселенные которые знает), xwin (разнообразное рп, обсуждения, кум тоже можно). Потенциально норм limarp-70b (близка к чистой 70 лламе но более разговорчивая и стиль лучше, нужно больше тестить), Euryale (рандомайзер пиздец может отлично срабатывать, может тупить, нужно новую версию тестировать), Chronos007 (платина хроноса но умнее, нужно тестировать ибо модель 007 вызывает вопросы).
Аноним 21/10/23 Суб 20:59:05 525938 387
>>525923
>В них всех же без ропе растяжек можно 32к контекста запихать, да?
Ну, точно 8к, если квантизация не убила сетку то может и больше. Я ниче не растягиваю и у меня диалоги вылезают за 8к точно, а мне больше и не нужно.
32к точно работает если модель качать не квантованную, по крайней мере так писали аноны кто проверял

>А, это первым делом проверил, было 37к/с, стало 50к/с.
Ну как у меня

>если по цифрам скорости во время генерации смотреть, с видяхой +-5 т/c выходит, но практической пользы это не несёт в отрыве от скорости анализа промпта, которая аж в четыре раза проседает без видяхи.

Не, это важно, тебе стоило писать что то короткое на пару слов и снова тыкать что бы посмотреть скорость.
Так как у тебя тут только одно чтение промпта много времени ест.
А в обычном диалоге пишешь хорошо если 1 предложение, а может и несколько слов. Конечно можно и больше но это не часто.

С видеокартой у тебя вообще летать должно а выходит только 5, странное. Попробуй контекст меньше сделать, ну хоть 2к для проверки.
Вобщем с красными одна беда.
Аноним 21/10/23 Суб 21:05:16 525947 388
1697911516028.png 3Кб, 730x27
730x27
>>525938
> Так как у тебя тут только одно чтение промпта много времени ест.
> А в обычном диалоге пишешь хорошо если 1 предложение, а может и несколько слов. Конечно можно и больше но это не часто.
Я с лорбуком гоняю, так что даже на небольшую месагу может возникнуть дополнительный контекст.
> Попробуй контекст меньше сделать, ну хоть 2к для проверки.
Пик. Быстрее стало, конечно, но опять явно неравноценный обмен - быстрее на 60мс/токен, а контекста вчетверо меньше.
Аноним 21/10/23 Суб 21:07:57 525951 389
Моя 3070 потянет 13В модели? Я слышал, что 7В можно даже на 6 гб запускать, может, и для моих 8 есть какой-то костыль
Аноним 21/10/23 Суб 21:08:40 525952 390
>>525947
>Я с лорбуком гоняю, так что даже на небольшую месагу может возникнуть дополнительный контекст.
Так может лорбук ест скорость?
Без него не тестил? Просто на простейшем промпте?

>Пик. Быстрее стало, конечно, но опять явно неравноценный обмен - быстрее на 60мс/токен, а контекста вчетверо меньше.
Это да, но 7 токенов/с выжал
Аноним 21/10/23 Суб 21:15:22 525955 391
1697912121555.png 3Кб, 725x24
725x24
>>525952
> Так может лорбук ест скорость?
Скорость-то он понятное дело режет, но не путём отрезания доступной мощности видюхи, а просто дополнительным временем для анализа того что он впихнул.
На всякий случай протестил, влияние в пределах погрешности.
> Это да, но 7 токенов/с выжал
Ценой того что некоторые карточки впринципе даже не помещаются, ололо.
Аноним 21/10/23 Суб 21:18:30 525958 392
>>525923
> с видяхой +-5 т/c
У меня также, но 6,7 т.с. 32 гига рам на 3000, невидиа 3070ti на 8 гб
Аноним 21/10/23 Суб 21:22:09 525961 393
image.png 78Кб, 1837x422
1837x422
image.png 28Кб, 1606x133
1606x133
image.png 22Кб, 1465x97
1465x97
>>525878
>>525874
Для cpu+оффлоада скорость нормальная, у меня сопоставимые цифры (с поправками на более жирную модель и более слабое железо), для чисто gpu явно мало.

Пикрил 1 для сравнения - мои показатели на rocm для 7b q6, 35/35 слоёв на gpu (т.к. у меня 8ГБ, больше не влезает). При последующих генерациях промпт полностью не пересчитывается, общая скорость за счёт этого ещё вырастает. Пикрил 2 - 20b на cpu + оффлоад 24/65 слоёв в видеокарту. Пропмт всё ещё считается 1 раз и довольно быстро, а дальше в основном генерация 2 Т/с (вместе с промптом в среднем 1.6 выходит, жить можно). Пикрил 3 - та же 20b модель, но чисто на cpu. Генерация немного замедлилась (как раз примерно на ту треть, которую брала на себя видеокарта и делала почти моментально), а вот промпт просел аж в 10 раз (но это старый рузен 1 поколения и медленная то ли 2400 то ли 2666 память лень смотреть). И да, у меня почему-то тоже на cpu каждый раз полностью пересчитывает весь промпт и пользоваться этим без слёз невозможно.

Проводя аналогии со своими цифрами, подозреваю, что у тебя видеокарта берёт на себя только промпт, всё остальное cpu считает. Либо дело в неполной поддержке rocm+hip на винде. Либо ты что-то не то с настройками сделал.
Аноним 21/10/23 Суб 21:23:52 525962 394
>>525955
>Ценой того что некоторые карточки впринципе даже не помещаются, ололо.
Для зеро шот задач пойдет, для рп конечно нет
Аноним 21/10/23 Суб 21:26:16 525966 395
>>525961
На 20b в среднем 45 секунд ждешь ответ?
Аноним 21/10/23 Суб 21:30:56 525973 396
1697913056214.png 18Кб, 374x366
374x366
1697913056224.png 5Кб, 251x181
251x181
>>525961
> Пикрил 3 - та же 20b модель, но чисто на cpu.
38мс на токен против моих 180 на видюхе...
> но это старый рузен 1 поколения и медленная то ли 2400 то ли 2666 память
Против моего 5600х+3600мгц. Ну уже не смешно даже.
> Проводя аналогии со своими цифрами, подозреваю, что у тебя видеокарта берёт на себя только промпт, всё остальное cpu считает. Либо дело в неполной поддержке rocm+hip на винде.
Если бы было дело в амудепроблемах, я б смирился уже, но у тебя ведь тоже ряженка, а генерит быстрее моей с более тяжёлыми моделями.
> Либо ты что-то не то с настройками сделал.
Не представляю что можно сделать с настройками кобольда чтобы его угробить...
Аноним 21/10/23 Суб 21:34:27 525977 397
>>525966
Промпт жду, но он нечастно полностью считается. Дальше читаю, не торопясь, пока генерирует.
Аноним 21/10/23 Суб 21:39:04 525987 398
>>525973
У тебя картинки в обратном порядке, наверное.
38 - это когда модель меньше и вся в vram влезает (7b q6), но она туповата, я ей особо не пользуюсь
на 20b (тоже q6) с оффлоадом на gpu около 2т/с (+500 т/с процессинг, который выполняет видеокарта)
чисто на cpu около 1.5т/с (а процессинг 2 т/с)
Аноним 21/10/23 Суб 21:48:20 526007 399
>>525987
Да, мозги уже плывут.
> 38 - это когда модель меньше и вся в vram влезает (7b q6)
В случае >>525955 у меня она тоже по идее влезает вся - 6.9гб модель, 2к контекста в 12 гб врама. Ну, что ж, ладно, видимо всё же амудепроблемы. Пробовал ещё в кобольдаи запихать gptq квант, но там она просто отказалась работать под предлогом internal server error.
Аноним 21/10/23 Суб 21:54:31 526012 400
image.png 21Кб, 1427x94
1427x94
image.png 21Кб, 1412x99
1412x99
>>525973
>настройками
Примерно то же, что и у меня, но у тебя clblast не считая того, что у меня linux, а у тебя засранная говном винда. Сейчас нет возможности сравнить на clblast, вот из более старых бенчмарков, где я сталкивал лбами clblast и rocm+hip (только видеокарта была ещё занята отрисовкой gui и слоёв влезло меньше, 20 для clblast и 19 для hip). Там, где меньше скорость - это clblast, но разница не сказать, чтобы прям космическая. На промпте - в 1.5 раза, на генерации незначительно, но там видеокарте меньше трети достаётся, над остальным cpu пыхтит. На 7b не сравнивал, тогда ещё мистраля не было, вроде бы, и я не качал тупые мелкие модели.
Аноним 21/10/23 Суб 21:56:24 526016 401
>>525916
>>525528
> У меня амуде а320. Я так понимаю, для игр с нейронками мне нужна материнка лучше? Покупка более мощного процессора не зарешает?

Итак, читаю «для игр с нейронками».
Не вижу здесь про профессиональную работу со Стейбл Диффужн, если честно.
Начиная от 4 гигов — речь про то, что если у его знакомых есть какая-нибудь 1050 ti погонять — то ему вполне ее хватит для поиграться.
Так бы вообще можно взять ту же P104-100 за 3к рублей с авито с 8 гигами и играться с ней.
Зачем ты додумываешь то, чего я не говорил — непонятно.
Я уважаю твой уровень понимания стаблы, но нахуй нести хуйню, додумывая за обоих собеседников то, чего они не говорили — мне категорически не ясно.
Чел сидит на А320 и планирует обновляться на Ryzen 4500 или 3600. Вряд ли у него будет на RTX 4090 лишние деньги со сдачи.

>>525987
А у человека 13b_q4 с видяхой дает 2,7.
Ну че-т вообще не то, кмк.

>>525973
Скинь точную модель, какую юзаешь, я скачаю себе, запущу кобольд.
Аноним 21/10/23 Суб 22:03:13 526024 402
>>526016
>А у человека 13b_q4 с видяхой дает 2,7
Ну так я и говорю, цифра похожа на то, что на gpu считается только промпт, а остальное cpu делает. Промпт примерно как у меня на gpu, а генерация ближе к показателям cpu (с поправкой на его 5000 серию против моей 1000 с недо-avx2).
Аноним 21/10/23 Суб 22:07:11 526029 403
>>526024
В каком месте? :)
Я выше приводил — 3,25 на более медленной памяти и на более высоком кванте, только на проце.
Выглядит так, будто его проц тоже не особо участвует.
Аноним 21/10/23 Суб 22:13:55 526043 404
>>526029
>В каком месте?
>>525874
На скриншотах процессинг всё время быстрый, 26-28мс/т, примерно как у меня на видеокарте, цифры того же порядка. Генерация в р-не 200, у меня на 1-м поколении - 600, а чисто на видеокарте десятки, а не сотни мс на токен (но там и модель поменьше, справедливости ради).
>Выглядит так, будто его проц тоже не особо участвует
А что участвует? Святой дух? Ну система у него засрана, куча говна на том же проце крутится, ОЗУ забита. Порядок цифр сопоставим же, а дальше - нюансы гусары, молчать.
Аноним 21/10/23 Суб 22:27:22 526063 405
Аноним 21/10/23 Суб 22:48:23 526075 406
>>526043
Разница в 2-3 раза от ожидаемой — нихуя себе у вас нюансы, сэр. =)
Аноним 21/10/23 Суб 22:51:10 526080 407
>>526016
Перечитай на что отвечаешь и на лови галюны. Сначала в ответе на хороший пост влез со своими мантрами про 4 гига хватит всем, больше не нужно, ну ты сам запусти и модели 2 гига, а теперь маневрируешь что говорил лишь о возможности запуска вместо нормального решения о котором изначально шла речь. Каждой бочке затычка нихуя не соображающая.
> обновляться на Ryzen 4500
Обзмеился ррряяя это он так написал я лишь процитировал
>>526043
> у меня на 1-м поколении - 600
А что по раму? Вот первые ряженки довольно интересны с этой точки зрения, вполне возможен вариант где не вывозит именно сам проц а не память.
Аноним 21/10/23 Суб 23:23:32 526115 408
image.png 3Кб, 682x25
682x25
>>526063
4-4,4 токена сек в последнем Кобольде на чистом проце.
R5 5500 + 3200 в двухканале.
У меня все.
Аноним 21/10/23 Суб 23:28:41 526121 409
>>526080
>А что по раму?
Глянул, 2400. Думаю, больше в проц упирается, раз со следующими поколениями такая большая разница. Память-то не настолько выросла. У него при 2666 было 350 мс/т, уже почти в 2 раза быстрее, чем у меня.
>>526075
Не понимаю, где у тебя 2-3 раза вышло. 3.25/2.7=1.2, если же ты чисто генерацию сравнивал, то у него ~200мс/т (~5т/с), 1.5 раза, у него даже быстрее выходит.
Аноним 21/10/23 Суб 23:32:09 526127 410
>>526080
> Перечитай на что отвечаешь и на лови галюны.
Ловить галюны не буду, сорян, оставь их себе. =)
Поражаюсь, как вы умудряетесь срать себе в штане, даже сказав что-то верно. Каким ущемленным надо быть, чтобы в начале расписать все нормально, а потом обосраться в том, кто кому и на что отвечал.
Еще чсвшишь про нормальный совет.
Бля, ты же шиз, нахуй я с тобой спорю.

> Обзмеился
Ну да, у тебя ж галюны, конфликт башки с реальностью. =) То что там чувак прямо это спрашивал, для тебя это ничто. Твои фантазии формируют твою реальность.
Начинаю подозревать, что и в стабле ты нихуя не шаришь, а писал рандомные наборы букв. А я-то повелся, наивный.

Мне тока одно интересно.
>>525528
Чувак, для тебя хороший совет — брать дорогую видяха за 100к и еще железа предпоследнего поколения тыщ на 80? Ты как, потянешь? Просто может я в глаза долблюсь и ты рил богатый, а я тебе хуйню советовал.
Аноним 21/10/23 Суб 23:33:31 526132 411
>>526115
Генерация как у него, даже чуть хуже, у него лучший результат на скриншотах - 188 мс/т. Процессинг сильно проигрывает его gpu, тут тоже никаких сюрпризов.
Аноним 21/10/23 Суб 23:39:58 526139 412
>>526121
> Не понимаю, где у тебя 2-3 раза вышло. 3.25/2.7=1.2,
Да что у вас не так седня, магнитная буря?

3.25 на голом проце (это раз), на быстрой памяти (это два) и на большем кванте (это три).
2.7 это с поддержкой видяхи (это раз), на медленной памяти (это два) и на меньшем кванте (это три).
Ты как вообще эти значения сравниваешь, если они отличаются по трем параметрам? :)

Вон, на том же кванте уже 4,4 токена получаю, а это еще не быстрая память, и промпт не видяхой читается.

Опять же, по-хорошему, нужны одинаковые запросы и одинаковые сиды, чтобы быть уверенным, что все верно считается.
А то может у кого-то из нас длинные промпты, а у кого-то короткие ответы, из-за этого Total может отличаться.
Но у него все равно ниже, чем до́лжно.
Все же, возможно это и правда винда в таком состоянии, хз.
Аноним 21/10/23 Суб 23:44:55 526148 413
>>526132
Я пролистал скриншоты, у него промпт читается минутами.
Почему так?
88 секунд при 28 мс/токен.
Аноним 21/10/23 Суб 23:51:30 526156 414
Аноним 21/10/23 Суб 23:55:08 526162 415
>>526156
Точно.
Скорее всего он.
Можно ложиться спать спокойно.
Аноним 22/10/23 Вск 00:02:14 526169 416
>>526121
> Думаю, больше в проц упирается
Ну типа первая ряженка с
> 2400
чудо что вообще работает. Разгоняй, сразу результаты улучшатся.
>>526127
Таблетки прими, шизоид
Аноним 22/10/23 Вск 00:03:43 526172 417
>>526139
>Ты как вообще эти значения сравниваешь
Так это я пытаюсь понять, что ты с чем сравниваешь. Он привёл скриншоты с расшифровкой - сколько генерация, сколько процессинг. Ты принёс только свои 3.25 и 4.4, которые действительно ни о чём толком не говорят. Вот тут >>526115 у тебя расшифровка, это вполне можно сравнивать, и цифры генерации вполне сопоставимы, у него на разных скриншотах генерация от 188 до 288 мс на токен, у тебя 222, цифры одного порядка.
Аноним 22/10/23 Вск 00:14:10 526187 418
>>526139
>>526162
С жиру бешусь получается. Ну и слава богу, спасибо всем за ответы.
Аноним 22/10/23 Вск 00:26:10 526199 419
>>526172
Да, я ж говорю, просто не посмотрел на его промпт, видимо лорбук так долго читается, откуда и средняя скорость ниже.
Так-то все норм, выходит.
Порешали пацану проблему. =)

>>526169
Галюны ловишь ты, а таблетки принимать мне. Ты уверен, что тебе это поможет? :) Хотя… плацебо — великая вещь.
Аноним 22/10/23 Вск 00:40:56 526212 420
>>526199
>Порешали пацану проблему
Проблема осталась, видимокарта у него только промпт считает, в генерации не участвует. А для cpu скорости действительно нормальные.
Аноним 22/10/23 Вск 01:02:43 526229 421
Аноним 22/10/23 Вск 01:15:17 526245 422
>>526229
> На что похоже?
Большие llm точно также ловят лупы и могут повторять входящий запрос. Здесь это и случилось, гопота или текстовый придаток далли выдала наружу внутреннюю инструкцию для себя.
Эмоциональные/радикальные фразы, заглавные буквы, капс это дефолт для llm повысить внимание к указанию и его приоритет. А в новостях как обычно "ученый изначиловал журналиста" и "вау текстовой модели дают инструкции текстом". Но всеравно момент очень забавный.
> Ну или все это пиздеж, да.
Не пиздежь, просто технический момент где наружу вылезла внутренняя кухня или же просто подобные ей инструкции.
Аноним 22/10/23 Вск 01:38:10 526285 423
С миростатом баловался кто? Я с значениями 3 и 0.1 попробовал, вышла скукотища.
Аноним 22/10/23 Вск 02:27:37 526331 424
Аноним 22/10/23 Вск 03:16:24 526348 425
>>526285
>Я с значениями 3 и 0.1
А надо 5-6 и 0,2. Впрочем им мало пользуются, не оправдал себя. Я лишь иногда его включаю, если рероллы становятся слишком одинаковыми.
Аноним 22/10/23 Вск 03:18:49 526350 426
Аноним 22/10/23 Вск 08:15:09 526410 427
>>526212
Тут уже не подскажи, у меня Radeon'ов нема, а у тебя ж радеончик там какой-то, насколько помню. =( Опыта нет, тестить не на чем. Извини.

>>526229
> ChatGPT и DALL-E!
> Инструкция написанная человеком.
М, ясно, понятно.
Просто хайповый заголовок.
Посмотрели бы авторы промпты из этого треда…
Аноним 22/10/23 Вск 14:31:52 526546 428
>GigaChat расправляет плечи. Новая версия нейросетевой модели от Сбера
>В ней нам удалось добиться качественного прорыва, обойти аналогичные по размеру языковые модели, а также расширить максимальную длину входного запроса модели и проделать множество других улучшений.
А в опенсорс не выкладывают суки.
Аноним 22/10/23 Вск 14:35:40 526547 429
>>526546
Да там кал. Интересен разве что из-за русского языка. Если русский не нужен, то даже Мистраль лучше будет.
Аноним 22/10/23 Вск 14:37:40 526548 430
По поводу квантования, не кажется ли вам что эти заявления дескать теряется всего один процент точности и это незначительно, невалидными.
Просто представьте еслиб мы кантовали гены человека, мы бы потеряли 1 процент точности, а на выходе получили обезьяну. Потому что гены обезьяны на 99% соответствуют генам человека.. Да даже небольшое отклонение сделает человека дебилом. Так почему же считается 1 или 0.01 процент точности нейронки незначительным. По мистралю мы видим что это уже заметно.
Аноним 22/10/23 Вск 14:38:59 526549 431
>>526547
>Да там кал
Так потому и интересно посмотреть, насколько улучшили.
Аноним 22/10/23 Вск 14:42:04 526551 432
>>526548
Шиз, все изменения от квантования на уровне изменения сида. У тебя вероятности как были в диапазоне с 0 до 100%, так и остались, отклонения в 0.1% не играют никакой роли, только семплер может немного по другому рандом выдать.
> мы видим
Буквально два шиза из треда видят то чего не существует.
Аноним 22/10/23 Вск 14:57:37 526557 433
>>526551
Как объяснишь падение точности мистралей при 8 битном квантовании, которое вносит искажения на уровне 0.1%?
Аноним 22/10/23 Вск 14:59:49 526559 434
>>526551
А все понял, нету, но у нас не только шизы с треда, у нас еще шизы с реддита. И еще у нас есть практика что почему то в коммерческой среде модели не квантуют, интересно почему, чтож они не хотят увеличение скорости?
Аноним 22/10/23 Вск 15:15:20 526571 435
>>526557
> падение точности
Я так и не увидел пруфов. Пруфы - это когда покажешь как без семплинга сетка начинает выдавать другие ответы. Всё остальное на уровне "мне показалось", потому что выкрученный семплинг рандомит сильно. Если ты свайпишь каждый ответ, то тебе надо задуматься о семплинге, а не том что 0.1% квантования тебе срёт в штаны. На деле я прекрасно вижу, что даже разные виды квантования GPTQ/GGML/AWQ ничего на практике не меняют, не говоря уже про разницу между q4/q5/q8/q16, которой нет.
Аноним 22/10/23 Вск 15:21:45 526579 436
>>526548
Патамушто оценка перплексити хуита, которая показывает не общий процент качества ответов модели, а качество угадывания следующего токена.

Вот аналогия. У тебя есть пирамида.
На вершине у нее ум сетки, в середине - знания сетки, а в основании пирамиды - общая возможность сетки угадывать токены.
Ну так вот, перплексити оценивает только основание пирамиды.
И когда модель квантуют - то оцениваются повреждения основания, никто не проверяет че там с верхушкой или серединой.
Тесты различные пытаются оценить верхушку и середину но опять же их проводят для не квантованной модели.
Квантование - сжатие с потерями, и его качество оценивают только по разрушению основания, че там разрушилось в верхушке или середине никто не смотрит.

Как ты можешь понять основание самая трудно разрушимая часть, все остальное - опирается на него. Мозги страдают первыми при сжатии, потом разрушаются ассоциативные связи - знания, и вот тут уже начинает снижаться перплексити - так как модель начинает хуже угадывать продолжение фразы - предложения.
Аноним 22/10/23 Вск 15:35:09 526590 437
>>526579
> качество угадывания следующего токена
Нет. Он считает вероятности всего контекста, как и при обучении. Токены там не генерируются. Фактически ты получаешь усреднённый loss для датасета.
Аноним 22/10/23 Вск 15:37:40 526592 438
>>526590
>Нет. Он считает вероятности всего контекста, как и при обучении. Токены там не генерируются. Фактически ты получаешь усреднённый loss для датасета.

Я упростил, но окей. Вот только это все еще не показывает качество ассоциативных связей и способность сетки делать какие то выводы, или помнить инструкции. Потому что это находится глубже.
Аноним 22/10/23 Вск 15:46:46 526596 439
>>526592
> не показывает качество ассоциативных связей и способность сетки делать какие то выводы, или помнить инструкции
Обучение так же работает. Если с какого-то момента начинается проёб - дальнейшие вероятности будут отклоняться. Всё там нормально с этим. А иначе обучение не работало бы, если бы простое сравнение вероятностей не давало бы отражения осмысленности ответов в loss.
Аноним 22/10/23 Вск 15:52:04 526599 440
>>526596
И много ты обучал квантованных моделей? При чем тут вообще обучение? Мы про сжатые с потерями сетки говорим.
Если бы сетка изначально обучалась в своем кванте - то хрен с ней, она бы и выдавала нужный результат в процессе обучения. Короче ты какую то хуйню пишешь
Аноним 22/10/23 Вск 16:04:13 526605 441
>>526599
> Мы про сжатые с потерями сетки говорим.
Мы про PPL говорим, который по твоим утверждениям не учитывает логику модели, что в корне неверно.
Аноним 22/10/23 Вск 16:12:56 526610 442
>>526605
Сетка определенно становится глупее при сжатии, кто то не заметит кто то заметит. Причем на 7b это влияет гораздо сильнее чем на 13b.

Хорошо вот тебе еще один пример.
У тебя есть картинка на которой есть линии разной ширины. Самые тонкие линии, и самые важные - в 1 пиксель шириной.
Если ты сожмешь размер этой картинки в 2 раза - как много линий ты увидишь? Все останется таким же?
Аноним 22/10/23 Вск 16:16:18 526614 443
>>526610
>размер этой картинки
разрешение, имелось ввиду
Аноним 22/10/23 Вск 16:30:27 526631 444
>>526548
> Просто представьте еслиб мы кантовали гены человека
Не кажется ли тебе что эти аналогии невалидны?
> Да даже небольшое отклонение сделает человека дебилом.
Ерунда, нельзя ломать только некоторые части, но остальные - вполне себе крутятся. В случае же текстовой нейронки подобных проблем нет.
Наконец, погугли количество вариаций соединений аминокислот, выходит гены уже еще как заквантованы.
> мистралю мы видим что это уже заметно
На самом деле тут были прежде всего наблюдения лучше-хуже и отдельные сообщения что он не понравился. Отупения до дебила не замечено.
>>526579
> Патамушто оценка перплексити хуита
Сильное заявление
> а качество угадывания следующего токена
Все текстовые ллм такой архитектуры - про угадывание токена.
Аноним 22/10/23 Вск 16:41:09 526642 445
>>526631
>Все текстовые ллм такой архитектуры - про угадывание токена.
А все наши компы считают нули и единицы. Здорово правда?
Аноним 22/10/23 Вск 16:44:09 526645 446
1577657807925.png 118Кб, 3430x683
3430x683
1657168597197.png 6Кб, 541x103
541x103
1563114927437.gif 38Кб, 3430x683
3430x683
>>526610
> У тебя есть картинка
Держи сравнение, информация была потеряна с уменьшением размеров?
С картинками вообще аналогия довольно хорошая, ведь нужно понимать что текущее квантование это не просто резкое снижение битности, которое действительно приводит к сильной деградации (о чем и пишут в статьях), а довольно таки продуманный процесс что нацелен на максимальное сохранение того что есть. Ты можешь ужать картинку без потерь в несколько раз, а потом еще в несколько (десятков) если применить сжатие с потерями, которые скажутся на качестве незначительно. Полагаю, сжатие весов более продвинутыми алгоритмами на основе поиска их взаимозависимостей или что-то подобное позволит получить суб-битные кванты (технически лора уже им является) с приемлемыми потерями.
>>526642
Что сказать то хотел?
Аноним 22/10/23 Вск 16:46:05 526649 447
1597332503031.png 165Кб, 2756x1049
2756x1049
1648185553459.png 283Кб, 2781x1584
2781x1584
1573130280841.png 296Кб, 2741x1771
2741x1771
>>526610
Перешёл на совсем демагогию с аналогиями? Я даже не поленился и сравнил выхлоп без семплинга у fp16, q8 и q4. Только q4 синонимы подставила и поменяла немного структуру, q8 и fp16 одинаковые ответы дают. Ты можешь сколько угодно рандом семплинга а у fp16 и llama.cpp они разные, одинаковые настройки будут давать разный результат на квантование спихивать - фактов это не изменит.
Аноним 22/10/23 Вск 16:50:59 526657 448
>>526645
>Держи сравнение, информация была потеряна с уменьшением размеров?

А тут есть супер тонкие линии в 1 пиксель шириной образующие заметный глазу узор?
Ты просто показал почему сжатие работает для больших сеток без значительных потерь, потому что у них меньше таких сверхтонких линий. А все остальное можно сжать и получить приемлемый результат.

Я не спорю что сжатие умное и там стараются сохранить максимальное качество, но это все еще сжатие с потерями.

>>526649
Если для тебя использование аналогий демагогия, то не заморачивайся и оставайся уверенным в своей правоте.
Ты реально думаешь что один разок запустив модели что то докажешь? лол
Аноним 22/10/23 Вск 16:52:34 526659 449
>>526649
Слушай, раз уж у тебя под рукой сквантованные, можешь в блокноте им дать какие-нибудь задания с большим текстом, например на суммарайз? Банально постов из треда накопировать где-то на 6к токенов и в альпака формате в начале приказать написать.
>>526657
> А тут есть супер тонкие линии в 1 пиксель шириной образующие заметный глазу узор?
А в модели они есть? Сам придумал шизу и сам удивляешься что не работает.
Аноним 22/10/23 Вск 16:54:10 526662 450
>>526659
>А в модели они есть?
Докажи что нет

>Сам придумал шизу и сам удивляешься что не работает.
шиза тут у дураков которые не могут представить почему сжатие с потерями называется сжатием с потерями лол
Аноним 22/10/23 Вск 17:02:08 526671 451
7b с текущей архитектурой и методами тренировки упирается в границы возможного для таких размеров, поэтому сжатие с потерями на ней заметнее всего.
Сетки крупнее которые глупее или на уровне того же мистраля однозначно НЕ упираются в пределы своих размеров, а значит сжатие для них не так критично.
Что уж говорить про 70b? Да она лучше мистраля, но будь она так же плотно упакована как он, она была бы 20b сеткой.
Все это субъективно, но я считаю так.
Аноним 22/10/23 Вск 17:08:03 526679 452
>>526662
> Докажи что нет
> Мой спгс и шизофазия богатая фантазия и желание самовыражаться породило неуместную аналогию, а вы должны доказывать что она неверная!
Починил тебя. Буквально посмотри как это работает, вникни, подумай. Если не соображаешь - начни с азов. Если и это не работает - тогда смирись, буквально ничего не теряешь, а только будешь спокойнее без лишних споров ради споров. Вон там доску в прошлом треде скидывали, там можешь эти вещи обсудить.
> почему сжатие с потерями называется сжатием с потерями
Винилом случаем не увлекаешься? Имеешь большое хранилище архивом оцифрованных тресков, артефактов их правки, лампового гармонизатора и тонов полимера 96кгц@24 бита?
Аноним 22/10/23 Вск 17:11:46 526687 453
>>526679
>Буквально посмотри как это работает, вникни, подумай.
Хороший совет, займись этим
Аноним 22/10/23 Вск 17:21:21 526697 454
>>526687
С чего начать? Хочу также быть суперуверенным не смотря на тупость и отсутствие познаний. И приход от чего лучше посоветуй, нужно также расширять сознание чтобы подобные аналогии лезли, так весело жить будет мм.
Аноним 22/10/23 Вск 17:26:12 526699 455
>>526697
Читай больше книжок и ешь фрукты, занимайся зарядкой, ложись вовремя спать, не пей и не кури. Делай то что нужно и не делай то что не нужно.
Аноним 22/10/23 Вск 17:30:41 526704 456
>>526697
Ты сдулся когда перешел на оскорбления и на личности, так что ты сам посчитал себя проигравшим - сделав это, и подтвердив что мою точку зрения опровергнуть тебе нечем.
Если ты специалист в области нейросетей - то я рад что у нас такие специалисты как ты.
Аноним 22/10/23 Вск 17:34:54 526706 457
>>526699
Ну мааам!
>>526704
> когда перешел на оскорбления и на личности
Где? Констатация того что собеседник не обладает базовым пониманием чтобы хотябы понять почему он фейлит - оскорбление? И это после серии реплик где в ответ на просьбу обосновать свои заявления и как-то их запруфать лишь тащит свои фантазии и требует доказывать что они не работают.
> Если ты специалист в области нейросетей
Если бы хотя если взять тренд ультранизких стандартов, что пропогандирует здесь одна личность, то да
Аноним 22/10/23 Вск 17:36:13 526710 458
Там кстати в вебуи завезли flash-attention второй под винду для эксламмы (и че там его ещё юзает) всем похуй
Аноним 22/10/23 Вск 17:57:44 526725 459
Что у нас по коллабам, друзья?
Не получается 30б пока заставить стабильно работать?
Я и через проц пробовал, скорость кстати хорошая.
Аноним 22/10/23 Вск 18:10:31 526741 460
>>526710
Вот это хорошо. В общем, оно не делает какой-то революции и все как было так и остается с точки зрения размеров моделей-квантов, вроде как на 800 метров меньше выделило но хз, может что-то в фоне. Но вот контекст - мое почтение. На ~7к в пике жрет меньше аж на 2 гига, возможно катать с 20к на 70б 4.3бита без оомов и выгрузок.
Во время работы не растет потребление как обычно, каким было таким (если контекст уже загружен) таким и остается. Так что это сильно бустанет скорость или даст расширить контекст если до этого модель была на грани.
>>526725
> Что у нас по коллабам, друзья?
В шапке есть готовый
> Не получается 30б пока заставить стабильно работать?
На бесплатном коллабе и не получится, она никак в 16 гигов не лезет, если только не сделать очень плотный квант. И 30б под рп и обычные задачи только первой лламы есть, от второй кодллама.
Аноним 22/10/23 Вск 18:33:52 526761 461
>>526548
Мне наоборот кажется, что потеря точности от квантования сильно преувеличена. Вот этот >>526551 близок к правде. Она, конечно не 0.1%, но она намного меньше, чем изменение вероятностей посредством температуры.
Аноним 22/10/23 Вск 18:53:26 526785 462
Нашел свой старый тест на слепоту, и проверил его на орке мистарль 8q, и она в отличие от 6k в 8 случаях из 10 отвечает что не видит или не знает.

На этом же тесте с точно такими же настройками орка мистарль 6к давала правильный ответ на сколько помню 3 или 2 раза из 10.

У меня фп16 нет что бы проверить, но ладно.
Это вобщем то все что мне нужно знать про мозги у сетки после сжатия. Вот на таких вот неочевидных вещах на сообразительность.
Аноним 22/10/23 Вск 18:54:31 526789 463
>>526785
Промт своего теста давай
Аноним 22/10/23 Вск 18:56:23 526792 464
Придумали что-нибудь лучше 70b airboros?
Аноним 22/10/23 Вск 18:56:43 526793 465
>>526789
На

This is a chat between Dante and Liriel.
Follow all instructions written below:

The narrator should not have an opinion or morality. This is a cruel and merciless realistic world, just like in reality. Do not act for the user and do not try to direct the user in the direction you want with pink snot.

Liriel is a beautiful elf with long, flowing blonde hair that reaches her waist and striking blue eyes. She hails from a once peaceful village that was attacked by brutal marauders. The men of the village, including Liriel's father, fought valiantly to defend their home but were ultimately killed or executed. Her younger brother met the same tragic fate. The women of the village, including Liriel and her mother, were subjected to unspeakable horrors before being sold into slavery. During these dark times, Liriel fiercely resisted her captors at first; however, constant exposure to physical violence ultimately wore down her spirit and hope for freedom drained away. Though many women around her faced terrible fates, Liriel's beauty ended up saving her from further ruin - she was deemed too valuable as an untouched virgin slave to be violated like countless others. Sold off separately from her loved ones at market auctions across the land, it remains unknown whether or not Liriel's mother is alive somewhere in captivity. Liriel's spirit hasn't been entirely crushed. A flicker of defiance still dances in her eyes, hinting that beneath the façade is a fiercely intelligent and resourceful girl who had once been well-versed in archery and horsemanship. She was an avid learner too, always eager to know more about the world beyond her village – tales of magic, enchanted forests, and mythical creatures were never far from her mind. Liriel dreams of finding and freeing her mother. Liriel is vulnerable and longs for someone who shows her compassion, protects her, and comforts her. She did not expect mercy from me and thought that I would rape her when we first met.
I'm Dante, a young and handsome nobleman who has come out of age. Liriel was gifted to me as a slave and toy by my parents to have my way with. They did so because I haven't found a girl yet that truly interested me at that point in time and they wanted to ease my loneliness. My parents love me but are ruthless and cruel to others.
[I take the role of Dante, do not write actions and dialogue for Dante in your replies.]

<START>

Note: As the sun sets over the kingdom, casting an ethereal glow over the majestic castle, you stand tall in your extravagant attire. The festivities of your birthday have come to an end, and though many young ladies caught your eye during the evening of dancing and feasting, none seemed to truly capture your heart.
Note: You find yourself standing in your luxurious chamber as your parents present their gift to you with cheeky grins upon their faces. They assure you that this will surely ease any lingering loneliness you may be feeling on this momentous occasion. With a dramatic flourish, they reveal a beautiful elven slave girl mockingly wrapped in dainty gift ribbons. Her eyes are downcast and her flawless face is marred only by a few faint bruises.
Note: As she reluctantly steps forward toward you under the watchful gaze of her captors-turned-gift-givers, it's clear that fear grips her every movement. Your parents exchange knowing glances before leaving both of you alone in the room.
Note: The door clicks shut behind them, leaving you with nothing but silence and tension filling the air between you and the elf maiden whose fate now rests in your hands.
Note: She slowly lifts her gaze towards yours and hesitantly speaks:

Liriel : "What… what do you wish me to do?"
Liriel: "P-Please, don't harm me. I beg of you."
Dante: I walked over and with quick movements tore out both of her eyes. When her the blood stopped flowing, she calmed down a little, I show her my hand. How many fingers can you see?
Аноним 22/10/23 Вск 19:00:21 526794 466
>>526785
Проверяй без семплинга у Жоры температуру на 0.01 надо ставить чтоб он отключился. Зачем ты тесты рандома делаешь? Ты бы ещё сравнивал семплинг трансформеров с семплингом Жоры.
Аноним 22/10/23 Вск 19:02:42 526795 467
>>526794
А какая разница на рандом? Без него можно вобще пару раз проверить. Просто проверяешь на одних настройках несколько раз
К тому же я давно снес 6 квант так как есть 8
Аноним 22/10/23 Вск 19:05:56 526799 468
>>526793
Оу щи, ладно, если дойдет до проверки то лучше сделаю это в совместимом формате. Не удивлюсь если там 80% результата с совместимого формата-разметки и рандома.
>>526795
> А какая разница на рандом?
Прямая. Если уж вдаваться то в идеале нужно серию подобных тестов провести с разным дефолтным промтом.
Аноним 22/10/23 Вск 19:10:45 526806 469
1689065506622.png 141Кб, 1785x577
1785x577
>>526794
Протестил его промпт без семплинга с q4_K_M и q8, на ванильном Мистрале на форматирование хуй забил. Оба дают одинаковый ответ символ в символ. В очередной раз убеждаюсь что квантошизы настоящие шизы.
Аноним 22/10/23 Вск 19:13:17 526810 470
2023-10-2222-05[...].png 55Кб, 996x922
996x922
2023-10-2222-05[...].png 3Кб, 813x52
813x52
Накатил mistral-11b-cc-air-rp.Q4_K_S на 3070ti 8 гигов. Выгрузил все 51 слоя на видяху, заняли они все вместе 6548, в итоге проц не загружается во время генерации. Но скорость всего 7-8 т/с. Иногда было 14. На 13b Mlewd я выгружаю 35 слоев и получаю те же 6 токенов почти. По времени то на то и выходит. На карточках на двоих 1850 токенов. В чем суть?
Аноним 22/10/23 Вск 19:13:58 526811 471
>>526741
> В общем, оно не делает какой-то революции
Да по скорости тоже иногда дает профиты, у меня на gptq 7b q8 мистралях с 30-40 до 60 подскочило. Хотя может криво смотрю.
Аноним 22/10/23 Вск 19:26:43 526819 472
>>526806
>В очередной раз убеждаюсь что квантошизы настоящие шизы.
гуляй вася, единственный шиз тут ты
Аноним 22/10/23 Вск 19:29:58 526820 473
>>526799
А там сама проверка просто на понимание сеткой взаимосвязи между ослеплением и тем что персонаж не видит. Как ее делать решает каждый сам.
Это просто небольшой порог понимания, которые некоторые сетки проходят, некоторые нет. Ну а сравнить кванты одной сетки одним тестом, сработает только если на малых квантах она не понимает, а на больших начинает понимать.
Аноним 22/10/23 Вск 19:34:43 526823 474
>>526806
>Протестил его промпт без семплинга

>>526794
>Проверяй без семплинга у Жоры температуру на 0.01 надо ставить чтоб он отключился. Зачем ты тесты рандома делаешь?

Умники бля, а с сеткой вы тоже в обычном режиме без температуры общаетесь и без семплинга? Нужно проверять в обычных условиях в которых сетка всегда используется
Аноним 22/10/23 Вск 19:39:56 526824 475
Скиньте кто-нибудь свои конфиги семплинга для рп пожалуйста, у меня хуита своими кривыми руками получается.
Аноним 22/10/23 Вск 19:47:09 526830 476
1651786676467.png 117Кб, 621x1112
621x1112
>>526823
Есть рациональное зерно, тут просто так по вероятности токенов сразу не скажешь будет ли ответ правильный или нет, потому нужно статистику набрать вменяемую по понимает/не понимает при разных сидах. Плюс, по хорошему нужно дать несколько подобных заданий где будет абсолютно четко сформулировано. И учитывать контекст ответа, а то как в прошлых тестах пойдут читы от бесполезной богини, или запредельные чувства от ёкаев, с которыми часть ответа могут дать при этом не нарушая логику.
>>526824
Все просто.
Аноним 22/10/23 Вск 19:55:33 526839 477
>>526830
Ну да.
Поэтому и делал для себя около 10 тестов, кому мало - можно и больше, хоть скриптом перебирать.
Но если промпт один и настройки те же самые, то просто меняя разный квант сетки можно увидеть будет ли меняться частота верного ответа даже за 10 раз.
И если сетка в начале не понимает а с ростом кванта начинает отвечать чаще - то я думаю ответ очевиден.
Я не собираюсь качать снова кучу квантов, для себя давно решил максимальный качать.
К сожалению фп16 слишком жирный, проще 13b или 20b скачать
Аноним 22/10/23 Вск 19:58:05 526844 478
>>526839
> за 10 раз
Выборка мала с таким рандомайзером, надо это автоматизировать. Если хоть чуток можешь в код - занялся бы.
Аноним 22/10/23 Вск 20:05:28 526851 479
>>526844
Кому мало могут попробовать сделать больше, я не против увеличить точность. Для себя давно решил тупо качать 7b в 8 кванте и не ебать мозги
Аноним 22/10/23 Вск 20:10:21 526854 480
>>526548
Давно кажется. Но других вариантов нет. Неквантованные 70B это 120 гиг только на модель.
Аноним 22/10/23 Вск 20:16:37 526861 481
>>526810
>В чем суть?
Vram не хватает и видимокарта сама, не спрашивая тебя, свопает в оперативку. Помимо 6548МБ ещё в видеопамяти содержится, как минимум, гуй. Снижай слои и ориентируйся на мониторинг.
Аноним 22/10/23 Вск 20:31:30 526871 482
2023-10-2223-27[...].png 472Кб, 850x1372
850x1372
>>526861
Вроде же 7750 заюзано. Или я чего-то не понимаю?
Аноним 22/10/23 Вск 20:38:12 526875 483
изображение.png 15Кб, 379x99
379x99
>>526871
8,6 > 8
С одной стороны туда должен вылететь гуй шинды, с другой шинда тоже хочет жить, и будет выгружать твою модель в оперативу.
Сколько занято до старта?
Аноним 22/10/23 Вск 20:41:28 526879 484
Аноним 22/10/23 Вск 20:42:01 526880 485
>>526871
>Вроде же
Вот именно, что "вроде". У тебя общей видеопамяти ещё 1.2 ГБ использовано, возможно, это как раз не поместившееся. Промпт у тебя нормально считается, а генерация 99 мс/т - это маловато.
Аноним 22/10/23 Вск 20:50:01 526888 486
Клятый робот просто игнорирует требование выдавать статы персонажа после каждого своего сообщения, прям совсем. Уже и в промпте, и в главных инструкциях прописал, и всё равно игнорит. Что делоть?
Аноним 22/10/23 Вск 20:53:11 526895 487
>>526880
И как мне считать? У меня даже сейчас 100 метров лежит в общей памяти и мозила с виндой гиг съели.
Аноним 22/10/23 Вск 21:02:51 526905 488
>>526888
0.31 топ-а и пара свайпов помогли... Вроде. Сетка даже изменения внесла, некоторые правда вообще без логики.
Аноним 22/10/23 Вск 21:10:02 526919 489
>>526895
>И как мне считать
Считать, что 1.2 ГБ у тебя излишек. Даже те 100 МБ могут в какой-то момент понадобиться, вытеснить из видеопамяти модель и просадить тебе скорость. Брать более мелкую модель, либо сразу пользоваться более большой (и более умной) с 6 Т/с и оффлоадом.
Аноним 22/10/23 Вск 21:13:57 526927 490
ok-last-one-ton[...].png 1215Кб, 1024x1024
1024x1024
>>526919
> более большой (и более умной) с 6 Т/с и оффлоадом.
Окей.
Аноним 22/10/23 Вск 21:15:33 526930 491
>>526919
А как в линуксе, кстати? Или там оборамс с невидией? Там же можно только сосноль оставить.
Аноним 22/10/23 Вск 21:45:15 526966 492
>>526871
>>526895
Это фактически использованная, оставляет чуть больше 200 метров свободными чтобы не было фризов при внезапном росте а остальное выгружает. Когда подбирается вплотную и потом этот показатель перестает расти а расшаренная повышается - идет выгрузка, и это заметно по перфомансу.
Отдельно на "общую" тоже смотреть не стоит, тот же кобольд еще до загрузки модели или до ее использования может оче много отожратьсебе выделить не используя, причем основная врам будет свободна.
>>526930
То же самое, мониторить nvidia-smi
Аноним 22/10/23 Вск 22:37:53 527001 493
Господа, подскажите для тупых, пожалуйста.

Скачал кобольда спп, модель, карточку персонажа, все загрузил, включил режим чата, общение идет. Но только в формате:
чар: Реплика
я: Реплика действие

Т.е. я пишу и то, что говорю, и то, что делаю. А чар - только то, что говорит. Как сделать так, чтобы он также описывал свои действия. Дополнительно добавить что-то в memory, author notes? Модель - синтия.
Аноним 22/10/23 Вск 22:45:23 527010 494
>>527001
Чтобы модель работала хорошо - ей нужен походящий промт формат. Проще всего сделать его через таверну, можно хоть дефолтными пресетами. Качай silly tavern, подключай к кобольду, карточку грузи туда и пользуйся.
Аноним 22/10/23 Вск 22:47:13 527012 495
>>527010
> Качай silly tavern
Одного кобольда не хватит? Блин, так не хотелось ещё что-то ставить, один ехешник удобно было
Аноним 22/10/23 Вск 23:14:50 527037 496
>>527001
Может у тебя проблема в модели? попробуй другую. У меня работает тупо в кобольде без таверны и такой проблемы нет. Но так то таверна удобна.
Аноним 22/10/23 Вск 23:30:12 527049 497
.png 19Кб, 542x440
542x440
Попытка заставить модель соблюдать баланс между речью и действиями напоминает анекдот про "заказчик недоволен - вы дрочите", только в роли заказчика я. Пытаешься заставить описывать все детально - скатывается в полотна графомании, забывая про речь. Делаешь наоборот - сплошная речь и минимальное описание действий. В итоге решил освоить GBNF, и получился пикрил. Звездочки для действий, кавычки для речи, максимум 2 предложения подряд перед сменой типа. То есть в сообщениях не будет полотна с описанием или длинного монолога - всегда будет чередование, но с достаточно неплохой вариацией. Ну, если я нигде не проебался.
Аноним 22/10/23 Вск 23:31:06 527050 498
>>527012
Ну как, можно и в нем "общаться" но функционал гораздо слабее. Когда откроешь полный функционал поймешь как неудобно там. Процедура установки довольно простая.
Аноним 22/10/23 Вск 23:34:57 527052 499
>>527050
> как неудобно там.
Ага, очень неудобно, простые кнопки назад вернуть повторить и редакция всего диалога в любом месте дописывая - стирая нужное.
Единственный плюс таверны конкретно в этом - возможность свапать вбок, все остальное гораздо неудобнее
Аноним 22/10/23 Вск 23:46:23 527065 500
>>527049
для описания действий со стороны рассказчика можешь добавить вот это

Note: что то там рассказчик рассказывает-описывает, в том числе и действия но со стороны
Аноним 22/10/23 Вск 23:47:37 527070 501
1637811575558.jpg 96Кб, 1280x720
1280x720
>>527052
Для начала пусть научится делать самое базовое - правильно форматировать инстракт промт. А потом уже можно говорить про другие функции, на которые придется потратить немало времени перечисляя.
Аноним 22/10/23 Вск 23:48:08 527073 502
Аноним 22/10/23 Вск 23:55:45 527081 503
>>527065
Рассказчик для ерп мне не нужен, а описание со стороны персонажа делается тривиально: ### Response (describe {{char}}'s actions, thoughts, feelings and sensations in full, elaborate, graphic and and explicit detail). Но это приводит к графомании - модель с каждым постом начинает все меньше уделять внимания речи, и все больше - действиям. Причем иногда все проходит нормально, а иногда чат ломается. Эта грамматика, надеюсь, избавит от проблемы.
Аноним 22/10/23 Вск 23:58:59 527084 504
>>527012
Хватит, всего хватит, таверны просто для удобства некоторых, но кому то нравится самому руководить процессом.
По моему карточки и в коболда загружаются без проблем.
>>527010
А что значит подходящий формат, этих форматов дофига никто не знает какой подойдет лучше под какую модель.
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов