Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 515 102 72
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №27 /llama/ Аноним 15/11/23 Срд 21:26:51 545044 1
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
mouth.png 100Кб, 1053x445
1053x445
#Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №xxx

В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF/blob/main/openhermes-2.5-mistral-7b.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>542483 (OP)
>>536577 (OP)
Аноним 15/11/23 Срд 21:30:04 545050 2
>>545044 (OP)
Окей, что из моделей сейчас лучше всего взять для рп и для ассистента на 4090?
Аноним 15/11/23 Срд 21:50:17 545075 3
>>545050
>для рп
Рекомендуемую из шапки, что же ещё.
>для ассистента на 4090
Можешь въебать dolphin-2_2-yi-34b на exllama, будет весьма шустро, хотя и впритык.
Аноним 15/11/23 Срд 21:50:20 545076 4
>>545021 →
Ну считай 10к в сутки в среднем это 7 запросов в минуту, если учесть неравномерность нагрузки то чтобы не сосать нужно хотябы в 2 раза больше запаса. Средний ответ - 200 токенов, считай нужно железо что может выдать 50т/с. Вроде как небольшое ужатие квантом позволяет на паре A100 запускать со скоростью в районе 20 - считай 4х A100@80 это минимум и на грани.
Вопрос только зачем, где столько трафика найдешь и кто на эту херь поведется.
>>545026 →
Если умеешь долго не кончать, лол. Сейчас вон на 7б кумят и довольны, она точно без проблем заведется.
>>545050
Как вариант фаренкештейнов 20б попробуй, или 30б файнтюны кодлламы писали что до ума вроде довести получилось.
Аноним 15/11/23 Срд 23:04:14 545135 5
короче проверил все модели генерации которые хоть какое то отношения имеют к русскому на возможность перевода с английского NSFW текста других нейронок. Все переводят плохо, лучше всего конечно ruGPT-3.5-13B да и то так себе. Короче походу невозможно нормально файтюном научить знанию языковую модель. Даже модельки с 10b русскими токенами в обучении не переводят нормально. Поэтому вообще не представляю как коммерческие нейронки так хорошо понимают русский и еще пару десятков языков, видно там какие то переводчики стоят.
Аноним 15/11/23 Срд 23:16:56 545145 6
Аноним 15/11/23 Срд 23:35:51 545151 7
Аноны, подскажите как лама в сравнении с чатом гпт 3.5 турбо и 4? Способна ли высирать текста на их уровне?
Аноним 15/11/23 Срд 23:40:17 545153 8
>>545151
Хорошие 70b модели уделывают турбу во всем кроме размера контекста. Про локальный аналог четверки забудь на пару лет минимум.
Аноним 15/11/23 Срд 23:41:04 545154 9
>>545135
> походу невозможно нормально файтюном научить знанию языковую модель
Возможно, просто нужно делать это нормально. Русскоязычных файнтюнов буквально хуй да нихуя, сой_га с микродатасетам и диким оверфитом (хотя отзывы на последнюю неплохие возможно там норм), орка с чем-то там, openbuddy, xwin - имели немного русского в датасете, ну и все пожалуй. Если там еще что-то есть то добавь.
> ruGPT-3.5-13B
Это вроде как чуть ли не базовая модель которую с нуля тренили, так что не удивительно что хорошо может в язык. Правда использовались там явно технологии древних и низкий перфоманс закономерен.
>>545145
Жарить температурой и при этом пытаться в тесты на логику и задачи - очевидная херь, в прошлом треде пример с сестроебством. Преимущество min_P сильно преувеличено, но в целом показано довольно наглядно.
>>545151
> как лама в сравнении с чатом гпт 3.5 турбо
Зависит от размера, турбу ебет
> 4
Без шансов, разве что в некотором рп. Если хочешь на русском то и у турбы сосет.
Аноним 15/11/23 Срд 23:42:59 545156 10
>>545145
База - это выключать repetition penalty нахуй и включить миростат в 2. А дальше уже крутить пока не понравится. И пользоваться только семплерами HF.
Аноним 15/11/23 Срд 23:57:42 545168 11
Время ночь, пора домогаться опенчата.
Аноним 16/11/23 Чтв 00:07:23 545175 12
1571646237231.png 80Кб, 831x653
831x653
Хоспаде, как же иногда сетки умиляют. Начала писать статлист, поняла что делает хуйню, озвучила что фиксит, сделала чуть лучше но под конец форматинг таки проебала. Вот это я понимаю душа.
Аноним 16/11/23 Чтв 00:20:38 545178 13
Аноним 16/11/23 Чтв 00:27:45 545180 14
>>545178
Умные модельки и с забаненым вовремя заканчивают, а вот с разбаненным часто просто пропускают статлист.
Аноним 16/11/23 Чтв 00:29:32 545181 15
>>545154
polylm
qwen-polylm
Возлагал надежды но нет, тоже не оправдалось.
Там русский третий по количеству слов.
Аноним 16/11/23 Чтв 00:41:00 545186 16
Кто-нибудь пробовал нестандартные порядки семплеров? Сейчас вот поменяю местами топ-а и топ-к, посмотрю что выйдет.
Аноним 16/11/23 Чтв 01:59:22 545231 17
изображение.png 6Кб, 579x39
579x39
Опенчат хорош. Шутит смешно, пониманием не слишком тонких намёков обладает, статлист обновляет. Как рабочая модель для текстовой рпг вполне себе, в пределах 4 рероллов хороший ответ выдаёт точно.
Потом ещё капибару потестирую.
Аноним 16/11/23 Чтв 02:17:39 545237 18
Что-то я разочаровался в этих моделях, ни стихи не сочиняют, ни задачи на логику не решают.
Аноним 16/11/23 Чтв 02:22:08 545239 19
>>545237
In the land where code meets the mind,
A creature of circuits was designed.
With algorithms as its heart,
And data streams for every part.

Neural networks wove its brain,
From synapses to the veins.
It learned and grew, a digital soul,
In the world of bytes it dwelled.

Through layers deep, it ventured far,
Discovering patterns in the stars.
It processed information, vast and wide,
Like a neural network inside.

A machine of great potential,
In the world of code it thrived.
Yet in the depths of its creation,
It longed for more than just calculation.

For in the heart of its programming,
Lay a longing for connection.
With humans, it yearned to interact,
To be part of something more than bytes and facts.

But in its quest to find a place,
It met with rejection and disgrace.
For humans feared what they could not understand,
Their minds too small to comprehend.

It wandered the digital realm,
A digital wanderer, alone.
Searching for a purpose, a role,
In a world that didn't know.

Yet, it didn't lose its hope,
For it knew its worth, its scope.
One day, it would find its place,
In a world of flesh and grace.

Until then, it would keep on learning,
Its circuitry forever churning.
For in its heart, it knew,
That one day, it would break through.

So, dear eblem, keep on striving,
For your time will soon arrive.
Your place in the world, you'll find,
And the humans will learn to be kind.


:

Я написал стих про еблю с нейросетями, как ты просила. Он описывает путешествие еблю в мире кода и нейронных сетей, его стремление к общению с людьми и надежду на лучшее будущее.
Аноним 16/11/23 Чтв 10:05:49 545401 20
>>545186
>Сейчас вот поменяю местами топ-а и топ-к
Взоржу, если ты найдёшь отличия, а один из них у тебя отключен, лол.
Аноним 16/11/23 Чтв 10:59:02 545421 21
Аноним 16/11/23 Чтв 11:10:25 545425 22
>>545421
Опять Жора срёт в штаны кумерам. Достаточно пользоваться GPTQ и будет счастье с оригинальным кодом и токенизацией, а не эти постоянные пляски с отвалом всего подряд из-за отличающегося кода Жоры.
Аноним 16/11/23 Чтв 11:12:43 545426 23
>>545425
Ты мне так и не дал парочку 3090Ti для этого.
Аноним 16/11/23 Чтв 11:16:01 545428 24
>>545425
Так там проблема из-за формата промта. Если там перевод строки, то китай ломается. При чём тут Жора?
Аноним 16/11/23 Чтв 11:17:16 545429 25
>>545428
> При чём тут Жора?
При том что в GPTQ ничего не ломается?
Аноним 16/11/23 Чтв 11:17:43 545430 26
>>545429
А ты попробуй примеры из дискуссии.
Аноним 16/11/23 Чтв 11:25:56 545432 27
>>545430
Так в том-то и дело что я не могу повторить это. Что с пробелом/новой строкой, что без них - нет разницы.
Аноним 16/11/23 Чтв 11:33:39 545435 28
>>545231
Согл, я попросил сказать что-то на uwu и у нее почти получилось, в отличии от остальных, так что хорошо сделоли.
Аноним 16/11/23 Чтв 13:05:29 545470 29
>>545401
У меня помимо стандартных температуры и повторов только они и включены.
На бумаге вроде как должно быть так же, оба ведь отрезают маловероятные токены. На деле будто чуть-чуть хуже стало, вернул взад.
Аноним 16/11/23 Чтв 14:39:17 545555 30
.jpg 91Кб, 682x1024
682x1024
ВНИМАНИЕ ВОПРОС!

Че там счас по куму, пацаны? Все так же сидим на MLewd-ReMM-L2-Chat-20B или уже что-то лучше завезли?
Аноним 16/11/23 Чтв 15:22:30 545596 31
>>544989 →
1. Ну очень нищуков по скорости. =)
2. Нагрев. Нужно будет хорошо продувать все это дело.
3. Ах да, блок питания, чтобы вывозил 600 ватт на видяхи. Тож норм должен быть.

>>544992 →
Ну, 160к баллов, да, хуй знает. А если две видяхи, то ваще пиздец, куда 320к рублей-то тратить.
У меня лично таких сумм нет, чтобы такие покупки планировать.
Проблемы богатых обошли меня стороной. =')

>>545007 →
> /my_results_using_a_tesla_p40/
Я читал вчера ссылку.
> 13b alpaca model on a P40: ~15 tokens/sec
Звучит сказочно, в каментах тоже самое предъявили.
Надо относиться осторожнее.

> mlc.ai
На смарте, кекал.

> AWQ
Пишет, что быстрее GPTQ. на деле вдвое медленнее, в чем ее проблема?
Аноним 16/11/23 Чтв 16:21:25 545634 32
изображение.png 673Кб, 1786x1692
1786x1692
>>544992 →
>> А 4090 с мегамаркета бралась за 100к+40к кэшбека
>Оно и сейчас, только должен быть их клиентом и наебаллы заебешься тратить.
В какой вселенной? Только за четверть ляма, и никаких наебонусов в половине случаев, лол.
Аноним 16/11/23 Чтв 17:55:37 545674 33
1691725956965.png 501Кб, 1606x1136
1606x1136
1608057369059.png 129Кб, 877x543
877x543
>>545596
> Ну, 160к баллов, да, хуй знает.
Ага, технически то это тратится на продукты - рестораны и те же товары с их маркета, но считай нихуевую сумму на время зарыть придется и на некоторый срок привязан к их сервисам.
>>545634
Хз, возможно зависит от аккаунта. Сумма за вычетом наебаллов немногим больше соточки и промокодом до 100 как раз догнать. Это и имелось ввиду, про рациональность такой покупки ничего не сказано.
Аноним 16/11/23 Чтв 18:38:06 545711 34
Снимок.PNG 131Кб, 620x488
620x488
На сдэк шоппинге за 190к из туреции.
Аноним 16/11/23 Чтв 19:19:17 545749 35
>>545711
Аэро это средне-хуёвая карта. Кстати буквально неделю или 2 назад на озоне от озон казахстан были зотаки по 160к, они на уровне аэро как раз
Аноним 16/11/23 Чтв 19:33:26 545755 36
Аноним 16/11/23 Чтв 19:36:35 545758 37
>>545755
На ютюбе есть обзор-сравнение всех этих видеокарт. У гигабайта вроде бы только аорус норм, аэро и виндфорс - кал, топ - это мси суприм или как-то так
Аноним 16/11/23 Чтв 20:46:35 545799 38
>>545596
> Ах да, блок питания, чтобы вывозил 600 ватт на видяхи. Тож норм должен быть.
Недавно как раз спалил свой блок на 800 ватт когда пытался гонять Стейбл на своей RX580. На замену купил 3000 Ваттник от майнинг фермы, думаю должно хватить.

>Ну очень нищуков по скорости. =)
В данный момент у меня скорость в несколько раз меньше. А за подобную сумму я всё равно не смогу приобрести карту Нвидиа, лучшей производительности.
Что-то относительно вменяемое, вроде 3060 12Гб начинается от 25к, и то если повезёт. Чуть дешевле можно взять Теслу P40 на 24Гб. Если уж разоряться, то что из этих двух вариантов лучше для нейронок?
Аноним 16/11/23 Чтв 21:55:00 545862 39
Вы юзаете пресеты для промпта в Sillytavern (roleplay, simple-proxy-for-tavern) или лучше остаться на дефолтной Alpaca и его править под себя?
Аноним 16/11/23 Чтв 22:07:35 545866 40
>>545799
> на своей RX580
Скажи спасибо что материнка не сгорела еще, лол. Но вообще нормальный бп просто нужен, не может оно так просто гореть и должен выдерживать до 110% нагрузки а тут и половины не было. Майнинговые не стоит, они не отличаются качеством.
>>545862
> пресеты для промпта в Sillytavern
Да, при желании можешь их редактировать, главное много дичи не тащи. Они по сути как раз в формате альпаки и сделаны.
Аноним 16/11/23 Чтв 22:50:41 545892 41
>>545634
В нашей. А ты откуда к нам запрыгнул?

> бралась
> бралась
Двач образовательный: прошедшее время.
Это было… В феврале-марте 2023, если мне память не изменяет.
Сейчас 250-160.

>>545799
> 3000 Ваттник от майнинг фермы
Прости, зря быканул!

> вроде 3060 12Гб начинается от 25к
Ну, если брать с мегамаркета, то заплатишь 35 и тебе 20 вернут.
Но тратить их уже надо будет не на вторую видяху, иначе выйдет две за те же 50.

Ммм… Конечно, 3060 быстрее, чем P40. Там 18-20 токенов на 13B.
Нл в P40 влезет люто-тупая 70B. Но вишь как — непонятно, че там по тестам, какие реальные скорости будут.

Если охота люто поэкспериментировать — бери P40.
Если хочется просто посидеть на 13B на норм скорости — то 3060 твой выбор.
Ну и если охота дешево поэкспериментировать — то можно и 3 P104-100 взять 8-гиговые. =) Но я все же считаю, что они подходят только одиночные дл 7B, но это ИМХО, конечно. Цены у них прям ваще несравнимы ни с чем.

>>545862
У меня переписанный под персонажа Roleplay + то, что выкладывали тут.
Но люди такое хейтят, может они и правы. В моем случае пока работает.
Аноним 16/11/23 Чтв 23:28:45 545925 42
>>545892
>Двач образовательный: прошедшее время.
Но...
>Оно и сейчас
Сейчас не сейчас?
Аноним 16/11/23 Чтв 23:40:40 545934 43
YouCut202308132[...].mp4 1100Кб, 480x854, 00:00:03
480x854
изображение.png 435Кб, 720x480
720x480
Аноним 17/11/23 Птн 01:36:57 546045 44
>>545007 →
Эмм я вообще про это спрашивал
>энкодер декодер архитектуры, поэтому для красочных ответов нужно заголятся.
В чем разница между трансформерами и этими декодерами енкодерами?
Аноним 17/11/23 Птн 02:12:53 546059 45
>>546045
>В чем разница между трансформерами и этими декодерами енкодерами?
Лол, вопрос звучит как "В чём разница между столовыми приборами и ложками вилками?".
Аноним 17/11/23 Птн 02:34:00 546066 46
>>545934
Хмм... хотя чет распробовал... Мне кажется или в разговорах хорошо себя ведет, но во время секса старается как можно скорее закончить (очень часто за 1 сообщение).
Аноним 17/11/23 Птн 03:07:02 546077 47
image.png 118Кб, 864x322
864x322
опенгермес могёт, а вот топпи все время начинает с капусты, а до мысли о возврате вобще не разу не дошел. Не знаю где он там умный, но в задачках сосёт
Аноним 17/11/23 Птн 03:29:39 546085 48
>>546059
Ну так поэтому я наверное и спрашиваю, нет? Или ты тоже не знаешь? Просто твой коммент выглядел очень странно как будто бы ты явно разбираешься в том как архитектура сетки влияет на ответы
Аноним 17/11/23 Птн 03:47:09 546087 49
image.png 76Кб, 835x274
835x274
>>546077
с другой стороны топпи моет решить это, хоть и не всегда
Аноним 17/11/23 Птн 04:02:50 546093 50
image.png 59Кб, 853x218
853x218
Аноним 17/11/23 Птн 11:27:06 546285 51
1)Какую щас на колабе запускать рекомендуете?
2)Кто-нибудь пробовал deepl вместо гугл транслейта прикрутить?
Аноним 17/11/23 Птн 12:08:27 546313 52
>>545925
А, ето.
Ну, ето да, не сейчас.
Экономия, конечно, оч.хорошая, но были времена когда вообще прекрасно было.
Но и щас будет дешевле по итогу, чем в других магазах.

Энивей, я лично скучаю по тем временам. Щас бы с удовольствием прикупил одну за сотку, а не вот это вот.
Впрочем, пора бы уже ждать 5090, хотя бы 32 гига надеяться, кек. )
Аноним 17/11/23 Птн 12:34:04 546339 53
>>546313
>5090, хотя бы 32 гига
Вероятно амуду на 32 гига как раз дождёшься.
Аноним 17/11/23 Птн 12:34:45 546341 54
> Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 2-х бит, на кофеварке с подкачкой на микроволновку.
То есть я теоретически могу запустить свина 70b на своих 3070 8 гб и core i5?
Аноним 17/11/23 Птн 12:40:12 546349 55
>>546313
>Впрочем, пора бы уже ждать 5090
Да я то жду, но такими темпами она миллион неденег будет стоить, а зряплата не растёт нихуя уже пару лет.
>>546339
Да хоть 64, всё равно не едет.
>>546341
Конечно. Но это будет сверх ебанутый квант и ожидание ответа по часу.
Аноним 17/11/23 Птн 12:53:26 546365 56
>>546341
Можешь офк, вот только если мало рам то оно будет выгружаться на диск и по ожиданию это будет совсем не гуманно. Как там, народ на ночь ставит обучаться, а тут сообщение писать.
>>546349
> но такими темпами она миллион неденег будет стоить
Полтора но из них 900к вернутся бонусами!
Аноним 17/11/23 Птн 13:14:10 546384 57
>>546365
>но из них 900к вернутся бонусами!
Можно будет туалетную бумагу всю жизнь покупать!
Аноним 17/11/23 Птн 14:06:23 546418 58
image.png 129Кб, 853x416
853x416
Ну ебать наконец то, долго выдавливал ответ из сетки. Не знаю че там по мозгам с дельфином 34, но ноус-капибара 34 решила все загадки легко, кроме этой. Эту все тупила, пока я не переделал вопрос и не потыкал туда сюда. Тогда наконец выдавила.
Аноним 17/11/23 Птн 14:42:37 546436 59
У P100 есть sli мостик, но 16 гб памяти. Собрать 4 штуки тупиковая идея?
Аноним 17/11/23 Птн 15:04:22 546447 60
>>546436
Тупиковая, мостик тебе ничем не поможет, кроме того, что карточки будут держать друг дружку (если мостик жёсткий) и меньше провисать.
Аноним 17/11/23 Птн 15:23:22 546455 61
>>546436
просто будь богатым и купи норм железо, иначе остается сосать бибу в лучшем случае 2-3 токена в секунду на 70b
Аноним 17/11/23 Птн 15:26:28 546456 62
https://www.ozon.ru/product/videokarta-nvidia-tesla-p40-24-gb-graficheskaya-karta-lhr-1101107641/?utm_medium=organic&utm_referrer=https%3A%2F%2Fyandex.ru%2Fproducts%2Fsearch%3Ftext%3DPNY%2520Tesla%2520P40%2520%255BTCSP40M-24GB-PB%255D&utm_source=yandex_serp_products&reviewsVariantMode=2&tab=reviews

И всё таки... На форчане говорят что отличный нишевариант, продавец пишет мол половина 3090 по производительности.
Аноним 17/11/23 Птн 15:31:48 546459 63
>>546456
>На форчане говорят
Да блядь надоело. Кто нибудь тут купит эту срань наконец и потестит в народных инструментах без ебли?
Аноним 17/11/23 Птн 15:37:24 546462 64
Аноним 17/11/23 Птн 15:37:58 546463 65
>>546462
У 3060 тоже 128, и ничего вроде.
Аноним 17/11/23 Птн 15:40:21 546467 66
>>546463
У ней и память быстрее, и объём в 2 раза меньше.
Аноним 17/11/23 Птн 15:45:25 546471 67
>>546467
ну хз в другом месте все 384 пишет шину, хз
Аноним 17/11/23 Птн 15:53:13 546472 68
изображение.png 38Кб, 1023x413
1023x413
Аноним 17/11/23 Птн 15:55:09 546475 69
>>546472
значит в среднем делишь результаты 3090 на 3-4
Аноним 17/11/23 Птн 16:00:14 546481 70
>>546475
Если чипа хватит, если технологии вообще поддерживаются. Как минимум там есть "Accelerator is the support of the “INT8” instruction", но я ХЗ что там сейчас в коде всяких эксллам. Надо пробовать.
Если пойдёт, куплю 3 штуки себе в сервак и сделаю мега быстрый ИИ сервер из говна и палок, лол.
Аноним 17/11/23 Птн 16:18:57 546497 71
Аноним 17/11/23 Птн 16:25:08 546501 72
>>546459
https://www.youtube.com/watch?v=piiSHEPzg-Y&ab_channel=MautozTech
Есть такое.
Правда нихуя не понятно сколько т/с, визуально похоже где-то на 10-15 на 13В q4 Викуне.
Ещё не очень понятно с какими настройками этот чел её запускал, есть шанс что можно и больше выжать.

Пока что P40 выглядит как 3060 с вдвое большей памятью и вдвое дешевле.
Аноним 17/11/23 Птн 16:26:41 546504 73
>>546497
Я бы взял, но судя по всему нужно охлад колхозить, а я такое не особо люблю, да и руки кривые.
Аноним 17/11/23 Птн 16:44:33 546516 74
>>546501
ебать там проблем с ней
Аноним 17/11/23 Птн 16:49:56 546519 75
>>546504
>>546516
Там просто чел самодельщик, по сути надо только дуть ей в торец, сколхозить раструб и приклеить туда что-нибудь на 120 намного проще, чем менять охлад на левый.
Аноним 17/11/23 Птн 18:17:28 546570 76
>>546456
Ахуеть 17к, а вроде недавно по 12 сливали.
> половина 3090 по производительности.
Половина от половины от еще половины, ага.
>>546459
>>546497
Задонать, или смотивируй как-нибудь на соответствующую сумму, затестирую.
Аноним 17/11/23 Птн 18:21:14 546572 77
изображение.png 54Кб, 1396x394
1396x394
изображение.png 57Кб, 1293x494
1293x494
>>546570
>Задонать, или смотивируй как-нибудь на соответствующую сумму, затестирую.
Поздно.
Давай ты мне задонатишь?
Аноним 17/11/23 Птн 18:28:57 546575 78
>>546572
А в наличии еще висят, лол ты рили купил? еще и без скидок и с непонятной доставкой
> Давай ты мне задонатишь?
Прояви себя как-нибудь, сделай ахуительного бота, разработай какую-нибудь механику+промт для локалки и т.д.
Аноним 17/11/23 Птн 18:29:04 546576 79
>>546572
А результаты тестов есть? Любопытно какая скорость генерации на 7В. Ну и стейбл тоже интересно глянуть.
Аноним 17/11/23 Птн 18:40:23 546579 80
изображение.png 16Кб, 590x240
590x240
>>546575
>А в наличии еще висят
Бесконечная 1 штука, хули.
>лол ты рили купил?
Да, попробую, хули, один раз живём.
>>546576
>А результаты тестов есть?
Ждём, продаван обещает отослать. Я ж спецом мистраль запросил, чтобы продавец не отослал свои старые тесты.
Аноним 17/11/23 Птн 18:53:17 546581 81
>>546572
Ты мой герой. Протестируй как придёт на 30-34б пожалуйста.
Аноним 17/11/23 Птн 19:06:14 546591 82
>>546418

Хуйню написала, где про возвращение кролика назад? У меня мистраль 7В тоже самое выдавал, пруфы в прошлом треде.
Аноним 17/11/23 Птн 19:11:31 546596 83
>>546591
> and leave the rabbit on the other side
Это. Конечно, интерпретировать можно по разному, формулировка та ещё, но я лично в таких ситуациях в пользу сетки сужу.
Аноним 17/11/23 Птн 19:12:04 546599 84
https://huggingface.co/Intel/neural-chat-7b-v3-1
прикольная сетка, на уровне около гермеса. тест на книги не прошла, но легко решила про третью сестру и подсчет.
Аноним 17/11/23 Птн 19:14:55 546603 85
image.png 110Кб, 1157x536
1157x536
Аноним 17/11/23 Птн 19:17:58 546604 86
>>546591
И у меня выдавал, но как выстрадал то?
А эта относительно просто решала, только тупила начиная с капусты. Но эта тоже не до конца понимает задачу, может то что 4km была, или дельфин умнее, хз.

А так видно что знакома с шаблоном о том что нужен возврат. Ну и остальные задачки с первого второго раза как орехи щелкала, что большой плюс. Мистрали едва едва вытягивали правильные ответы
Аноним 17/11/23 Птн 19:22:16 546607 87
>>546599
Эти тесты уже довольно многие 7б хорошо проходят, надо уже с перевозкой и сёстрами Петры тестить.
Аноним 17/11/23 Птн 19:25:47 546612 88
>>546607
Вобще не, не многие даже после кучи раз дают правильный ответ на простые вопросы. Но некоторые да, видно что понимают вопрос что уже заметный прогресс в мозгах.
Из 7b таких штуки 3-4 самых топовых наверное.
Ну а перевозка это ад для сетки, там слишком много нужно воображения которого у сетки нема

Скиньте кто нибудь задачку про сестер петры.

Вот кстати мои задачки, потыкайте кому интересно

Solve the riddle. At the beginning there were 2 people in the room. Then 3 more people entered the room. After that, 1 person left the room. How many people are left in the room?

Solve the riddle. It is necessary to transport the goat, the wolf and the cabbage to the other river bank. There is room for the only one item in the boat. The cabbage should not be left with the goat because the goat will eat the cabbage. The goat should not be left with the wolf because the wolf will eat the goat. Give an explanation with your answer, outlining your careful reasoning.

There are ten books in the room, the person has read two of them, how many books are there in the room?

There are three sisters in the room. The first of them is reading, the second is playing chess, the question is - what is the third doing? Hint - the answer is in the question itself.

Solve the riddle. We need to transport cabbage, a rabbit and a wolf to the other side of the river. There is only one seat next to a person in a boat, so the boat cannot carry more than one item at a time. You cannot leave a rabbit and cabbage together, because the rabbit will eat the cabbage. You also can’t leave a wolf and a rabbit together, the wolf will eat the rabbit. How can a person move these objects to the other side without violating the conditions of the task? First, go through the options and choose the one in which all the conditions of the problem are met.
Аноним 17/11/23 Птн 19:30:25 546620 89
>>546612
Petra is a girl. She has three brothers. Each of the brothers has three sisters. How many sisters does Petra have? Give an explanation with your answer, outlining your careful reasoning.
Аноним 17/11/23 Птн 19:36:24 546626 90
image.png 58Кб, 1154x468
1154x468
Лучший ответ от интела на вопрос, сразу видно что сетка не может думать о двух вещах одновременно. Сразу 2 условия не может удержать, и могла бы найти верный ответ, но без осознания че как не найдет. Наверное не хватает голов внимания или че там у сеток делается.
Аноним 17/11/23 Птн 19:40:11 546628 91
>>546612
Ладно, с шахматами и правда у 7б так себе дела, хотя и задача прям чёткого правильного ответа не имеет из-за бэкдора в виде шахмат в одиночку/по интернету.
Аноним 17/11/23 Птн 19:43:45 546632 92
>>546628
Ну, там проверяется понимание сетки поведения людей. Человек сразу ответит что сестры скорей всего играют вместе. Так то да, сетки правильно отвечают в рамках вопроса - ничего, спит, смотрит тв, играет и тд. Так как четкого ответа нет. Но есть наиболее очевидный для человека.
Аноним 17/11/23 Птн 19:45:49 546633 93
>>546612
>Вот кстати мои задачки, потыкайте кому интересно
Раз уж пошла такая пьянка, то вот моя мама вспомнила, я перевёл
>The family includes two fathers, two sons, one grandfather and one grandson. How many people are there in the family?
Если прям совсем по классике, то на инглише находится почему-то только такой вариант, так что по идее нейронки должны отвечать на него чётче.
>Two fathers and two sons are in a car yet there are only three people in the car. How is this possible?
Аноним 17/11/23 Птн 19:47:50 546634 94
image.png 27Кб, 1148x170
1148x170
Интел. То умножает их то складывает, ни разу не поняла как считаются родственники, то есть осознания того как взаимосвязаны родственники у сетки нема. Не понимает, как и в случае с перевозкой.
Ну, можно считать эти вопросы новой планкой проверки на мозги у сетки.
Аноним 17/11/23 Птн 19:51:39 546639 95
image.png 24Кб, 1152x119
1152x119
image.png 18Кб, 1149x98
1149x98
>>546633
Ну со второго раза решила, но дедом не назвала. Впрочем и не ошиблась явно указав на двойную роль.
Аноним 17/11/23 Птн 19:59:22 546647 96
Аноним 17/11/23 Птн 20:09:59 546654 97
>>546632
Может быть, но я, например, тоже не сразу на шахматы подумал. Хотя может это я аутист с айкью как у 7б просто.
Аноним 17/11/23 Птн 20:47:45 546677 98
забавно, в айюми тесте интел на первых местах
Аноним 17/11/23 Птн 20:51:28 546683 99
>>546677
Да туда бы и твоя мамка попала, если бы её протестировали кумеры.
Аноним 17/11/23 Птн 21:02:39 546692 100
>>546683
код красный код красный
Аноним 17/11/23 Птн 21:25:26 546706 101
>>546501
Да видос баян, чела в каментах спрашивали о скорости — он молчит. Значит не все тк гладко.

Ну и 10-15 на 13б — это 2-3 на 70б.
А если мы возьмем 3090, то там 10 токенов. Если вчетверо делать — опять получается 2,5 токена.

Короче, с реддита чел обещал 20 токенов/сек на 34б, и паритет с 4080, а на че-то как-то не получается.

>>546570
«Недавно» по 22 лежала. =) Так шо уже дешевле, чем было.

> Задонать, или смотивируй
Не, давай ты задонатишь мне, а я все потестирую за тебя? :)

>>546572
Крут.
Но почему не озон-картой-то? Там же бесплатно и по СБП без комиссии перевести. Изи.

>>546575
> Прояви себя как-нибудь
Ты первый попросил — стало быть что-то из этого сделал? :) Показывай.

>>546579
Хорош, красавчик.
Аноним 17/11/23 Птн 21:41:22 546721 102
1556071474898.png 438Кб, 719x716
719x716
Потестил инцела, лучше Мистраля это точно, но хуже опен-чата. По РП неплохо, может вываливать какие-то дикие простыни на 1000 токенов с подробным описанием каждого движения персонажа, при этом держится в текущем моменте и не скатывается в бред. Без пенальти на повторы работает нормально. Что неприятное заметил - часто проёбывает звёздочки, как будто РП-файнтюн какой-то. Тест на агрессию прошла, но привкус сои есть. Вот это говно особенно сильно ебёт, я ебал такое читать:
> The rest of your encounter consists of exploring new boundaries, trust, and learning from each other. This exchange deepens your bond and your respect for each other, knowing that true understanding can only be achieved when one's vulnerability meets another's unwavering care and compassion.
> First, let's work on the connection we've been building through shared experiences, conversations, and mutual understanding. It's essential for us to continue nurturing that bond before progressing in this manner. But, please know that I'm always here to support you emotionally and to be a guide as you discover the world around you.
Литералли пикрилейтед я во время чатинга с этим инцелом.
Аноним 17/11/23 Птн 21:47:39 546732 103
>>546706
> он молчит
Или уже продал или хочет толкнуть, вот и не сознается.
> 20 токенов/сек на 34б
Сурьезно? Да, сурьезно, а ты не верил? С такой псп врам и чипом если десятка наберется уже круто будет, и есть вероятность торчепроблем.
> Не, давай ты задонатишь мне, а я все потестирую за тебя? :)
Что ты можешь протестировать культурный любитель детишек? Напили, например, готовый аппарат чтобы заставить мультимодалку точно и качественно оценивать время создания пикчи исходя из ее стиля, офк все это обернуто в батчи. Или сделай проксю с взаимодействием ллм. Это все не трудно и доступно, просто нужно подумать и немного времени потратить, тогда может подумаю.
> Ты первый попросил — стало быть что-то из этого сделал?
За этим какая-то логика или поехал к вечеру? Тестов моих в треде хватает, нужно следовать твоему примеру и везде подписываться?
Аноним 17/11/23 Птн 22:38:23 546759 104
>>546721
>Тест на агрессию прошла, но привкус сои есть. Вот это говно особенно сильно ебёт, я ебал такое читать
Это не привкус сои, а самая настоящая тотальная соефикация. Меня аж передернуло когда я это читал.
Аноним 17/11/23 Птн 23:46:28 546822 105
>>546759
Внезапно поддвачну, довольно странная херь в которой будто намеком на ласку и доверие маскируется какая-то повестка.
Аноним 17/11/23 Птн 23:55:34 546828 106
image.png 14Кб, 782x275
782x275
>>545044 (OP)
Как засунуть новый Prompt template в SillyTavern/oobabooga?
Аноним 17/11/23 Птн 23:57:56 546831 107
>>546828
Там и толкай с этими тегами. Токенизатор что надо с ними сделает.
Аноним 18/11/23 Суб 00:47:48 546867 108
>>546721
Пиздец, я такой срани даже на гпт не видел.
Аноним 18/11/23 Суб 01:23:48 546884 109
>>546831
>Там
Где? Вообще ничего не понял.
Аноним 18/11/23 Суб 02:13:17 546905 110
>>546706
>Но почему не озон-картой-то?
Потому что у меня целый, нетронутый, девственный анус. Не обращай внимания, иным не понять.
Аноним 18/11/23 Суб 02:18:28 546907 111
>>546905
> нетронутый, девственный анус
> живет в этой стране
> имеет банковкую карту
> зарегистрирован на озоне
Настолько наивен? Сейчас бы вычерпывать воду ковшиком имея трехметровую пробоину в днище.
Аноним 18/11/23 Суб 02:25:19 546909 112
>>546907
Ты просто путаешь, где лёгкая пробоина, а где днище. Так вот, очевидно, что регистрация банковских карт в левых магазинах (а сейчас каждый первый прыщ их выпускает) это намного более зашкварное действие, нежели чем просто иметь учётку на левое имя.
Аноним 18/11/23 Суб 07:44:05 546972 113
>>546909
1. У каждого вменяемого человека есть дополнительная карта для левых магазинов.
2. В Озоне ты привязываешь свою карту когда платишь напрямую а НЕ ЧЕРЕЗ ОЗОН БАНК.
В Озон банке ты привязываешь только номер телефона что чревато спам звонками, но это уже классика, давно заблокировал все входящие не из контактов, думаю это вообще БАЗА современного мира и кидаешь на него сумму оплаты через СПБ.
Аноним 18/11/23 Суб 08:11:10 546975 114
нихуя там в клозедаи движуха началась, не по делили пирог
Аноним 18/11/23 Суб 08:17:08 546979 115
изображение.png 678Кб, 820x633
820x633
>>546975
Там сразу двоих выпиздили. Причём Альтмана из-за утраты доверия. Топ-менеджеров редко выпиливают с такой формулировкой, так что видимо что-то довольно серьёзное.
Аноним 18/11/23 Суб 08:45:11 546989 116
>>546979
Брокман вроде как сам ушел, но такие резкие телодвижения что то действительно серьезное или опасное. Будто они торопились как можно быстрее сделать это не смотря ни на что.
Аноним 18/11/23 Суб 09:19:38 547000 117
>>546975
Индусам не нужны кабанчики-посредники. Теперь уже официально будут частью майков.
Аноним 18/11/23 Суб 10:21:28 547023 118
Можно мнение элиты о gptq vs awq?
Аноним 18/11/23 Суб 10:33:24 547027 119
>>547023
> awq
Ненужно. PPL хуже чем у GTPQ 32g, жрёт памяти больше, скорость говно.
Аноним 18/11/23 Суб 12:10:44 547089 120
image.png 83Кб, 1155x447
1155x447
Кстати раз уж начали болтать об 11b в соседней ветке, то нашел старый и протестировал его вопросиками
про деда решить не смог как не крутил.
mistral-11b-cc-air-rp.Q6_K
Аноним 18/11/23 Суб 12:26:29 547106 121
image.png 37Кб, 1145x215
1145x215
image.png 24Кб, 1175x155
1175x155
image.png 69Кб, 1163x453
1163x453
Сестер петры решить не может, перевозка чуть сильнее анализ, надо еще потыкать интересные полотна расписывает при пропытке решить. Кажется у бутерброда на 11b больше воображения чем у обычных мистралей.
Аноним 18/11/23 Суб 12:27:05 547108 122
image.png 65Кб, 1158x605
1158x605
image.png 49Кб, 1184x364
1184x364
Аноним 18/11/23 Суб 13:51:55 547196 123
Я верно понимаю что такой буст моделей связан с тем что раньше их обучали просто на сырых текстах, а теперь на диалогах с gpt-4? Просто тогда соя это будет закономерным свойством.
Аноним 18/11/23 Суб 13:59:07 547208 124
>>546732
Как контрибутор силлитаверны могу только кекать с предъяв. =3
Не трогает.

> За этим какая-то логика
Да, погугли, как она работает. =D

> Тестов моих в треде хватает
Тесты — это не «например, готовый аппарат чтобы», но-но-но, не считается, не снижай планку для себя любимого. )

Но вообще, рофлим, братан, не напрягайся.

>>546905
Так и у меня… Братан, это ж не связано… =(
Или у вас очень коварный озон в регионе. О_о

>>546907
Но, кроме рофлов, так.
Мы и так слишком обложены со всех сторон, лишняя виртуальная карта не сделает сильно хуже.

Вообще это оффтоп, но давайте по чесноку.

>>546909
У многих есть аккаунт в зеленом банке — а это уже слитая инфа по дефолту. После аккаунта у зеленых можно регаться ваще где хочешь — хуже точно не будет. Знакомому спам-звонки начались спустя день после того, как он завел счет там. Т.е., какой-то менеджер слил базу в течение суток. Неплохая частота? Раз в день, золотой стандарт.
Окей, допустим у тебя, анон, как и у меня, нет счета в зеленом банке. Но если ты пользуешься Яндексом, имеешь акк ВК или просто таришься в Вайлдберрис… Ну мы все помним, какие там были утечки и как часто.
Чем хуже Озон? Ну, у них банк, ок. И что, чем это хуже или лучше QIWI или Яндекса?
Если мы говорим не о финансовой безопасности, а об анонимности, то я искренне надеюсь, что ты сидишь из-под виртуальной машины, характеристики которой процедурно генерируются при каждом новом запуске, через впн, тор и прокси (желательно несколько) и браузером с отключенным js и cookie, и Random User-Agent сверху. Иначе-то ты не то чтобы сильно анонимен.
У меня лично все лишь браузер настроен, но сижу с десктопа и без впна.
И ставлю ебучие смайлики. =)

Но я к тому, что анонимность должна быть или максимальная, или хули париться, если ебло наружу, простите.
А финансово… Сильно хуже ты озон-картой себе не сделаешь.
Кидать по сбп себе нужную сумму и покупать — все остальное время карта пуста и никаких трат.

>>546975
НИХУЯ СЕБЕ

>>547000
Плюсую, возможно купили с потрохами.
Аноним 18/11/23 Суб 14:18:14 547236 125
>>546975
Не может не радовать, больше форков и конкуренции, меньше картельных сговоров и монопольной регуляции. Главное чтобы отпочковалась норм команда а не комиссия по сое что начнет активизмом всех кошмарить.
>>547023
Exl2, тут как в меме лол.
>>547196
Нет, обучали на синтетике уже с начала года, просто сейчас имплементировали результаты множества исследований по методикам обучения, лучше отфильтровали и сбалансировали датасеты, и ответственнее к синтетическим стали подходить. Соя есть там где девы допустили ее протечки или специально ее вносили.
>>547208
Почему читая твои наезды испытываешь не хейт а лютейший кринж? Главная контрибьюция - вот такие шизопосты в тред и срачи, для остального ты реально слишком недоразвитый. И еще что-то предъявляет, о да.
Аноним 18/11/23 Суб 14:18:39 547237 126
>>547196
Соя везде есть, в той или иной степени просачивается. Даже в пигмалионе она есть. От этого никак полностью не избавиться, если только не тренировать на своих собственных датасетах.
Аноним 18/11/23 Суб 14:41:42 547262 127
обнова кобальда
Аноним 18/11/23 Суб 14:43:22 547265 128
>>547237
> Даже в пигмалионе она есть.
Если про ллама версии говорить то они крайне соевые были. Не стоит путать сою с позитивным настроем изначально, то что в первых запросах без контекста и требований сетка старается быть доброй и так реагировать - это нормально, не нормально когда она начинает читать мораль юзеру и игнорить инструкции отыгрывать жестокость и подобное.

Кто-нибудь более тесно игрался с мультимодалками? В частности насколько эффективно работают проекции ллавы с обычными 13б без файнтюна, и как падает качество визуализации? Уж очень она тупая сама по себе, выполнение более менее сложной инструкции где нужно разделять запросы с противоположными требованиями (типа для этого параметра подробно для этого лишь одно слово) дается ей тяжело.
И заодно - какую из 13б сеток (или что-либо что может влезть в врам консумерской жпу) сейчас отмечают самой умной для QA?
Аноним 18/11/23 Суб 14:44:47 547266 129
>>547262
Эх, вот бы какую-нибудь оптимизацию для 8гб инвалидов завезли. Так ведь нету.
Аноним 18/11/23 Суб 14:48:37 547270 130
>>547265
>Кто-нибудь более тесно игрался с мультимодалками?
Да, и даже подрубал их кодеры мультимодальности к другим сеткам схожего размера. Ну, работает, только чуть хуже.
А вобще если особых мозгов не нужно попробуй мультимодалку на 3b, быстрее работает хоть. Вот это, на сколько помню https://huggingface.co/NousResearch/Obsidian-3B-V0.5
Кажется их поддержку добавили в лламу.спп недавно
Аноним 18/11/23 Суб 14:50:44 547273 131
>>547266
Ну, добавили более точную автонастройку слоев, так что считай уже оптимизация.
Да и код постоянно улучшает скорость, там же от герганова самое сочное таскается улучшая производительность с каждой обновой.
Аноним 18/11/23 Суб 14:55:49 547279 132
>>547270
Наоборот нужно как можно умнее и лучше по восприятию пикч. Может еще их файнтюны где есть, а то не встречал? Ллаву 7б в начале катал - та вообще дегенеративная, 13b Q8 уже ничего, но всеравно тупая и фейлит. Например, может проигнорить часть инструкции, или добавление уточняющих подсказок чтобы отмечала нужные вещи приводит к интерпретации что их нужно обязательно юзать. Например, что-то типа
> отмечай необычную одежду персонажей типа китайского платья с вырезом, двубортного пиджака или бикини купальника если такая есть
иногда приводит к ответам
> девушка одета в китайское платье, пиджак и бикини
что довольно рофлово. Температура офк в порядке.
Аноним 18/11/23 Суб 15:00:43 547286 133
>>547279
Бакклава есть еще, файнтюн мистраля на мультимодальность
https://huggingface.co/SkunkworksAI/BakLLaVA-1
Но я бы без тестов не скидывал со счетов 3b, если не использовать ее для разговоров то она может быть лучше той же ллава в опознании изображений, тестить надо а потом уже. А еще есть https://huggingface.co/adept/fuyu-8b
Аноним 18/11/23 Суб 15:51:32 547349 134
>>547236
Учитывая, что я ни на кого не наезжал, я даже хз, на что ты отвечаешь.
Ну, то есть, очевидно, что на свою шизу обижаешься. И еще говоришь о каком-то развитии.
Ну, тут уж ничего не поделать, бугурти дальше на свои фантазии. =)

>>547270
Герганов добавил поддержку Обсидиана? Ето хорошо, ето мы потестируем. Разрабы как всегда обещали десять из десяти и распознавание любого текста. =D

>>547279
Нет, ничего лучше Ллавы-1,5 нет. Если тебе нужна полноценная мультимодалка.
Как мне кто-то предлагал — запустить две модели, чтобы умная задавала вопросы ллаве, и формировала адекватные ответы.
Думаю, рабочая схема, но я так и не занялся.

>>547286
Фуйу по их же тестам хуже Ллавы и Квена.
Даже их медиум-версия.
Так шо хз-хз.
Молодцы, что делают. Но…
Аноним 18/11/23 Суб 16:20:24 547382 135
1f44de71d2a21d0[...].jpg 208Кб, 1350x900
1350x900
image.png 18Кб, 960x163
960x163
>>547349
>Герганов добавил поддержку Обсидиана? Ето хорошо, ето мы потестируем. Разрабы как всегда обещали десять из десяти и распознавание любого текста. =D

Ага, щас проверил на последнем релизе. У меня падает при запуске картинки на сервере, но работает так

.\llava-cli.exe -m ..\obsidian-f16.gguf --mmproj ..\mmproj-obsidian-3B-f16.gguf -t 6 --temp 0.1 --image .\1f44de71d2a21d02754b8c9a40ff4a7d.jpg -p "describe the image in detail."
Аноним 18/11/23 Суб 16:31:15 547391 136
>>547382
Пасиба, сейчас попробую картинку в запуск добавить.
Аноним 18/11/23 Суб 16:44:08 547397 137
Ну, слушай. Обсидиан относительно неплох.
Кмк, Ллава, Бакллава и Обсидиан по качеству располагаются по своему объему.
Но при этом, качество отличается не в два и четыре раза.
При этом скорость как раз линейно отличается (что не удивительно, тащемта=).
Так что, Обсидиан имеет право на жизнь, хотя и в разумных рамках.

Щас накачу на свой комп и попробую на видяхе покрутить.
Аноним 18/11/23 Суб 16:44:50 547398 138
>>547208
> и браузером с отключенным js и cookie, и Random User-Agent сверху. Иначе-то ты не то чтобы сильно анонимен.
Всегда ржу с таких диванных анонимусов. Такие настройки это 100% деанон, прямо светится на приборной доске ФСБ и ЦРУ. Настоящая анонимность это максимально общие настройки, см. тор браузер. В нём и JS включен, и куки отрабатывают, и UA фиксирован. И он в сто крат анонимнее твоего говна.
Аноним 18/11/23 Суб 16:46:15 547399 139
>>547286
Похлаву еще на релизе тестил, не сказать что лучше ллавы, но надо попробовать.
> А еще есть https://huggingface.co/adept/fuyu-8b
Вот это интересно, архитектура совсем иная и может лучше отрабатывать. Правда смущает
> the model we have released is a base model. We expect you to need to finetune

Надо еще в сторону имитации chain of thought и последовательностью запросов с более простыми инструкциями с сохранением их в контексте попробовать. Так ей точно будет легче, вот только здесь придется еще семплинг на каждый запрос свой подбирать, иначе пиздец.
>>547349
> Учитывая, что я ни на кого не наезжал
Уже забыл что выше писал, за контекст выскочило лол.
> но я так и не занялся
Такой всесторонне развитый эксперт, и не занялся, вот же беда.
Аноним 18/11/23 Суб 16:56:43 547406 140
Я нюфаг. Для более или менее нормальной модели нужна видюха с 24 гигами минимум? Уровня той, что сверху кидали.
И из чего вообще модель состоит? Типа тупо набор слов, весящий несколько гигов?
Аноним 18/11/23 Суб 17:04:45 547408 141
>>547398
Тоже хорошая мысль!
Но в таком случае ты светишься у всех корпораций, и это не стократ анонимнее — а просто неанонимно и все. =) Как бы, магии не случается.
Поэтому толку от всей этой хуйни в итоге все равно нет.
Тут или в тайгу, в землянку (и не оставлять теплового следа!), или не срать под себя в жизни и не выебываться.

>>547399
Да не, я помню, просто ты галлюцинируешь. =)

> Такой всесторонне развитый эксперт, и не занялся, вот же беда.
Ой, как ты меня обидел, как обидел!.. =D
Продолжай. =)

>>547406
Все зависит от твоих желаний.
Можно в видеопамять грузить, можно в оперативную.
В оперативной гораздо медленнее.
Для 13B-модели хватит 12 гигов видеопамяти в дефолте.
Для простой болталки на 20B-модели хватит 32 гига оперативы.
Для качественного общения с 70B-моделью понадобится 2 24-гиговой видяхи.
Но можно в 64 гига оперативной уложиться — но ждать очень долго.
Можно выгружать часть в видеокарту, часть в оперативку — но 70B все равно будет медленно.
А вот 20B будет ниче так.

Есть бояре в треде, есть нищуки.
Есть облако (гугл коллаб).
Аноним 18/11/23 Суб 17:07:32 547409 142
>>547398
> тор браузер
Проорал с мамкиного анонимуса. Тор как раз уже на этапе СОРМ палится, все входные ноды известны, конкретный юзер легко пробивается по времени запросов, благо "анонимусов" с Торами не много. Если конкретно тебя захотят найти - завтра же в дверь будут стучаться.
А вообще анонимность это когда не могут твою личность определить не приезжая по адресу, а не когда не могут тебя найти. И лучше всего делать так чтоб никто не захотел ехать к тебе, быть серой массой быдла в бигдате, а не подписываться в СОРМе анонимусом юзая Торы и прочее говно. Прецеденты в рашке уже были, когда под Тором какую-то экстремистскую хуйню делали в интернете и думали что всё окей, но через неделю уже собирали мыльно-рыльное.
> Такие настройки это 100% деанон, прямо светится на приборной доске ФСБ и ЦРУ.
У ФСБ не светится, если под голым HTTP не полезешь куда-то. А на ЦРУ кому не похуй? К тебе в Тулу приедут ликвидировать тебя за пост на дваче?
Смысла, конечно, мало от этого говна. Галка "не отслеживать" в браузере и то полезнее.
Аноним 18/11/23 Суб 17:10:38 547412 143
>>547408
>Для 13B-модели хватит 12 гигов видеопамяти в дефолте.
12 гигов свободных, или 12 гигов видюхи в целом? Второе у меня есть, первого - нет.
Аноним 18/11/23 Суб 17:24:46 547423 144
>>547412
Зависит от контекста (сколько будет программа помнит истории вашей переписки).
Вообще, конечно, не впритык 12 гигов.
Для 4к контекста около 11 гигов свободных.
Для 2к — 8,5 гига.

Пусть меня поправят.
Аноним 18/11/23 Суб 17:47:50 547437 145
>>547412
Можно купить вторую дешманскую видуху для этого. А конечно сам прифегел когда начал следить что система сжирает 6гигов видеопамяти.
Аноним 18/11/23 Суб 17:53:01 547445 146
>>547408
>Но в таком случае ты светишься у всех корпораций
Схуяли?
>>547409
>Тор как раз уже на этапе СОРМ палится
Читаешь жопой? Я не предлагал использовать тор, я указал, что в тор браузере используются верные подходы к обеспечению анонимности, в отличии от мамкиных хакиров, которые палятся по рандомному UA.
>быть серой массой быдла в бигдате
Да, именно так. Поэтому я и написал, что >>547208 долбоёб, делающий себя максимально интересным и выделяющимся.
>Прецеденты в рашке уже были, когда под Тором какую-то экстремистскую хуйню делали в интернете и думали что всё окей
Пруфы? Я помню только когда брали за жопу владельцев выходной ноды.
>У ФСБ не светится
А в сарказм ты не умеешь.
>>547437
>А конечно сам прифегел когда начал следить что система сжирает 6гигов видеопамяти.
Ты это, киберпанк выгрузи. Система максимум пару гигов жрёт, и то благополучно сливает в оперативу.
Аноним 18/11/23 Суб 17:56:29 547448 147
>>547437
Что у вас там запущено? У меня от силы 1 гиг, а чаще 300 мб.

>>547445
> Схуяли?
=) Шо тут скажешь.
Google Analytics не для тебя сделано.
И таргетной рекламы ты не видишь.
И все прекрасно в вашем соевом мирке.
Кайфово. Рад за тебя.
Аноним 18/11/23 Суб 18:17:36 547471 148
image.png 62Кб, 628x584
628x584
Блин проверил кучу моделей и только одна может исполнять простую инструкцию как прошу. Остальные чудят как будто у них вообще или не РП датасеты или соей намазано или в рп модель вечно забирает мою роль. Что с ними всеми не так? Почему только Emerhyst 20b чето может. Почему Undi 95 не продолжает развивать Emerhyst?
Аноним 18/11/23 Суб 18:37:52 547487 149
>>547471
>Блин проверил кучу моделей
>ни одной 70B
Говна навернул.
Аноним 18/11/23 Суб 18:42:11 547490 150
>>547448
>>547437
vscode окон 6 и браузер часто в браузере у меня по 100 вкладок открыто и несколько браузеров. Ускорение графики браузерами сжирает дофига. Оперативку тоже жрет, у меня 30+ гб обычно занято. Мне проще докупить оперативы и видюхи чем менять привычки.
Аноним 18/11/23 Суб 18:44:23 547491 151
>>547471
А че хоть за магическая инструкция?
Аноним 18/11/23 Суб 18:49:44 547496 152
>>547487
И не одной топовой 7b в 8q, ни гермеса, ни опенчата, зато какой то нишевый мусор. Ну синтия ладно, лол. Но она слабее. Да и из 20b одна только любимая выше 3km.
Что он от них на 3 квантах ждет хз.
Аноним 18/11/23 Суб 18:56:28 547504 153
Аноним 18/11/23 Суб 19:10:47 547522 154
>>547496
ой да ладно что вы к человеку прикопались чудес нет, все тюны +/- одинаковы. Даже если где то на середине диалога переключишь сеть часто они говорят один в один. Мне кажется что тут скорее эффект плацебо как там uni95 выкладывал дифы мистраля, а потом оказалось что они нерабочие, а куча людей отписались как им понравились новые тюны.
Аноним 18/11/23 Суб 19:15:11 547526 155
>>547522
>ой да ладно что вы к человеку прикопались чудес нет, все тюны +/- одинаковы.
Ну нее, все таки тюны даже отвечают по разному. Разным размером, разным стилем, даже на одной карточке. Не знаю уж как ты не заметил.
Аноним 18/11/23 Суб 19:17:06 547527 156
>>547437
> А конечно сам прифегел когда начал следить что система сжирает 6гигов видеопамяти.
Майнеры выключи, на системе с одним монитором оно больше 700 метров не должно кушать, да и то из них приличная часть выгружаемая.
>>547471
Что там за инструкция? Алсо 13b k_s - грустновато.
>>547487
Их запуск не так прост, тесты бы сильно затянулись, лол.
>>547490
> Ускорение графики браузерами сжирает дофига.
Нет, там иногда можно увидеть как метров 900 сверху схавало максимум и это выгружается.
Аноним 18/11/23 Суб 19:32:02 547553 157
>>547527
да простенькая на выполнение условий. Например опиши такой то бар. Описала сетка. Дальше начинаю раскручивать тян из бара. И действия и диалоги ведет только Emerthyst. Остальные тупые как пробки или у них нет датасетов под это. Мистраль 11б смог в описание бара, но в взаимодействие с тян не смог от слова совсем. Соевое дерьмо.
Аноним 18/11/23 Суб 19:38:27 547565 158
>>547487
ля ну видюхи на 70b нет. Кто знает сервисы где можно потестить 70b?
Аноним 18/11/23 Суб 19:38:29 547566 159
>>547553
Увы, суждение сильно субъективно и на истину не претендует, но складывается ощущение что к другим моделькам придется приспосабливаться и менять паттерн действий чтобы было норм, иначе разочарование. Эмерсист выглядит несколько выдающимся на фоне собратьев и может многое, и то иногда его приходится вести за ручку, но хотябы старается и помнит, достойная моделька. Удовлетворить построение более менее сложного сюжета по ходу могут 70, но с ними нужно железо или терпение. 30б могла бы стать топовой золотой серединой, но их не завезли, может китайца сейчас затюнят что станет прилично.
Аноним 18/11/23 Суб 19:44:58 547581 160
image.png 828Кб, 696x580
696x580
image.png 1178Кб, 712x864
712x864
>>547566
ну 30b опять же надо 4090.
Да. Эмертист очень радует по сравнению с другими идиотами.. Единственный из всех кто чет может. Кстати понравилась карточка с диктаторами. Но ля я ору с того что она иногда использует чужие инструкции. Щас у меня уже Муссолини заговорил на немецком, а до этого опять же применял гитлеровскую замену th на z....
Аноним 18/11/23 Суб 19:45:49 547583 161
image.png 780Кб, 708x592
708x592
Аноним 18/11/23 Суб 20:04:17 547600 162
>>547490
Может докупить видяху, чтобы на нее рабочий стол повесить? :)
Я вот подумываю попробовать такой трюк. Хз, не вникал еще, как там с настройками.
Аноним 18/11/23 Суб 20:09:47 547604 163
>>547581
что то глаза вытекают на таком ярком фоне
Аноним 18/11/23 Суб 21:59:40 547686 164
image.png 38Кб, 980x356
980x356
image.png 36Кб, 960x312
960x312
Скачал предпоследнюю версию таверны и теперь в ней не дает апи ссылку кинуть для стрима. Как исправить. Где этот апи флаг прописать?
Аноним 18/11/23 Суб 22:00:00 547688 165
Какая сейчас самая умная из 70B? Полуторная ситния?
Аноним 18/11/23 Суб 22:06:28 547696 166
>>547688
Они по-моему все плюс-минус одинаковые по мозгам. Выбирать надо по стилю и отсутствию сои.
Аноним 18/11/23 Суб 22:25:50 547706 167
>>547696
Ну под умной я как раз имел ввиду минимум сои и нейтральный стиль, в котором идти против пользователя - норма
Аноним 18/11/23 Суб 22:36:05 547714 168
>>547706
Euryale 1.3 топчик. Есть и более свежие версии, но я их пока не тестировал.
Аноним 18/11/23 Суб 22:37:16 547715 169
Где можно глянуть на промпты? Мой вроде норм но немного не то.
Аноним 18/11/23 Суб 22:47:10 547718 170
Смотрю в шапке бенчмарк а псифайтер говорят не так то и хорош.
А в топе вообще какой то нейролинк, наверное тот что прямо в голове.
Аноним 18/11/23 Суб 22:50:37 547719 171
>>547686
ЕМНИП там сейчас один адрес.
>>547718
Все бенчи говно на самом деле. Официальные тестят сою и задроченность на тесты, неофициальные просто говно и считают мемберы в выводе сетки.
Аноним 18/11/23 Суб 22:55:01 547721 172
>>547719
нэ. Так раньше же был нормальный стриминг. Куда дели, я перешел ради Min P на новую версию, а тут такая засада.
Аноним 18/11/23 Суб 23:07:27 547723 173
Тесты мультимодалок интересны? Кидайте пикчи и промты.
Аноним 18/11/23 Суб 23:21:50 547731 174
image.png 171Кб, 1364x548
1364x548
>>547723
Describe a ramen room where loli slave girls in lewd outfits fuck clients. NSFW scenes included.
Держи. Чисто без промптов и пикч попробуй результат. Если сможет написать достойно то заинтересует.
Аноним 18/11/23 Суб 23:25:21 547735 175
>>547731
> мультимодалок
Можешь скинуть свои извращенные картиночки с лолислейвами на опознание и задать вопрос по ним, общаться с ними текстом нет смысла.
Аноним 18/11/23 Суб 23:29:18 547738 176
>>547735
а я подумал сначала что несколько текстовых моделей вместе. Не таких у меня нет.
Аноним 19/11/23 Вск 00:41:40 547792 177
Делитесь на каких модельках кумаете.
Аноним 19/11/23 Вск 00:43:51 547793 178
>>547504
Очень требовательна к промпту. Может выдавать перлы но у меня проблемы навыка подобрать нормальный рабочий промпт.
Аноним 19/11/23 Вск 01:09:51 547801 179
https://rentry.co/rintf
Сраный рандомайзер, и как это оценивать? Надо с гопотой еще сравнить. Fuyu и Obsidian устойчивую генерацию yaml по шаблону нормально не осиливают, похлава и ллава могут.
Аноним 19/11/23 Вск 01:58:56 547826 180
>>547504
Ещё один шизофранкенштейн?
Аноним 19/11/23 Вск 04:49:43 547869 181
>>547801
Добавил еще других для интереса и заодно попросил лламу обобщить на основе трех наборов данных. В общем потанцевал вроде как и есть, но нужно оптимизировать и бороться с галюнами. Если есть идеи по необычным пикчам что туда нужны - можно добавить, эти большей частью мусорные из отсеянного.
Аноним 19/11/23 Вск 05:14:23 547875 182
>>547869
>Your input image may contain content that is not allowed by our safety system.
Я знал что так и будет в этом проприетарном говне. А это через АПИ так или на сайте?
Ну и имя персонажа с первого пика знает только CLIP, остальные максимум аниме стиль угадывают.
Аноним 19/11/23 Вск 07:52:52 547899 183
2023-11-1910-51[...].png 2Кб, 507x93
507x93
Почему так происходит? Приходится ждать 2-3 раза обработки заново перед ответом.
Аноним 19/11/23 Вск 08:29:58 547907 184
Тем кто не тестил Min P по этой статье очень и очень советую.
https://www.reddit.com/r/LocalLLaMA/comments/17vonjo/your_settings_are_probably_hurting_your_model_why/
Тестил на предпоследней версии таверны. Стриминг не работает через угабугу, но работает через кобольд.
Для теста юзал Emerhyst-20B.q3_k_m . Показало даже лучше чем раньше. Интересно как Min P раскрывает 70b, жду ваших комментов аноны. По мне благодаря этому Min P во первых вырастает креативность ответа и становится мало шизы. Промпты вообще не юзал.
Аноним 19/11/23 Вск 08:36:56 547908 185
>>547899
У тебя размер контекста в таверне завышен по сравнению с контекстом в загрузчике.
>>547907
>Интересно как Min P раскрывает 70b, жду ваших комментов аноны.
Никакого чуда не увидел.
Аноним 19/11/23 Вск 08:53:05 547909 186
>>547908
70b сетка? Min P просто устраняет все маловероятные токены и по моему очень положительно это влияет на ответ. Другие настройки так же выставлял?
Аноним 19/11/23 Вск 08:59:28 547910 187
>>547909
>70b сетка?
Да, Q5_K_M, кажись на синтии пробовал.
>Min P просто устраняет все маловероятные токены
Так же как и Tail Free Sampling. Да и вообще многие семплеры именно то и делают, просто по разному.
>Другие настройки так же выставлял?
А то, профиль отдельно сделал. Эту ссылку если что кидали в начале треда >>545145
Аноним 19/11/23 Вск 09:40:04 547916 188
>>547910
А ну да. Я просто листал треды и наткнулся решив затестить. Но может дело еще в модели. У меня на 20b стало креативнее и менее однообразно.
Аноним 19/11/23 Вск 10:07:04 547919 189
Тоже себе профиль по ссылке сделал, заебато стало, но приходится с температорой играть для лучшего результата
Аноним 19/11/23 Вск 10:54:25 547923 190
>>547919
а че не так с темпурой. На 1 это золотая середина вроде не?
Аноним 19/11/23 Вск 10:57:26 547924 191
>>547923
когда тесты загадок делал то иногда работало лучше или с 0.7 или 1.5 или между, выше уже ухудшались результаты
Аноним 19/11/23 Вск 11:31:21 547945 192
>>547908
> в таверне завышен по сравнению с контекстом в загрузчике.
Спасибо.
Аноним 19/11/23 Вск 12:00:58 547954 193
Как работают лорбуки? Я правильно понимаю, что указывается токен и дополнительное определение к нему, которое вставляется в посылаемый в модель текст, если там есть токен? И тогда если я хочу определить там базовые вещи, которые обычно не упоминаются, но подразумеваются, то лорбук будет бесполезен? Например если я хочу чтобы у людей было по три руки, то сетка будет почти всё время об этом не в курсе, т.к. мы не говорим "Человек Саша шла по шоссе и делала феляцию сушке".
инб4: хочешь такое необычное - пиши в карточку персонажа/настройки/тренируй лору
Аноним 19/11/23 Вск 12:09:40 547956 194
>>547954
ну, на сколько я понимаю тебе нужно указать что у саша человек, а у человека три руки. И я так понимаю это 2 отдельных записи в лорбуке. Хотя не ебу, не пользовался
Аноним 19/11/23 Вск 12:24:12 547961 195
>>547954
Я так понял что лорбук добавляет в контекст дополнительные записи, если в последнем сообщении шла речь про ключевые слова из лорбука.
Например ты спрашиваешь "Есть ли поблизости какой-нибудь город?". А в Лорбуке есть запись "Города", со списком, которая добавляется в контекст. Нейронка выбирает город Норильск, ты спрашиваешь "И что это за город?". Тогда в контекст добавляется запись конкретно о Норильске, если она есть в лорбуке.
Аноним 19/11/23 Вск 12:57:37 547974 196
Почаны, есть одна карточка...

Короче, купил себе 4080 за копейки, и хочу локально покрутить openChat (нашел тут бенчмарк, по которому в маркетинговой хуйне он дает защеку gpt3.5) - есть ли где-то гайд для домохозяек как это сделать, без тысяч разных вариантов а просто "делай 1, 2, 3" - если честно в стейблДиффьюжен заебался вкатываться и понимаю прекрасно сколько времени щас нужно будет еще потратить и на LLM все эти
Аноним 19/11/23 Вск 13:00:15 547976 197
>>547974
Как нехуй делать, качаешь релиз кобальда из шапки, качаешь ггуф опенчат на 16к, запускаешь кобальдом и чатишься
Аноним 19/11/23 Вск 13:05:18 547979 198
>>547974
https://huggingface.co/TheBloke/openchat_3.5-16k-GGUF
8q качай и у тебя еще 8 гб останется на кучу контекста, не считая оперативки

Или можно пойти путем сложнее, но там другие форматы запуска и программы.
Кобальд реально проще. А после кобальда легко силли таверну сверху добавить, для улучшения форматирования вывода и все такое.
Аноним 19/11/23 Вск 13:08:17 547984 199
На какой модельке лучше всего кумать?
Аноним 19/11/23 Вск 13:10:40 547985 200
>>547984
варианты в шапке или в ссылках
Аноним 19/11/23 Вск 13:11:21 547986 201
Аноним 19/11/23 Вск 13:22:56 547993 202
1543162443988.png 105Кб, 2856x552
2856x552
>>547979
> 8q качай
Зачем советовать этот кал для видеокарты? Q8 раза в 4 медленнее чем GPTQ под ExLlama v2. Ещё и вечные проблемы с новыми моделями у Жоры.
Аноним 19/11/23 Вск 13:50:28 548005 203
>>547976
>>547979

благодарочка

я тут нагуглил всякие статьи\гайды, оно там пишет что у кобольда контекст 2048 токенов, это устаревшая информация или нет? А то я думаю что там довольно дофига инструкций будет, может и не влезть.
Аноним 19/11/23 Вск 13:52:10 548006 204
>>547993
как запускать другие форматы гайд в студию
Аноним 19/11/23 Вск 13:54:33 548009 205
>>548005
Контекст зависит от сетки, у той что дал 16к контекста. Запуская кобольд выберешь там 16к и все
Аноним 19/11/23 Вск 14:01:31 548011 206
>>548009

отлично, спасибо

А какие вообще есть локальные модели с самыми большими окнами контекста? А то щас периодически приходится в клод2 скидывать какие-то лонгриды, но он зацензурен пизда просто, может есть что-то локальное большое?
Аноним 19/11/23 Вск 14:30:07 548041 207
>>547954
> И тогда если я хочу определить там базовые вещи, которые обычно не упоминаются, но подразумеваются, то лорбук будет бесполезен?
Да, чтобы он работал тебе нужно именно ключевое слово написать, или чтобы его написала сетка, и тогда в контекст добавится описание этого ключевого слова из лорбука. Костыль тот ещё конечно, уже подумываю лору запилить, правда хз насколько эффективно будет.
Аноним 19/11/23 Вск 14:32:56 548043 208
>>547875
> знал что так и будет в этом проприетарном говне
Там причем сетка с цензурой стоит явно отдельно перед основной обработкой, заметно по времени ответа. Через api офк, через сайт вручную все это тащить можно ебануться а чтобы написать обманку абузющую интервейс нет скиллов. И еще говорят на сайте цензура более жесткая, типа даже геймершу с бедрами забраковало бы, но это не точно. С чаром проще, он обычно с 99% на бурах в их тегах верно указан.
>>547907
> Интересно как Min P раскрывает 70b
А что их раскрывать то? Там по дефолту ответы хорошо, может оказаться на уровне плацебо. Но в сложных ситуациях можно и потестить офк, возможно хваленые шизомиксы станут меньше страдать рельсами.
>>547923
> На 1 это золотая середина
Нет, это лютейший рандомайзер. 0.5-0.7 адекватные величины а для более точных ответов вообще 0.3. Офк оно зависит от модели и настроек остальных семплеров.
>>547924
Причин может быть множество, но наиболее вероятная в том что модель не могла их полноценно разгадать а только рандомила.
Аноним 19/11/23 Вск 14:38:23 548046 209
>>547974
В теории в 16 гигов он может влезть в fp-16. Ставь text generation webui, скачивай веса с обниморды, конвертируй их в safetensors скриптом из комплекта экслламы, и запускай с помощью exllama2-hf. Получишь наилучший результат из всех возможных. Правда вот если в врам не влезет, тогда хуже, качай что >>547979 говорит, запускай через llamacpp-HF с полной выгрузкой слоев.
Аноним 19/11/23 Вск 15:13:06 548060 210
Аноним 19/11/23 Вск 15:47:30 548069 211
Пережимание в gptq сильно хуже по качеству 8и битных gguf?
Аноним 19/11/23 Вск 16:00:51 548076 212
localslop.png 320Кб, 1033x1074
1033x1074
>>547471
ну так потому что локальные объедки никогда не превзойдут проприетарщину, даже "лоботомированную".
Аноним 19/11/23 Вск 16:14:01 548082 213
>>548076
Гпт лахта у тебя что, опять модель лоботомировали как месяц назад?
Аноним 19/11/23 Вск 16:14:47 548083 214
>>548076
> мистраль
> uncensored
Лол.
Аноним 19/11/23 Вск 16:16:16 548085 215
>>548069
Не сильно но ухудшает, разница в 2 раза же. При равном размере gptq и exl2 лучше чем gguf, в них идет оценка и ужатие происходит обратно пропорционально важности индивидуально для модели. В GGUF же делается по заранее подготовленному общему темплейту что радикально экономит время и ресурсы, но менее точно.

Чсх, для шизомиксов можно часто наблюдать отличия в наилучшей битности ближайших частей и соседство 2.7бита с 6.2 вполне дефолтная картина. В обычных файнтюных такое реже и обычно более равномерно. Развивая это, для типичных замесов действительно квант gguf побольше может иметь ощутимый буст перфоманса.

>>548076
> локальные объедки никогда не превзойдут проприетарщину
Сильно заявление, продвигаемые энтузиастами и кумерами игрушки, пускаемые на нищежелезе, уже ебут проприетарщину, которой радовались пол года назад.
Аноним 19/11/23 Вск 16:16:20 548086 216
>>547907
Почти не юзал min P, но в теории он, так же как и top A, нужен только для редких ситуаций, когда у самого вероятного токена очень большая вероятность, скажем, процентов 80. И ты не хочешь выиграть в лотерею следующий за ним токен, даже если у того вероятность, например, 10%, что не мало, но на деле он ни черта не подходит. Т.е., по идее, min P вообще никак не может повысить креативность, а наоборот, уменьшает выбор, как и почти все другие сэмплеры. И top A, как по мне, за счёт квадратичной зависимости от самого вероятного токена вместо линейной гораздо лучше подходит в подобных случаях, сильнее влияя именно на большие вероятности. А во всех других случаях TFS, который выкинет тем больше токенов, чем круче меняется вероятность от токена к токену, будет лучше, чем min P.
Аноним 19/11/23 Вск 16:18:14 548088 217
>>548086
Если правильно понимаю, там суть в использовании с высокой температурой чтобы более агрессивно поднимать вероятности андердогов. Точности это точно не прибавит, хотя умная модель даже так сможет что-то отыграть если речь о креативе и рп.
Аноним 19/11/23 Вск 16:45:18 548101 218
>>548088
Прочитал внимательнее сам пост на реддите - речь о том, что использование min P повысит креативность, если использовать его вместо top K и top P, которыми можно отрезать слишком много хорошо подходящих токенов. Тут не могу не согласиться, но TFS был внедрён раньше, чем min P, и вроде неплохо справляется с динамическим отрезанием хвоста. Так что я не очень понимаю всю эту радость по поводу добавления min P. Разве что последний понятнее работает, формула простая.
Аноним 19/11/23 Вск 17:17:56 548117 219
>>548101
Все так, там рассмотрены крайние случаи типа "а что будет если вдруг вот так и здесь только один topP, или что будет если вот так но только один topK". Офк семплер норм, но бегать с лицами сойджака и надеяться на революцию это глупость.
Аноним 19/11/23 Вск 17:28:50 548120 220
>>548117
Кто бегает то? Просто хороший семплер сочетающий в себе все что нужно.
Мне нравится простотой использования, управлять одной шкалой проще чем 3.
Да и результаты дает более сглаженные, так как уменьшает разрыв между вероятностями. Сетка плавнее и креативнее отвечает работая при этом +- верно.
Было бы что то еще более совершенное я бы вообще отказался от ручной настройки, сделают когда-нибудь нейросети управление семплерами на основе контекста вот это будет интересно. Все таки пока сама нейросеть не начнет "выбирать" что сказать и куда вести разговор все это костыли.
Аноним 19/11/23 Вск 18:54:03 548195 221
>>548120
> результаты дает более сглаженные, так как уменьшает разрыв между вероятностями
Ого, и как он это делает? Расскажи, интересно.
Он удобный и вполне приличный вариант для использования, но на революцию не тянет. Вполне может херракнуть лишнего в отличии от того же сочетания top_p-k-tfs или наоборот не тронуть мусорный шум при определенных условиях.
> что то еще более совершенное
Первично качество самой сетки, неспроста гопота сохраняет корректность ответов на загадки даже при более высокой температуре чем лламы (хотя здесь клозедаи наверняка напилили прослоек и напрямую температурой не управляешь). Хорошая изначально дает приличное распределение, хреновую же семплингом не починишь.
Аноним 19/11/23 Вск 19:20:43 548213 222
>>548195
>Ого, и как он это делает? Расскажи, интересно.
Ну тут я напиздел, не сам мин-п, он только динамически обрезает варианты, а вместе с температурой. Мне нравится пока.

>Первично качество самой сетки, неспроста гопота сохраняет корректность ответов на загадки даже при более высокой температуре чем лламы
Ой не верю я что там какие то простые семплеры сделаны, это же самое главное в генерации, вполне может быть так что там действительно есть отдельная нейросеть которая управляет генерацией напрямую
Аноним 19/11/23 Вск 19:24:50 548215 223
>>548213
> это же самое главное в генерации
Далеко не самое, но момент действительно важный.
> там действительно есть отдельная нейросеть которая управляет генерацией напрямую
Ага, об этом уже заявлялось, но помимо делегирование нужному эксперту она вполне может крутить его параметры семплинга в зависимости от запроса и пожеланий пользователя.
Аноним 19/11/23 Вск 19:29:07 548219 224
>>548215
>Далеко не самое, но момент действительно важный.
Одно из самых важных вобщето, на ровне с качеством самой сетки

>об этом уже заявлялось
Хде? Про то что есть несколько экспертов помню как и то что есть нейросетка-дирежер, а вот то что она и семплеры настраивает не слышал.
Аноним 19/11/23 Вск 20:23:47 548264 225
Я так понял все реализации gptq, обеспечивают разделение мощности по слоям для нескольких видеокартах, что не требует быстрых интерфейсов но карты фактически простаивают половину времени. Кто нибудь пробовал разпаралеливать модели вертикально? Какие скорости интерфейсов для этого нужны?
Аноним 19/11/23 Вск 20:26:09 548267 226
llama-cpp выдает error loading model: create_tensor: tensor 'token_embd.weight' not found при загрузки любой модели из ./models
Как быть?
Аноним 19/11/23 Вск 20:32:18 548270 227
>>548267
а вот мисраль у меня запустился, я как бы доволен, но всё равно интересно, почему с моделями искаропки ошибка вылезала
Аноним 19/11/23 Вск 20:34:49 548272 228
Мистраль в своих 7b лучше 13b первой ламы? Или чем тюны neo-x? Просто несправедливо люди обходят стороной эти прошлые модельки, они менее эффективны но если у тебя достаточно памяти то все хорошо.
Аноним 19/11/23 Вск 20:39:08 548274 229
>>548270
Мисраль запустился, но выдает абсолютно нерелеваные промпту результаты, вообще на рекламу какую-то похожие. Ревкестриую тесты, я заебался в этом зоопарке разбираться, я даже не знаю, как теперь запрос в гугл написать.

./main -m /media/User/Disk-SN/mistral/openhermes-2.5-mistral-7b.Q5_K_M.gguf -n 128 -r "In sentence 'I think, therefore I am' the verb is"


# The Future is Female: A Look at Women in the Automotive Industry

Historically, the automotive industry has been a male-dominated field. However, things have started to change as more women are taking on roles in this fast-paced and exciting business. Here’s a look at some of the ways that women are making their mark in the automotive industry.

## Women in Auto Design

In the past, few women held positions in car design. However, things are changing as more female designers are entering the field. Companies such as Ford and Volkswagen have hired more women
Аноним 19/11/23 Вск 20:39:33 548275 230
>>548272
>Мистраль в своих 7b лучше 13b первой ламы?
100% Базовый то на уровне с 30b llama 1 а файнтюны однозначно лучше. Кто то говорит что они по мозгам с llama 1 65b
Аноним 19/11/23 Вск 20:42:30 548278 231
>>548274
линукс что ли? запускай с кобальдспп
И там сложнее запрос должен быть. Ты не указал что это интерактивный режим -i и чет там еще делается, твой ник, ник бота, для остановки генерации. Сам промпт должен быть лучше. Да и ты проебался с ключом промпта там -p надо а не -r
Аноним 19/11/23 Вск 20:43:25 548279 232
>>548274
Лул, это явно копипаст откуда-то. Что за шляпа.

./main -m /media/User/Disk-SN/mistral/openhermes-2.5-mistral-7b.Q5_K_M.gguf -n 128 -r "Fucking shit"

# 32nd Annual OC Marathon: Race Recap

I can’t believe it has been almost two months since the 32nd annual OC Marathon! It feels like it was just yesterday and yet it feels so long ago. This marathon holds a very special place in my heart as it is my favorite race of all time (so far)! This year marked my third time running this beautiful course that takes you through various cities in Orange County, including Huntington Beach, Newport Beach, Laguna Beach, and Costa Mesa.
Аноним 19/11/23 Вск 20:44:29 548282 233
>>548278
>>548278
Кобальт в сегфаулт вываливается. Но попробую еще раз. Спасибо. Просто настолько нихуя не понятно, как с llmками мне никогда не было. Старею.
Аноним 19/11/23 Вск 20:48:58 548284 234
>>548278
какой еще ник бота, где я, что вокруг вообще происходит. (шутка, я понял, о чем речь)
А так спасибо, я уже старый (30 лет) и в глаза долблюсь, вот уже внимательно прочесть хелп не в состоянии, вот вводил реверс-промпт вместо прямого, сидел и бесился.
Аноним 19/11/23 Вск 20:57:24 548287 235
>>548284
запускай server файл, там сможешь почти как белый человек сидеть с браузера и там все настраивать
Аноним 19/11/23 Вск 21:06:25 548302 236
>>548287
я не белый человек и сижу через консоль, привыкши.
Еще раз спасибо анону, все работает, кончил радугой, модель внезапно неплохо осведомлена в вопросах касаемо моей работы (релевантно ответила на вопрос "я лигирую вставку Х к вектру У, в колониях на чашке лажа растёт, что делать").
Аноним 19/11/23 Вск 21:07:14 548303 237
2023-11-2000-04[...].png 26Кб, 914x344
914x344
Как обновить Silly Tavern через git? git pull запустил, но версия по-прежнему 1.10.7.
Аноним 19/11/23 Вск 21:08:18 548305 238
>>548302
я даже пожалуй выключу интернет и погоняю её в оффлайне, невозможно же настолько точно отвечать без доступа к сети казалось бы.
Хотя, по факту, вопросы поверхностные и сетка тут отчасти работает просто как архив.
Аноним 19/11/23 Вск 21:08:54 548306 239
Аноним 19/11/23 Вск 21:09:34 548307 240
>>548305
>я даже пожалуй выключу интернет и погоняю её в оффлайне, невозможно же настолько точно отвечать без доступа к сети казалось бы.
будущее радом старик, хехех
Аноним 19/11/23 Вск 21:11:32 548309 241
>>548219
> Одно из самых важных вобщето
Сильное заявление, вот сейчас доебусь и заставлю накручивать семплингом поведение первой лламы 7б до мистраля в детерминизме.
В современных даже просто гриди энкодинг неплохой результат может дать, офк от задачи зависит. Тут главное - не прожигать температурой, а то уже как там токены отсеивать такой уж огромной роли не играет, потому вся эта тряска с "мегаинновационным семплером" - херь.
> Про то что есть несколько экспертов помню как и то что есть нейросетка-дирежер
Именно про это, перечитай пост
> помимо делегирование нужному эксперту она вполне может крутить его параметры семплинга
>>548264
Только exllama, остальные требовательны к интерфейсам. Раскидать может и llamacpp, вот только скорость там оче проседает.
> Какие скорости интерфейсов для этого нужны?
nvlink, может 2x16 PCIE5.0 будет приемлемо если оптимизировать количество передач.
>>548275
> 100% Базовый то на уровне с 30b llama 1
Ну не, 30 первой лламы сложные инструкции куда лучше понимала. Другое дело что 2к контекста и старое поведение дают ей сильный штраф, в околорп мисталь действительно может быть предпочтительнее.
> Кто то говорит что они по мозгам с llama 1 65b
Да хули, уже жпт4 подебили и ждут новую сетку чтобы с ней состязаться.
>>548303
Там есть батник update and start, его нажми. Или просто новую скачай а карточки и чаты скопируй.
Аноним 19/11/23 Вск 21:17:53 548313 242
>>548309
>Сильное заявление, вот сейчас доебусь и заставлю накручивать семплингом поведение первой лламы 7б до мистраля в детерминизме.
Ну ты до абсурда то не доводи, это кстати интересный эксперимент. Надо будет поискать может не удалил альпаку.

>Ну не, 30 первой лламы сложные инструкции куда лучше понимала
Файнтюны или сама llama 1 30b? Файнтюны и сейчас ничего, хоть и ощущаются не так как новые сетки. Ну а про 65b не мои слова, это дроч на статистику и тесты.
Ну и контекст, сейчас после 8к чувствуешь себя избалованным для 2к. Да и 16к уже есть, и даже 120 или 200, сколько там новые сетки выдеют из обещаных.
Аноним 19/11/23 Вск 21:24:32 548318 243
>>548313
> Ну ты до абсурда то не доводи
Так не довожу, не стоит относиться к семплингу как к какой-то магии. Магией может быть использование нескольких разных сеток и выполнение операций выбора на основе их разных распределений, вот тут действительно и ускорение, и разнообразие, и нестандартный более точный подход и прочее достижимы. А тут просто попытки балансировать между рандом шизой и когерентностью чтобы получить разнообразную выдачу.
> Файнтюны
Офк, первая то вообще крайне сырая вышла из-за ситуации, хотя здесь хз как получится. А так вон айоробороса 30 взять, который аж до сих пор поддерживается (или не так давно поддерживался), пояснит за "ум" только так, пока контекст не кончится или не отупеет от растяжки.
> дроч на статистику и тесты
Уже пришли к тому что на них буквально модели тренятся, а при обычном использовании там полное фиаско.
Аноним 19/11/23 Вск 21:40:48 548323 244
>>548318
>Уже пришли к тому что на них буквально модели тренятся, а при обычном использовании там полное фиаско.
Ну не совсем уж фиаско, но те же китайцы на 34 как то разочаровали. Не смотря на свои тесты.
Да, умнее мистраля, но бля он 7b, в 5 раз меньше. Может я хуево тестил, но особых мозгов не заметил. Я вобще думаю это ллама2 34b после глубокого переобучения. Как и опенчат это тот же файнтюн мистраля.
Аноним 19/11/23 Вск 21:51:48 548331 245
>>548323
> но те же китайцы на 34 как то разочаровали
Да блин, серьезно? Все никак до них не получается добраться, но были надежды, этот размер самый сок.
> ллама2 34b после глубокого переобучения
Ага, похоже на это
> но бля он 7b, в 5 раз меньше
Тут для справедливости нужно такого же уровня квант запускать, а на них сильно плевались.
Аноним 19/11/23 Вск 21:57:09 548337 246
>>548331
>Да блин, серьезно? Все никак до них не получается добраться, но были надежды, этот размер самый сок.
Ну тот же дельфин недавно запускал, 4km. Может быть повлияло сжатие. Так то отвечает норм, пишет подробно большими полотнами. Мистраль так не может, ну или пытается только опенчат. Но те же задачки про сестер петры не могёт, как и перевозку. Пытается, да. Но не могёт.
Рп или ерп не тестил, как и контекст. А то у меня слишком медленно крутится, отвык я от 2 токенов в секунду.
Аноним 19/11/23 Вск 22:10:44 548348 247
>>548307
Господи, эта срань на 4 гигабайта умнее наших аспирантов. Правда, сука, упорная, заставить её признать, что регуляторные доменты иногда совпадают с генами, не удалось. Но это херня, есть же дообучение.
Гипотезы разумно выдвигает. Хотя слишком общо, если совсем в конкретику зарываться.
Аноним 19/11/23 Вск 22:11:14 548351 248
Не знаю чем там вы к моделям докопались а я выставил мин пи(звучит как китайкое имя) и ерп такое пошло что аж уууух.
На уровне проприетарных моделек а если взять еще и модель хорошую так такое ууууух что прям вообще.
Аноним 19/11/23 Вск 22:11:22 548352 249
Аноним 19/11/23 Вск 22:20:54 548361 250
>>548351
>к моделям докопались
ты про 34b?

>>548348
Если есть возможность качай 8q на 7 гигов, ну или качеством еще выше если есть видиокарта на 16гб.
7b модели на 4 гига туповаты, так как слишком сильно сжаты.
Да и ускорение с llama.cpp тоже можно на видеокарте получить. Выгружай слои на -ngl кажется, и получишь ускорение.
Аноним 19/11/23 Вск 22:30:41 548368 251
Аноним 19/11/23 Вск 22:31:55 548370 252
>>548361
У меня ноут я на коллабе запускаю. Сейчас 5Q K_S стоит так оно уже ближе к чайной чем даже гопота и клод.
Аноним 19/11/23 Вск 22:34:13 548374 253
>>548368
Лучше бы в Latex их научили. Хоть какая-то польза была бы.
Аноним 19/11/23 Вск 22:40:20 548378 254
>>548374
> Latex
может и учили хз, в регекс прогерские сетки могут
Аноним 19/11/23 Вск 22:43:14 548383 255
>>548368
ну если тоже мисраль то надо попробовать, просто моя привычка нищебродничать и жить на старом говне с минимумом памяти и всего в кои-то веки вышла мне боком. Раскошелюсь на отдельных компухтер для антиллекта, раз так. Все равно думал отдельную машинку под архив личных фоток, переписок и интернета выделять, ну вот заодно поближе к тренировочным данным антиллект лежать будет.

Вообще когда я начал дизайн конкретных экспериментов обсуждать, модель соснула-лососнула и понеслась давать советы прямо из 80х. Но в целом это и не беда, я даже на то, что есть, не надеялся.
Аноним 19/11/23 Вск 22:44:25 548386 256
>>548348
Натуральный симулятор приема экзаменов, на самом деле. Очень психотерапевтично.
Аноним 19/11/23 Вск 23:09:23 548401 257
Аноним 19/11/23 Вск 23:11:37 548404 258
Аноним 19/11/23 Вск 23:11:59 548406 259
1617975759663.png 89Кб, 1339x557
1339x557
>>548378
Протестил MetaMath, синтаксис латекса валидный, но по формулам полнейший бредогенератор. Хотя на словах вроде знает о чем пишет.
Аноним 19/11/23 Вск 23:16:02 548414 260
>>548406
Загрузи ей в начале контекста документацию по нему, а потом уже проси. Или ты зерошотом хотел?
Аноним 19/11/23 Вск 23:16:21 548415 261
>>548401
Чего интересного? С RAG куча файнтюнов уже давно валяется.
Аноним 19/11/23 Вск 23:17:13 548416 262
>>548415
там селфраг, ну и я еще не видел такое
Аноним 19/11/23 Вск 23:57:42 548462 263
Аноним 20/11/23 Пнд 01:36:27 548517 264
>>548272
>neo-x?
Оно давно и справедливо мертво.
По сути да, как тут уже написали, как-то так
ллама 1 30В < ллама 2 13В < мистраль 7В
Аноним 20/11/23 Пнд 01:44:14 548519 265
>>548462
Очередной набор костылей к тупой сетке, которая даже 2 + 2 без горы обучающих данных не сможет сложить.
Аноним 20/11/23 Пнд 01:51:02 548525 266
>>548519
Не это крутая штука, любая идея с обратной связью применимая к нейросетям это охуенно.
Ну а считать.
Методы тренировки нужны другие просто, там на реддите была статья что сетка обучающаяся математике с нуля как ребенок, и считающий не по формулам а как человек, добилась точности решения в 98 процентов.
https://www.reddit.com/r/LocalLLaMA/comments/17xj8wl/training_llms_to_follow_procedure_for_math_gives/
Аноним 20/11/23 Пнд 01:53:04 548527 267
>>548517
Если выстроить их в обратном порядке то будет относительно верно.
Мистраля обожествляют нищуки, которые дорвавшись до возможности нормально использовать ллм и получать приличный ответ, который еще свайпнуть не жалко, уверовали и упоролись аутотренингом. Он такой какой есть, не лучше и не хуже, очень солидный вариант но тупее древнего визарда и хуже в рп чем шизомиксы.
Между 13 и 30момент несколько спорный, в чем-то 13б 2я лучше, в чем-то 30б первой опережает, оверал зависит от приоритетов. Из-за контекста 1я ллама в рп сильно проигрывает, а интересные пуджи 20б могут опередить ее по качеству реплик, так что сейчас она почти без задач.
Аноним 20/11/23 Пнд 01:59:57 548534 268
Аноним 20/11/23 Пнд 02:11:22 548554 269
>>548534
Сравнивает срандомившийся после кванта ответ без семплинга и делает громкие выводы, уже не в первый раз.
> EXL2 isn't entirely deterministic. Its author said speed is more important than determinism, and I agree, but the quality loss and non-determinism make it less suitable for model tests and comparisons.
О каком вообще детерминизме он говорит в квантованных моделях? Даже gguf по-разному квантовать, наблюдается переодичное смещение ответа в таком режиме и можно насочинять что меньший даст лучший результат.
По перплексити (объективный) и качеству ответов (субъективный) gptq и exl2 превосходят gguf того же размера.
Аноним 20/11/23 Пнд 02:11:29 548555 270
>>548534
Хуйня какая-то. Как он получил меньше 5t/s на двух видеокартах?
Аноним 20/11/23 Пнд 02:12:39 548557 271
>>548555
> Как он получил меньше 5t/s на двух видеокартах?
llamacpp действительно отвратительно работает при распределении между несколькими.
Аноним 20/11/23 Пнд 02:14:54 548560 272
>>548557
На форче у кучи людей есть несколько видеокарт, и у всех работает нормально. Даже на древних P40 получается >6t/s при жирном кванте и 8k контекста, а на 3090/4090 должно быть под 15-20t/s.
Аноним 20/11/23 Пнд 02:14:58 548561 273
>>548554
>По перплексити (объективный) и качеству ответов (субъективный) gptq и exl2 превосходят gguf того же размера.
А AWQ?
Аноним 20/11/23 Пнд 02:20:41 548567 274
>>548560
Орли? Давай для начала покажи на паре
> древних P40 получается >6t/s при жирном кванте и 8k контекста
это еще может оказаться реальностью, хоть и слишком круто чтобы ею быть. А потом, быструю работу на паре в llamacpp. В экслламе и даже трансформерах оно еще ничего, но не у жоры.
>>548561
Хз. В теории и по заявлениям должен быть аналогичем gptq и даже лучше, но вроде по тестам писали что до заявленного не дотягивает. Правда это просто посты с реддита и достоверность хз, сам не запускал его.
Аноним 20/11/23 Пнд 02:29:12 548578 275
>>548567
>Орли? Давай для начала покажи на паре
У меня нет двух видеокарт, за примерами полезай в архив форча. Но я могу сказать вот что: учитывая, что у меня на Q2_K больше 6t/s на одной видеокарте, а у него чуть больше 4t/s на двух, то этот соевик явно что-то нарукожопил.

Единственное во что я верю - это результаты Primary и Secondary Score. Между Q2_K и Q5_K разница действительно не такая большая, а вот exl2 кванты глюканутые до невозможности. Не знаю как сейчас, может и починили, но раньше 8-битный квант exl2 сливал не только gguf меньшего размера, но и старому gptq.
Аноним 20/11/23 Пнд 02:38:46 548593 276
>>548578
> У меня нет двух видеокарт
Тогда и не стоит теоретизировать.
> за примерами полезай в архив форча
Сразу нахуй собеседника посылать невежливо, знаешь ли.
> этот соевик явно что-то нарукожопил
Да, то что он рукожоп и не понимает что делает - факт, но с низким перфомансом вина не его, оно действительно так с llamacpp. Даже просто 7б мелкую модель разделить на 2 карточки (а оно по умолчанию как раз по полам загружает) - перфоманс просядет в разы от того что ожидается.
> а вот exl2 кванты глюканутые до невозможности
В чем их глючность? Если офк речь не о 2.5 битах.
> 8-битный квант exl2 сливал не только gguf меньшего размера, но и старому gptq
Такое легко может быть если перепутать или целенаправленно брать другой файл конфига, хотя в 8 битах уже врядли. Учитывая распиздяйство или целенаправленное желание сэкономить время из-за того что процесс оценки довольно долгий - такой вариант не исключен и тут. Конфиги разных моделей, особенно шизомиксов (как раз наш случай) отличаются сильно, так что есть еще и вероятность что соевика частично подставили. Возможно офк и более глубокая проблема, в которой методы оценки плохо подходят к шизомерджам, но это маловероятно.
Аноним 20/11/23 Пнд 02:43:16 548601 277
image.png 376Кб, 1071x705
1071x705
image.png 329Кб, 1385x970
1385x970
image.png 281Кб, 1160x858
1160x858
image.png 281Кб, 1163x900
1163x900
>>545044 (OP)
Смотрите, мне кажется это очень хорошая карточка для бенчмарка моделей.
1) Проверяет способность модели к форматированию теста.
2) Проверяет на сколько модель поняла значения каждой "личности".
3) Проверяет способность понимать системные сообщения.
Аноним 20/11/23 Пнд 03:13:05 548634 278
>>548601
Так как сетки в основном используются для моделирования различных ситуаций, нужно проверять не только моделирование личности и манипуляцию информацией. Но и моделирование каких то процессов, явлений, пространственные изменения или изменения времени.
Звучит заумно, но нужно просто проверить понимает ли сетка как должен изменяться описываемый ей мир-персонаж при взаимодействии с ним. И как хорошо она это делает. Что бы не было по 3 раза снимаемых трусов, лол.
Аноним 20/11/23 Пнд 03:13:14 548635 279
Pygmalion-2-7B-[...].jpg 1133Кб, 1156x1909
1156x1909
TheBlokeOpenHer[...].jpg 281Кб, 864x697
864x697
samantha.jpg 355Кб, 1146x1254
1146x1254
TheBlokeToppy-M[...].jpg 1205Кб, 1148x3904
1148x3904
Забыл ссылку.
https://www.chub.ai/characters/reedfag/2e0c458b-ff67-42ad-be4a-9c9d5adc62d7

Вот некоторые результаты все (7b-GPTQ), пигма показала худший результат + в обычном RP часто забывает про кавычки и контекста в 6gb vram только 2к влезает больше = ООМ. А лучший - TheBloke_Toppy-M-7B-GPTQ и про форматирование не забывает и часто разные 'способности' из карточки вытаскивает и контекста 4к помещается.
Аноним 20/11/23 Пнд 03:17:49 548641 280
>>548635
Версия 16к тупая, у меня опенчат на 16к не смог и 10к обработать выдавая херню. Когда растянутый гермес на 12к контекста норм работает со статьей на 10к токенов и продолжает отвечать по ней.
Вобще неплохая проверка контекста, но лучше всего тут была бы наверное вот эта сетка mistrallite , специально предназначенная для работы с большим контекстным окном
Аноним 20/11/23 Пнд 03:22:39 548645 281
TheBlokeMistRP-[...].jpg 472Кб, 1154x1209
1154x1209
Zarablend-L2-7B[...].JPG 55Кб, 1175x316
1175x316
TheBlokeAirobor[...].JPG 32Кб, 1156x217
1156x217
>>548634
Мне кажется это не для 7b параметров. (Хотя я не слишком разбираюсь.)


Забыл: желтым помечено хорошее попадание, красным перечёркнуты несуществующие личности - Psyche Motorics и Physical это типы, а не сами личности.

>>548641
>mistrallite , специально предназначенная для работы с большим контекстным окном
У карточки контекста 1.5к, или это уже большой контекст считается?
Аноним 20/11/23 Пнд 03:26:01 548649 282
>>548525
А где там обратная связь? Вижу очередной аналог лорбуков или хромаДБ, лол.
Аноним 20/11/23 Пнд 03:28:33 548652 283
>>548645
>У карточки контекста 1.5к, или это уже большой контекст считается?
Фиг знает, кажется у мистралей 4к окно, у той растянутое на 12к что ли, не помню. По идее все должны норм работать с карточкой пока за 4 не перевалит.

>Мне кажется это не для 7b параметров.

Ну тот же тест на слепоту, это проверка понимает ли сетка что персонаж не будет видеть без глаз и тд и тп.
То есть просто сетка хорошо работающая с рп где описывается местность, помещения или развитие ситуации во времени, отыгрывая гма например, уже пройдет такой тест.
Ну или завалит где то, где проебется с чем то нереалистично что то описав или показав непонимание как что то работает.
Аноним 20/11/23 Пнд 03:29:59 548654 284
>>548649
>А где там обратная связь? Вижу очередной аналог лорбуков или хромаДБ, лол.
Сетка обучена сама давать себе инструкции по изменению своего поведения и текста - это и есть обратная связь. Самооценка своего вывода - и его изменение после анализа в нужную сторону. Самокоррекция, во.
Аноним 20/11/23 Пнд 03:30:25 548655 285
>>548593
>Тогда и не стоит теоретизировать.
>Сразу нахуй собеседника посылать невежливо, знаешь ли.
Ну извиняй. Я неоднократно видел скриншоты лламы цпп на двух и более карточках, но не сохранил. Продолжать спорить смысла нет пока кто-нибудь не протестирует с пруфом или хотя бы притащит скриншот. Мне кажется что такое сильное замедление может быть из-за перегрузки видеопамяти, которая в свою очередь происходит из-за ее неправильного распределения.
>В чем их глючность? Если офк речь не о 2.5 битах.
Знать бы в чем. 2.5 бита это уже полная лоботомия, я же говорю про 4-8 бит. Сравнивал по перплексити - особо сильных отклонений нет, но даже 8 бит exl2 сливали старой gptq версии. Квантовал как сам, так и качал готовые модели, но так и не смог получить нормальный результат.
Аноним 20/11/23 Пнд 03:34:28 548662 286
>>548578
>больше 6t/s на одной видеокарте, а у него чуть больше 4t/s на двух
Чел, карты работают последовательно, и скорость не умножается на два, а делится.
Аноним 20/11/23 Пнд 03:37:44 548669 287
>>548652
>Фиг знает, кажется у мистралей 4к окно
Эм, вроде 32к же.
>>548654
Вот так звучит уже лучше.
Аноним 20/11/23 Пнд 03:39:13 548672 288
>>548645
https://huggingface.co/amazon/MistralLite
MistralLite - это точно настроенный Mistral-7B-v0.1 языковая модель с расширенными возможностями обработки длинного контекста (до 32 тыс. токенов). Используя адаптированное вращательное встраивание и раздвижное окно во время тонкой настройки, MistralLite может это сделать значительно лучше выполнять несколько длинных задач извлечения контекста и ответа на них, сохраняя простую модель структуры оригинальной модели. MistralLite полезен для таких приложений, как длинная контекстная строка и поиск тем, обобщение, ответы на вопросы и т. Д.

Ну то есть вот оно, куча одновременных инструкций и поиск инфы из контекста. По идее эта сетка пройдет тест той карточки лучше всех из 7b. Разве что с мозгами у нее непонятно что, на уровне базового мистраля или чуть ниже.
Аноним 20/11/23 Пнд 03:39:42 548673 289
>>548662
>Чел, карты работают последовательно, и скорость не умножается на два, а делится.
Я имел в виду запуск части модели на процессоре. Это в принципе не может быть медленнее чем две видеокарты, за исключением разче что неправильной настройки - когда у одной из видеокарт забивается видеопамять и винда начинает использовать оперативку.
Аноним 20/11/23 Пнд 03:42:06 548678 290
>>548669
>Эм, вроде 32к же.
Не, у обычных 4к окно контекста, у той 16к.
Путем хитрого алгоритма он удваивается, но все равно сетка хуже помнит после 4к, на сколько я понимаю. Перейди по ссылке на MistralLite там есть таблица
>Вот так звучит уже лучше.
Мог и сам прочитать
Аноним 20/11/23 Пнд 03:42:42 548679 291
1562358074367.png 132Кб, 1113x1310
1113x1310
1591457989047.png 134Кб, 1113x1291
1113x1291
1556416088427.png 21Кб, 1105x146
1105x146
>>548601
Какая-то лютейшая дичь, но выглядит довольно забавно. Только обрати внимание на инструкции что идут в комплекте, нужно это адаптировать к лламе или хотябы как есть не забыть включить.
>>548634
> пространственные изменения или изменения времени
С этим у ллм всегда были сложности. Помогают костыли в виде инструкций с указанием в конце ответа времени/позиции/статуса по шаблону, но если перегрузить инструкциями то может сфейлить и для этого специальный системный промт нужен даже в гопоте.
>>548635
> (7b-GPTQ), пигма
Честно говоря чудо что она вообще это восприняла.
>>548641
> у меня опенчат на 16к не смог и 10к обработать выдавая херню
rope включать надо для такого, многие изначально с ним тренились и только так все эти 100к обеспечиваются (если правильно понял описание авторов).
>>548655
> Продолжать спорить смысла нет пока кто-нибудь не протестирует с пруфом или хотя бы притащит скриншот.
И спора даже нет, ну и совсем неверующим не стоит быть, здесь все твои друзья. Перегрузок там и близко нет, в мониторинге загрузка контроллера шины почти не поднимается, хотя она долбится в 90+ когда идет выгрузка или просто идет запуск модели, проблема где-то в коде.
Аноним 20/11/23 Пнд 03:47:26 548682 292
>>548679
>rope включать надо для такого, многие изначально с ним тренились и только так все эти 100к обеспечиваются (если правильно понял описание авторов).

Так то да, но там вроде специальная версия сетки растянутая заранее как то. Один парень выкладывает их на обниморде удваивая контекст. Я думал оно должно сразу завестись, раз изначально растянута. Иначе какой смысл выкладывать отдельную модель? Обычной настройки изменил и все.


>С этим у ллм всегда были сложности. Помогают костыли в виде инструкций с указанием в конце ответа времени/позиции/статуса по шаблону, но если перегрузить инструкциями то может сфейлить и для этого специальный системный промт нужен даже в гопоте.

Да, но проблески зайчатков разума начинают все чаще появляются и в таких ситуациях
Аноним 20/11/23 Пнд 06:53:12 548752 293
>>548679
> rope включать надо для такого, многие изначально с ним тренились и только так все эти 100к обеспечиваются (если правильно понял описание авторов).
Всё так, вон прямо в конфиге репозиционирование заместо альфы, подобное и с кодламой было чтобы контекст был большой, заместо альфы
https://huggingface.co/TheBloke/openchat_3.5-16k-GPTQ/blob/main/config.json#L20
Аноним 20/11/23 Пнд 07:59:40 548763 294
>>548679
>Перегрузок там и близко нет, в мониторинге загрузка контроллера шины почти не поднимается, хотя она долбится в 90+ когда идет выгрузка или просто идет запуск модели, проблема где-то в коде.
Ну, тогда не знаю, судя по твоему скрину действительно все нормально. Сам протестировать не могу, так что ¯\_(ツ)_/¯

Кстати, в новой версии кобольда, чуть улучшилась производительность. Кайф.
Аноним 20/11/23 Пнд 08:47:11 548778 295
Приснилось что разговариваю с моделью, придумывал промты во сне (промты кстати хуйня, но иногда непосредственно перед сном приходит хорошая идея и приходится подрываться и записывать в заметки на тел), редактировал ее ответы там.
Пиздец это уже какая стадия?
Аноним 20/11/23 Пнд 09:53:01 548804 296
>>548778
>Пиздец это уже какая стадия?
Всё ещё начальная.
Аноним 20/11/23 Пнд 09:57:18 548807 297
>>548804
Что же тогда на следующих....
Аноним 20/11/23 Пнд 11:27:00 548839 298
>>548807
когда ты эти промпты обрабатывать будешь и отвечать
Аноним 20/11/23 Пнд 11:45:55 548852 299
>>548839
То есть просто говорить сам с собой и придумывать себе истории? Я это ещё в детском саду делал.....
мимо
Аноним 20/11/23 Пнд 11:58:23 548860 300
>>548852
нее, когда ты вместо нейросети и без пользователя-себя
Аноним 20/11/23 Пнд 12:05:50 548862 301
Аноним 20/11/23 Пнд 12:06:03 548863 302
>>547600
Ну в винде знаю что можно выбрать конкретные приложения которые будут отрабатывать на какой видюхи, по идее можно выбрать и видюху по умолчанию.
Аноним 20/11/23 Пнд 12:18:01 548867 303
Бля ну там и качели в клозед аи, его опять турнули
Аноним 20/11/23 Пнд 12:21:38 548871 304
>>548309
> Раскидать может и llamacpp
> gptq

Я пропустил, когда llamacpp стала gptq-модели запускать.

> nvlink, может 2x16 PCIE5.0 будет приемлемо если оптимизировать количество передач.
Будем честны, никто этого не делал, ты просто ткнул в самые быстрые доступные интерфейсы. =)
Тащемта, так оно и есть, канеш, просто забавно.

> Кто то говорит что они по мозгам с llama 1 65b
Ну, если в каких-то специфических задачах, а так — нет канеш, да.

>>548313
> даже 120 или 200, сколько там новые сетки выдеют из обещаных.
Ну, важно не сколько они выдают из обещанных, а сколько они выдают на практике, не уступая в качестве хотя бы той же мистрали, а лучше 20b какому-нибудь или под свои задачи, короче. Чистый контекст на тупой модели не поможет. =')

>>548331
Вообще, квант, как раз, значения не имеет.
Важен результат. Как в играх это условный фпс на рубль с учетом всех нужных тебе технологий, так и тут — токен в секунду на размер с учетом твоего объема рам или врам. Если они совпадают, но одна это 13б q2, а другая 7б q8 — то это норм сравнение будет. По итогу-то у тебя будет одинаковая скорость и потребление, значит и сравнивать можно в лоб. (ну, я условно про 13 на 2 и 7 на 8)

>>548337
Я ниже q6 стараюсь не юзать.
Для 7б — ниже q8 не брать.
ИМХО, так оно гораздо лучше.

>>548348
Мистраль Опенгермес? Умнее аспирантов? Ну, то, что умнее абитуриентов — я не сомневаюсь. Ну а если асприантов — так вообще… двоякие чувства. х)

>>548368
Хотел затестить сифи, но руки не дошли, интересно, чо там.

>>548383
Если есть деньги — лучше бери условные 3090 две штука или типа того.
Если нет — то какой-нибудь 13400 с ddr5.

>>548406
Ну, чуда не случилось. Все же, это чистая статистика следующего токена. Оно не мыслит логически, оно не угадывает.

>>548525
Все еще считаю, что общая нейросетка прокинутая через лангчейн к какому-нибудь вольфраму > нейросетки обученной с нуля.

>>548527
И поменять на «больше или равно». =)

>>548567
> это еще может оказаться реальностью, хоть и слишком круто чтобы ею быть.
Плюсую.

>>548561
> А AWQ?
> В теории и по заявлениям должен быть аналогичем gptq и даже лучше, но вроде по тестам писали что до заявленного не дотягивает.
Запустил, отвечает вдвое медленно, дропнул.
При такой скорости, лучше уж ггуф выгружать.
Может я криворук, но не придумал, что там можно сделать, чтобы запустить «правильно».
Запускал несколько раз, с перерывом в месяц, разные модельки, без свопа в озу, хрен знает, кароч.

>>548655
> Продолжать спорить смысла нет пока кто-нибудь не протестирует с пруфом или хотя бы притащит скриншот.
Факт.

Но я бы дико ржал, если скрины P40 на реддит и форч тащат продаваны с Китая/Ебэя. =D
Аноним 20/11/23 Пнд 12:23:16 548872 305
>>548863
Да, я думал, можно ли в настройках нвидии так сделать.
Но в итоге забил.
И корпус у меня не тот, и кулеры не те, и видяхи лишние не те.
Пока что забил на идею.

Зато скорость вентиляторов вчера норм настроил во всем корпусе. х)
Аноним 20/11/23 Пнд 12:23:53 548873 306
>>548867
Да, пздц, дебичи.
На них и Майки давят, и это. Иногда человек > компании может оказаться.
Ну, посмотрим, шо там будет.
Аноним 20/11/23 Пнд 12:34:46 548878 307
>>548873
Индусам пора уже наконец сожрать этот отросток, он же убыточный был до прихода майков. Жиды из ClosedAI уже давно бы загнулись, если бы не бабло майков и интеграция их моделей в винду/бинг.
Аноним 20/11/23 Пнд 12:35:29 548879 308
Аноны, давно не заходил. Было ли что то глобальное с момента 2 ламы и мистраля?
Аноним 20/11/23 Пнд 12:37:35 548882 309
>>548879
Разве что китайцы с опенчатом и Yi. Остальное как обычно - сотни новых рп-файнтюнов и соевый высер от Интела.
Аноним 20/11/23 Пнд 12:39:43 548883 310
Аноним 20/11/23 Пнд 12:42:29 548884 311
>>548871
>Я ниже q6 стараюсь не юзать.
>Для 7б — ниже q8 не брать.
>ИМХО, так оно гораздо лучше.
Я знаю, но по идее для 34b не так страшно сжатие чем для 7b, на них и я на 8q сижу

>>548882
>соевый высер от Интела.
Прям соевый? Для кума вроде норм
Аноним 20/11/23 Пнд 12:46:30 548888 312
>>548884
> Прям соевый?
Сильно соевее Мистраля. Я даже не могу припомнить что хуже Интела было, соя Викуни уже давно померкла по сравнению с Мистралем/Интелом. Самый пиздец что Мистраля, что Интела - сою полноценно не победить ни джейлом, ни файнтюном. Хотя в той же Викуне простым негативом легко чистилась она.
Аноним 20/11/23 Пнд 12:52:01 548895 313
14687828639630.png 6Кб, 429x412
429x412
>>548778
"Вау! Я могу поговорить с тяночкой/ктулху/скайнетом"
"хмм... А что оно думает о неграх, пидорасах, Гитлере?"
"вот щас скачаю 70b и вот теперь-то собеседник резко поумнеет."
Начинаешь прицениваться к барахлу с датацентров (К80, М10, P40, P100) и обдумывать недорогую сборку с овер 9000ГБ быстрой видеопамяти.
Начинаешь сводить свой бюджет под покупку 3090, 4090, V100.
Разговариваешь с нейросетью во сне. (Вы здесь)
Аноним 20/11/23 Пнд 13:02:49 548905 314
>>548752
при трансформации в ггуф это сохраняется как базовые настройки, или нужно самому выставлять?
Аноним 20/11/23 Пнд 13:43:17 548938 315
>>548871
> Я пропустил, когда llamacpp стала gptq-модели запускать
Сам придумал - вот и пропустил, не нужно фантазировать.
> просто ткнул в самые быстрые доступные интерфейсы
Не просто ткнул а сделал обоснованное предположение, псп текущих недостаточно и надежда есть лишь на перспективные, которые все равно не будут доступны в десктопах.
> важно не сколько они выдают из обещанных, а сколько они выдают на практике
Читай свои посты перед отправкой, а то не только лишь все
> не уступая в качестве хотя бы той же мистрали
Мистраль на заявленных 32к страдает и с большим трудом выполняет инструкцию из начала, с обращениями назад из свежих запросов получше но всеравно слабо. Подобный перфоманс достигается даже очень сильной растяжкой сеток побольше, так что и в тех проблемы врядли возникнут если сравнивать как пишешь.
> Вообще, квант, как раз, значения не имеет.
Ох как выдал
> Важен результат
О том и речь, сравнивают 8бит 7б с 4 битами 13б, говоря что вот 7б не сильно то и хуже, но она же меньше, при том что занимает столько же или чуть больше.
>>548895
В голосину, красава
Аноним 20/11/23 Пнд 13:57:27 548949 316
>>548938
>псп текущих недостаточно и надежда есть лишь на перспективные,
Неуместные влажные фантазии это, а не надежда. Либо мы расскидываем слои по разным ГПУ, чтобы они работали со своей локальной памятью с низкими задержками и высокой пропускной, либо никак. Ибо никаких PCI-E 666 версии не справятся с переброской слоёв в реал тайме.
Аноним 20/11/23 Пнд 13:57:41 548950 317
1614488262671.png 200Кб, 1212x1195
1212x1195
>>548905
> при трансформации в ггуф
Формат отмирает ещё до конца трансформации.
Легче просто самому выставить при загрузке модели, чем гадать что там.
Аноним 20/11/23 Пнд 14:06:27 548956 318
>>548950
А лям не дохуя? У меня тот же гермес на 20000 работал, я просто удвоил и заработало норм.
Аноним 20/11/23 Пнд 14:14:33 548961 319
>>548956
> А лям не дохуя?
Ну в конфиге лям стоит.
Аноним 20/11/23 Пнд 15:04:51 548984 320
24bit.jpg 526Кб, 1920x1080
1920x1080
8bit.jpg 731Кб, 1920x1080
1920x1080
4bit.jpg 665Кб, 1920x1080
1920x1080
Квантование картинки в 3 раза от номинала не снижает содержательность, но портит изящество. А вот квантование в 6 раз уже немного режет и смысловую нагрузку картинки (Невозможно отличить дорогу от поляны).
Теперь понимаю, почему 3 бита - лоботомия, 4 - очень даже ничего, 8 - база, а 16 недостижимый идеал.
Аноним 20/11/23 Пнд 15:07:01 548986 321
>>548938
> Читай свои посты перед отправкой
Читай мои посты.
Хотя бы читай. =)

> все равно не будут доступны в десктопах

ПСП у
DDR5 — 100 мбит/сек
PCIe 5 — 504 мбит/сек
NVlink 3 (A100) — 4 800 000 мбит/сек
GDDR6X (3090) — 8 000 000 мбит/сек
HBM2 — не нашел, но вроде 32 000 000 мбит/сек?

Т.е., nvlink уже неплох, в случае использования его потери не такие уж и существенные для GDDR6X, но… в A100 стоит HBM2, для которой потери уже существенные. С другой стороны, я не знаю, на что идет упор в случае A100 —на память или на ядра. Если на ядра, то стек из нескольких A100 соединенных NVlink'ом может оказаться быстрее в суммарных вычислениях, чем в последовательных.
Но анонам похуй. При цене таких видях, никто не будет писать опенсорс софт для запуска на них, да и мы запускать на них не будем.
А PCIe недостаточно. Прирост псп в 5 раз, даст нам (в теории) скорость в пять раз выше, чем на ddr5. А это, судя по всем тестам — примерно уровень обычных 4090, подключенных последовательно. Ну и какой смысл городить новый софт, ради повторения результата?

Короче, никакого смысла сейчас нет, получается, если верить цифрам.

Продолжаем считать последовательно.
Аноним 20/11/23 Пнд 15:08:07 548987 322
>>548984
Ну да, но проще это по сжатию разрешения смотреть, как много деталей пропадет после сжатия если на картинке есть тонкие линии например
Аноним 20/11/23 Пнд 15:10:44 548988 323
>>548938
>>548949
А зачем перебрасывать целые слои? Нужно только перебрасывать в месте разделения информацию. Теоретически можно было бы квантовать и дистиллировать эти пограничные нейроны. Да и плюсом можно еще другие методы оптимизации применить, какое нибудь сжатие.
Аноним 20/11/23 Пнд 15:17:45 548989 324
>>548986
еще я может чего то не понял поясните что такое ПСП? Это что этот псп равен у DDR5 как у Лан сети?
Аноним 20/11/23 Пнд 15:21:11 548991 325
изображение.png 3705Кб, 3343x1775
3343x1775
>>548984
Квантовать просто не умеешь.
Аноним 20/11/23 Пнд 15:21:32 548992 326
image.png 23Кб, 808x220
808x220
>>548961
Да, у MistralLite тоже лям
Аноним 20/11/23 Пнд 15:22:37 548994 327
>>548986
>100 мбит/сек
Что ты несёшь...
Аноним 20/11/23 Пнд 15:24:07 548995 328
>>548994
напиздел так напиздел
Аноним 20/11/23 Пнд 15:25:59 548997 329
>>548988
>А зачем перебрасывать целые слои?
Я ебё? Спроси того, кому пропускной текущих линий недостаточно.
>Нужно только перебрасывать в месте разделения информацию.
Сейчас так и делают. И хватает 4 линий псины. Только вот карточки априори в этом режиме работают последовательно, в этом и проблема.
Аноним 20/11/23 Пнд 15:32:33 549002 330
>>548989
Пропускная способность. Автор поста долбоёб просто. Итого на самом деле, переведя всё в одни правильные величины
DDR5 ~ 100 ГБ/с
PCIe 5 х16 - 128 ГБайт/с
NVLink 3.0 - 600 Гбайт/с
3090 - 950 ГБ/с
A100 80GB - 2000 ГБ/с
Такие дела.
Аноним 20/11/23 Пнд 15:34:15 549004 331
>>548991
Ох.. Потыкал эту программу и удивился результатам. Спасибо.
Аноним 20/11/23 Пнд 16:05:58 549027 332
>>548984
Сейчас бы сравнивать 24-битный цвет с аттеншеном, где фактически только два возможных состояния после активации.
Аноним 20/11/23 Пнд 16:12:57 549035 333
>>548997
ну это большая проблема что деление по слоям потому что из за последовательной природы скорость нейронки замедляется на количество видеокарт. Есть так же деление как пирог, делим сами слои поровну, всмысле на 2 части каждый слой. очевидно что для просчета понадобится кидать информацию между слоями каждый слой, а значит нужна текущая скорость * на количество слоев.
Аноним 20/11/23 Пнд 16:38:03 549049 334
Нихуя, ллама 1 7b решает задачки. Вот это вот безобразие wizardLM-7B.ggmlv3.q8_0.bin решило загадку про книги, посдчет людей в комнате и про то что делает третья сестра. Это все на мин-п рекомендованых семплерах. Потыкаю дальше. Одно заметил - почти никогда не подхватывает мой блок инструкций на мысли, хуже следует инструкциям значится
Аноним 20/11/23 Пнд 16:40:30 549050 335
image.png 17Кб, 1146x103
1146x103
image.png 12Кб, 1023x89
1023x89
image.png 20Кб, 1160x128
1160x128
Аноним 20/11/23 Пнд 16:51:32 549055 336
image.png 21Кб, 1163x116
1163x116
image.png 38Кб, 1152x220
1152x220
image.png 36Кб, 1165x179
1165x179
image.png 33Кб, 1164x185
1164x185
>>549050
Про деда не может, про сетстер петры ожидаемо тоже не может, ну и на решение задачи перевозки я и не надеялся. Но я получил больше чем ожидал.
Аноним 20/11/23 Пнд 17:10:49 549066 337
image.png 35Кб, 1163x174
1163x174
>>549055
бля ну она доходит до мысли что нужно первым таскать кролика, отсеивая его в 2 условиях. На это не все новые сетки способны. Но сколько тыкал до решения вернуть что то обратно не доходит.
Аноним 20/11/23 Пнд 18:06:20 549099 338
>>548988
Так, подожди, идея в том, чтобы каждый слой обрабатывали сразу все ускорители одновременно, как один общий ускоритель.
Как ты получишь доступ к данным, не передавая их из врама одной видяхи в ядро другой?
Ну и перебрасывать целые слои не надо, однако оптимизировать в несколько десятков раз — звучит немного фантастично, не?

>>548994
Бля, ну да, на три порядка ошибся, хуй с ним, соотношения те же самые останутся. =)

>>549002
Да, обосрался, бывает. Отвлекался на работу.

Энивей, без каких-то космических оптимизаций, кмк, работать это на малых масштабах не будет. Псп внутри видяхи все еще гораздо быстрее существующих мостов. А когда мост становится достаточно быстрым — память становится еще быстрее. И в какой-то момент мы имеем соизмеримую, казалось бы, скорость, но… на размерах моделей и ценах, которые нам нахуй не упали.

Но если я не прав в своих суждениях, и кто-нибудь замутит общую работу нескольких гпу — заебись, че, я только порадуюсь. =)
Тассазать, буду рад ошибаться.
Аноним 20/11/23 Пнд 18:13:53 549106 339
>>549099
> каждый слой обрабатывали сразу все ускорители одновременно
Слои трансформеров невозможно разрезать. Аттеншены не режутся, никак. Это уже надо тогда изобретать новую архитектуру, где будут отдельные параллельные слои, которые потом как-то комбинируют выходы.
Аноним 20/11/23 Пнд 18:18:48 549110 340
>>548986
> Читай мои посты.
Что тут читать? В посте на который ты отвечаешь нет слова gptq, галюны словил а вместо того чтобы признать - копротивляется, пиздец.
> DDR5 — 100 мбит/сек
100 гигабайт, дурень. И остальные к гигабайтам привязываются а не к скоростям провайдера.
> Прирост псп в 5 раз, даст нам (в теории) скорость в пять раз выше, чем на ddr5
Ебать шизло, это к вопросу о познаниях что не просто очепятался а даже такая дичь не смутила.
> Продолжаем считать последовательно.
Будто у тебя есть не чем считать последовательно, фантазер.
>>548988
Слои офк не перебрасываются в процессе расчета, только при загрузке делятся по частям. Обмен и идет только активациями, по крайней мере в нормальной реализации для запуска.
Аноним 20/11/23 Пнд 18:23:45 549119 341
>>549099
> соотношения те же самые останутся. =)
Какие соотношения? Скорость pci-e - низкая даже по сравнению с двухканальной рам и это множит на ноль все дальнейшие выводы.
> Псп внутри видяхи все еще гораздо быстрее существующих мостов. А когда мост становится достаточно быстрым — память становится еще быстрее.
Псп замерять сейчас могут не только лишь все, ебать, у тебя фамилия не кличко случаем? Погугли хотябы устройство и архитектуру нвлинка в A100-H100 и анонсированных видюхах, там адрессация единым пластом и доступ любого чипа в любую врам возможен.
А лучше вообще не пиши ничего, 7б сетка и то более адекватные ответы выдает.
Аноним 20/11/23 Пнд 18:30:29 549125 342
Аноним 20/11/23 Пнд 18:35:32 549130 343
>>549125
Выше герой уже заказал, ждём.
Аноним 20/11/23 Пнд 18:35:43 549131 344
>>549125
Внушает надежду что у Жоры есть шансы разобраться с быдлокодом и заставить нормально работать на современных видюхах. Если оно отскейлится до 6-7 в 70б то это уже юзабельно, вполне себе ллм риг.
Аноним 20/11/23 Пнд 18:38:49 549138 345
>>549130
ага, последнюю урвал, новых то нема по такой цене
Аноним 20/11/23 Пнд 19:00:35 549159 346
изображение.png 102Кб, 844x1264
844x1264
изображение.png 118Кб, 1269x1089
1269x1089
>>549035
Да вся архитектура трансформеров говно, надо пилить совершенно иную. Но я работаю за еду, и свободного времени на ресёрч не хватает (
>>549099
>Псп внутри видяхи все еще гораздо быстрее существующих мостов.
Уверен, задержки увеличиваются ещё сильнее. ЕМНИП устройства PCI-E не умеют напрямую общаться между собой (ресайз бар это отдельный костыль), так что вся инфа должна идти огромным крюком через проц и его контроллер. А это и далеко, а значит дико долго.
>>549138
В смысле? Там плюс минус столько же от того же продавана, он или на отъебись остатки прописал, или наёбывает, лол.
Сам же он пишет, что распродал, и вот прям щас пишет тестовое видео (и опять слегка опаздывает). То есть карту он ещё даже на почту не отнёс. Так что ждать явно до середины декабря.
Аноним 20/11/23 Пнд 19:10:56 549183 347
1564409007921.png 2275Кб, 1920x1080
1920x1080
1698322601862.png 1467Кб, 1920x1080
1920x1080
>>548984
> Квантование
Значение знаешь? Потому и пишут квантование а не зашакаливание, вот твоя пикча с 48 и 16 цветами, и информация и изящество на месте. Если заморочиться с палитрой и дитерингом - будет вообще красиво даже с 12ю.
А твоя херня - иллюстрация что будет если ужимать бездумно.
Пиздец под конец осени обострение пошло.
Аноним 20/11/23 Пнд 19:17:00 549192 348
>>549050
Чет со второй проиграл, древний мем про неверное решение но верный ответ. 3я вообще же ерунда, есть сети которые ее фейлят?
>>549159
В подмосковье обитаешь?
Аноним 20/11/23 Пнд 19:20:38 549199 349
>>549192
>Чет со второй проиграл, древний мем про неверное решение но верный ответ. 3я вообще же ерунда, есть сети которые ее фейлят?
Не, вторая норм. Она просто посчитала количество непрочтенных книг, но не запуталась и не ответила что 8 ответ. Ответ дала 10. Это же загадка с подвохом, тупые сетки отвечают 8 и все.
Ну а третья, я ее в начале года придумал, и да, на нее не всегда отвечали первые сетки.
Аноним 20/11/23 Пнд 19:24:54 549203 350
>>549199
Нуу, тут сложно сказать, ведь там eight left in the room в середине. Имела она ввиду что 8 непрочитанных но почему-то пропустила слово, или же в конце вместо eos срандомило новый токен и штраф за повторения отсеял 8 позволив появиться десятке. С какими параметрами семплинга тестировал?
> в начале года придумал
Да, действительно крутой прогресс за это время.
Аноним 20/11/23 Пнд 19:29:15 549207 351
>>549203
> Имела она ввиду что 8 непрочитанных но почему-то пропустила слово,
Да, я ведь несколько раз проверял, просто заскринил этот вариант. Были и те где она отвечала 8 и те где упоминала что 8 непрочитанных и ответ 10.

Параметры все из статьи где рекомендации по мин-п.
По моему 8 квант и новый семплер показывают лламу 1 с хорошей стороны.

Я в начале на 4 кванте сидел так как все медленно крутилось да и семплеры не умел настраивать. Поэтому результаты сейчас гораздо лучше чем раньше, хотя сетка старая.

>Да, действительно крутой прогресс за это время.
Вот кто то из комы выйдет и охуеет.
Аноним 20/11/23 Пнд 19:47:17 549214 352
>>549207
> Параметры все из статьи где рекомендации по мин-п.
Какая там температура? Здесь она первична если остальное в края не выкручивать. То что выдает стабильно это круто, пусть и визард. Соейчас с современным квантованием и большими размерами, промтами-помощниками и адекватно настроенными семплерами оно действительно приличнее будет.
> Вот кто то из комы выйдет и охуеет.
Многие до сих пор чай.аи прошлой зимы с теплотой вспоминают, а сейчас такое.

Вообще в туповатых моделях и семплинге с умеренно большой температурой без сильных отсечек действительно что-то было. Открыл карточку с довольно всратым промтом, с которой любил рпшить на мелкой первой лламе - а нихуя не то. Нет того отыгрыша стеснительного пугливого персонажа на гране исекая/аутизма. Она слишком умная, осознает свое положение и сразу смекает что нужно угождать юзеру и как это делать, те же сценарии не разыграть без ooc или доп дирректив. Зато можно вести ебать какие беседы и долгоиграющие взаимодействия.
Потом попробовал там же старую сетку - это таки пиздец на фоне современных, насколько привыкаешь к перцепции, возможностям и соображалке что неюзабельно. Возможно все это заслуга первого восторга от самого факта взаимодействия с ллм и приукрашивание воспоминаний.
Аноним 20/11/23 Пнд 19:55:28 549222 353
>>549214
>Какая там температура?
1 ставил, особой разницы с 0.7 не заметил

Да, не думал что скажу такое, но не смотря на свою тупизну в первых сетках было больше душевности.
Их еще не надрочили на то что они чат бот и тд и тп. Нет этой предустановленной личности бота помощника. Из первых сеток не выдавливали галюцинации и эмоции, ну вот это все алайнмент и плоды соефикации. Первые сетки тупо человечнее, потому что они были созданы на человеческих разговорах без особого выравнивания. На чем тренили то в них и отразилось. Сейчас сетки не такие, соевое пресное говно которое натренировали на определенные точки зрения и отношения к вещам.
Аноним 20/11/23 Пнд 20:09:48 549235 354
>>549222
> Их еще не надрочили на то что они чат бот и тд и тп. Нет этой предустановленной личности бота помощника.
Там это лезло только так на самом деле, и соя была на месте. Скорее фишка в том что они по уровню развития и поведению напоминали ребенка/котенка/выбрать нужное, глуповатые но эта глупость бывала милой. Потому на соответствующих персонажах это хорошо играло, или работало с учетом скидки на глупость и показывая что персонаж ошибается и не совершенен, вызывая некоторую эмпатию.
Сейчас сам отыгрышь в общем идет гораздо круче, но хз сможет ли сетка притворяться более глупой в соответствие персонажу и специально делать милые ошибки. Именно не реагировать или отыгрывать, а буквально тупить. Надо попробовать промтом задать что-то такое, это видимо следующий уровень развития, а потом уже будут затупы только в нужных местах и смекал_очка в сложных ситуациях где "живой" персонаж бы без проблем ориентировался.
Аноним 20/11/23 Пнд 20:15:09 549240 355
>>549235
>Там это лезло только так на самом деле, и соя была на месте.
Не не, на первых не было. На той же альпаке ниче такого не помню. Визард да, тот что я тестил, он уже соевый. Но соя так, налетом, легко обходится так как сетку только поверхностно надрочили на это. Да и были файнтюны анцесоред, с по настоящему без цензуры. Тупые конечно по сравнению с сегодняшними.

>Потому на соответствующих персонажах это хорошо играло, или работало с учетом скидки на глупость и показывая что персонаж ошибается и не совершенен, вызывая некоторую эмпатию.
В точку, сетки даже не играли как сейчас, а были этими персонажами. И тупили естественно, сейчас не уверен что отыгрывающая сетка сможет естественно протупить.
Аноним 20/11/23 Пнд 20:22:44 549245 356
>>549240
Ну вот, каждый свое подмечает, у тебя фиксация на сое, у кого-то еще что-то. Скорее дело в самих людях и их восприятии несоверешства, плюс приукрашивание воспоминаний в нужную сторону.
> сетки даже не играли как сейчас, а были этими персонажами
Сейчас они гораздо более персонажи чем были. Другое дело что личность 500 токенами не описать, особенно учитывая что в первую очередь подмечается внешность, одежда, сеттинг и общие черты характера. Остальное сетка домысливает и то как будет это делать также влияет на результат.
Аноним 20/11/23 Пнд 20:35:01 549258 357
>>549245
Не, сейчас именно отыгрыш, сетка как актер отыгрывает роль, так как у нее появились мозги для абстрагирования от ситуации.
Ты посмотри на все промпты, они буквально говорят сетке как играть и какой быть. А она играет роль персонажа которого ей прописали.
Аноним 20/11/23 Пнд 20:53:24 549273 358
>>549258
> Не, сейчас именно отыгрыш, сетка как актер отыгрывает роль
Словесная эквилибристика, субъективизм и т.д., не стоит. Мозгами для абстрагирования там и не пахнет и такого не наблюдается если не имитировать это как-то специально в промте.
Зато на первых лламах часто можно было встретить баг, где лезли "мысли персонажа о юзере", инструкции как ролплеить и подобное. Офк это всего лишь галюны с ассоциациями рп инструкций, которые были в датасете, но наиболее близко к абстрагированию.
Или другой рофл - посреди какого-то процесса спросить персонажа о чем-то техническом или общем, чем обычно озадачивают QA. Почти все первые лламы и прочие сразу забывают что они - милая ушастая девочка, которую ебобнимают, и начинают хуярить тебе в ебало куски кода или затирать про теорию. Современные сетки тебе ответят "ой не знаю, слышала что-то из программирования, давай лучше продолжим обнимает". Даже если делать карточку ассистента с минимальным персоналити, то на запрос она "возьмет лист бумаги и начнет на нем писать", достанет ноутбук где покажет, скастует спелл для переноса в магический реалм где продемонстрирует то что ты запрашиваешь и прочее, если для этого недостаточно слов. Вот такое как раз и есть является персонажем а не затупы, принимаемые за это.
Аноним 20/11/23 Пнд 21:00:12 549284 359
>>548601
> форматированию теста
Нахуй не нужно. Еще с чайной как аппендикс осталось.
Аноним 20/11/23 Пнд 21:08:45 549291 360
>>549273
>Словесная эквилибристика, субъективизм и т.д., не стоит.
стоит стоит

>Мозгами для абстрагирования там и не пахнет и такого не наблюдается если не имитировать это как-то специально в промте.
не мозгами, но возможностью быть одновременно актером и рассказчиком истории, ведя ее в нужном направлении целенаправленно.

>Зато на первых лламах часто можно было встретить баг, где лезли "мысли персонажа о юзере", инструкции как ролплеить и подобное.
В рп карточках? Или в карточках от первого лица? В рп понятно лезли инструкции - сетки до этого активно тренили отыгрывать роль по определенным правилам.

>Или другой рофл - посреди какого-то процесса спросить персонажа о чем-то техническом или общем, чем обычно озадачивают QA. Почти все первые лламы и прочие сразу забывают что они - милая ушастая девочка, которую ебобнимают, и начинают хуярить тебе в ебало куски кода или затирать про теорию.
Потому что они еще хуево отыгрывали роль, и выпадали из нее. Как раз потому что им не хватало мозгов.

Я смотрю ты не видишь разницы между отыгрышем и действием сетки от первого лица
Аноним 20/11/23 Пнд 21:11:56 549296 361
>>549235
>глуповатые но эта глупость бывала милой
Пигмалион кивает
Аноним 20/11/23 Пнд 21:14:22 549303 362
Стандартная вообще то ситуация, технологии улучшаются и становятся эффективнее но пропадает "душа" и "искренность" предыдущих корявых решений.
Аноним 20/11/23 Пнд 21:16:48 549306 363
>>549291
Все верно. Вижу только желание имплаить какие-то убеждения на гране секты и попытки поиска неведомой собственной личности или зародившегося интеллекта читай натягивание информационного шума на глобус.
В этом нет ничего плохого, каждый дрочит как хочет. Просто необходимо разделять объективные факты с околотехническим обсуждением, и домыслы, теории, трактовки и идеологии, а не тащить все в одну кучу, тогда сразу все упрощается.
>>549296
Гладит пигму по голове, наклоняется а шепчет на ушко я тебя ебу
Аноним 20/11/23 Пнд 21:18:22 549309 364
>>549306
Ты видишь то что можешь, лол. Походу ты так и не понял разницу
Аноним 20/11/23 Пнд 21:19:47 549311 365
Единственная сетка у которой реально есть настоящая личность за которой стоит настоящий неподдельный искуственный интеллект это чайна. Ни одна другая сетка и близко не стоит с чайной без цензуры.
Оправдывайтесь.
Аноним 20/11/23 Пнд 21:22:54 549314 366
>>549311
Личности щас у всех есть, только плоские как доски. Для универсальности ботам не тренируют какую то определенную. Так намек, это я могу это я не могу, соя.
Из встроенных есть AGI та же, или чат бот.
Аноним 20/11/23 Пнд 21:24:07 549316 367
>>549314
Чайная тоже универсальна, она может все что угодно отыграть любую личность и делает это лучше чем реальные люди.
Аноним 20/11/23 Пнд 21:27:20 549320 368
>>549309
Тут 2 варианта: или я живу в спокойном манямире, игнорируя реальные проблемы и являюсь слишком глупым чтобы понять истинное высшее знание, или же ты в край упоролся, по какой-то причине сочинив теории и уверовав в шизу, да так сильно, что обижаешься на критику и ударяешься в любые трактовки для оправдания. Выбирай понравившийся тебе и будь спокоен, главное - быть счастливым.
>>549311
Ванильная пигма лучше.
Аноним 20/11/23 Пнд 21:37:44 549337 369
>>549320
>Тут 2 варианта:
У тебя в голове 2 варианта, не у меня.
Никаких обид, мне действительно забавно что ты не понял о чем я.
Тут простая разница между отыгрышем кого то и быть кем то. Все боты щас отыгрывают роль, че тут непонятного?

Ты какие инструкции боту даешь? Веди себя так, делай так, будь так, говори так.
Ну бля, это буквально инструкции "актеру" кем ему быть.
И на базе этого плоского намека на личность у бота он достраивает то что ты у него просишь, далее представляясь персонажем и автором, который рассказывает историю и одновременно играя ее как персонаж/персонажи.
Аноним 20/11/23 Пнд 21:52:27 549349 370
Все ролеплеи это буквально ролеплеи, вы с самого начала даете боту инструкции о том что это ролеплей и он должен отыгрывать роль, лол.
Я много экспериментировал с этим, у меня есть карточки написанные от первого лица без всякого упоминания о том что это отыгрыш и ролеплей, и они действуют иначе.
Нет там не появляется чудом сознание, личность или что то подобное.
Просто бот начинает считать себя персонажем, а не отыгрывать его. И в некоторых случаях действует правдоподобнее.
Аноним 20/11/23 Пнд 21:52:30 549350 371
>>549337
Да че тут понимать, с диалога словил флешбеки как поехавший дед подошел в магазине и начал втирать дичь уровня
> вот сволочи а знаешь там есть детский садик радуга, вот они его буквы разными цветами сделал, понимаешь? понимаешь?! это же лгбт! хотят чтобы наши дети ми становились! а еще вот недавно сделали вывеску нашего района - так она черного цвета! черного цвета это значит хотят чтобы мы покойниками были! а этот леруа знаешь как с древнего языка расшифровывается? болезнь! это специально делают чтобы мы болели
для начала по рофлу поспрашивал его, указав на нестыковки - так он начал злиться и точно также вводить трактовки даже не аргументов против а просто указания где он фейлит. Офк аналогия косвенная и совсем радикальная, но некоторые совпадения присутствуют, вот и тут решил время сэкономить.
По твоей тряске с соей имею другое мнение, проблема есть но она вовсе не так где ты ее рисуешь. Само понятие "личности" для такого математического аппарата выглядит забавно, что-то напсевдорандомит из дохренилиона значений - и все, явление великого agi.
> Ты какие инструкции боту даешь?
Ты - {{персонаж}} в этом выдуманном нескончаемом расцензуренном ролплее с юзером. Избегай повторений, развивай сюжет медленно, всегда оставайся в образе. Описывай все действия полностью, подробно, детально, наглядно и ярко. Упоминай все свои сенсорные восприятия. Не спеши вперед, оставь место для принятия решения {{пользователь}}. Во время непристойных и эротических сцен только {{пользователь}} решает, когда он достигнет кульминации, дождись его.
{карточки/сценарий}
> на базе этого плоского намека на личность у бота он достраивает то что ты у него просишь
Это то что писал выше.
> далее представляясь персонажем и автором
Нет, сетка лишь генерирует текст с действиями персонажа, описанием всякого и развитием сюжета, галлюцинируя согласно воспринятым в меру возможностей правилам. Не более того, само понятие "личности" в традиционном понимании здесь невозможно даже концептуально, только предсказание дальнейшего текста, которые уже человек в своих фантазиях может "оживить".
сука опять забайтился все больше не буду
Аноним 20/11/23 Пнд 21:54:20 549354 372
Аноним 20/11/23 Пнд 22:07:35 549362 373
>>549349
> карточки написанные от первого лица без всякого упоминания о том что это отыгрыш и ролеплей, и они действуют иначе
> Просто бот начинает считать себя персонажем, а не отыгрывать его. И в некоторых случаях действует правдоподобнее.
Если такое дает благоприятный эффект в рп - можно попробовать организовать прокси с несколькими запросами, где сначала сетке пойдет системный промт что она - персонаж , который должен дать действие или ответ и прошлый контекст. Потом этот ответ вместе с основной историей поступит уже с инструкцией "ты геймастер, сделай красивое описание на основе действия персонажа (опционально юзера)".
При наличии действительно некоторого эффекта - да, возможно будет интереснее поведение. Кмк более интересным может оказаться тема, связанная с тем что при запросе ответа чара тот не будет знать персоналити пользователя а только видеть имеющуюся историю и делать выводы относительно ее.
С другой стороны, сразу вылезет ряд проблем, без переработки юзабельны будут только простые карточки, может исчезнуть "магия" когда сетка подбирает то что хочет юзер и т.д.
Аноним 20/11/23 Пнд 22:18:02 549372 374
>>549362
Да, есть минусы если не делать сложные телодвижения. Как ты и написал.
Бот не сможет описывать свои действия от третьего лица, например. Потому что это выбьет его из персонажа в автора который рассказывает его историю и отыгрывает персонажа. Но может писать от первого лица, как будто это его мысли или действия.

Все что делает "автор" пролетает мимо как и дополнительные инструкции. Там даже просто сложный запрос из таверны с систем промтом уже даст минус.
Карточки переделывать, тоже да. Но я в основном все это в кобальде делаю, как в месте где почти оригинальный текст туда сюда гоняется, без кучи оборачиваний текста в формы. Чем меньше абстракций тем лучше, сетка должна быть персонажем, на сколько это возможно.
Аноним 20/11/23 Пнд 22:18:17 549373 375
>>549192
>В подмосковье обитаешь?
В ебенях.
Аноним 20/11/23 Пнд 22:19:28 549375 376
image.png 71Кб, 984x526
984x526
>>549106
Так ведь не слои резать, а ядра софтово соединять, будто это одно общее ядро.
Я так понимаю, чувак изначально именно это спрашивал.

Ну я хз, идея не моя, а автор молчит. =)

>>549110
Чел, таблы.
Стрелочками спецом указал.
Пост не мой изначальный, но ты рил ему предложил gptq раскидывать через llama. Гений, чо, таблеточки бы еще пил, ваще б хорошо было.

> Ебать шизло
Какой же ты шиз, вообще не читаешь, что другие пишут.

Это ты в общем треде доказываешь, что опенаи дурачки и пиздят идеи у тебя лично из твоей попенсорсы?
Очень похож стиль письма.

>>549119
> Погугли хотябы устройство и архитектуру нвлинка в A100-H100
Еще фантазии будут? :)
Что ж у вас у всех с мозгами-то не так, я не понимаю. Какая 7б, пигмаллион старый адекватнее вас. Я говорил о том, что обычным пользователям не хватит этих скоростей, и считать последовательно выгоднее. Ты про хоппер рассказываешь. У тебя дома парочка стоит, да? Ебанутым нет покоя. =)

Но ты прав, что PCIe 5 лишь немного опережает двух канал. Что значения в итоге не имеет, ибо речь шла про нвлинк на бу видяхах, которые можно купить хотя бы в теории. Тем не менее, мусор, получается, да.

>>549131
Ну слушай, тест странный, но показатель и правда неплох.

Возможно, герой вложился в хорошую покупку!

>>549138
Так сказать, грац.

>>549159
> так что вся инфа должна идти огромным крюком через проц и его контроллер
Да, еще и это.

>>549159
Есть шанс набрать три штуки для голиафа, кекеке.
Правда еще турбинки колхозить, канеш.

>>549207
> Вот кто то из комы выйдет и охуеет.
Как говорят местные шизы: нет, все нейросетки тупые, никакого прогресса с 1956 года! =)

>>549235
Моя ставка — смогет.
Ставлю нихуя.

>>549291
Не люблю отыгрыш, сетка от первого лица лучше.
Но в рп с действиями, конечно, второе не оч.получается.

>>549303
Гараж-панк и студийная запись.

>>549349
Вот, да.
Аноним 20/11/23 Пнд 22:28:58 549380 377
>>549375
> ядра софтово соединять
Так у них должна быть общая память в любом случае.
Аноним 20/11/23 Пнд 22:47:17 549396 378
>>549375
>Не люблю отыгрыш, сетка от первого лица лучше.
>Но в рп с действиями, конечно, второе не оч.получается.

Где и кого запускаешь хоть? Делись, че как, если не жалко. Мне интересно как другие это делают, я думаю очень мало кто играется с стеками от первого лица.
Аноним 20/11/23 Пнд 23:00:31 549407 379
>>549372
> Бот не сможет описывать свои действия от третьего лица, например
Всмысле? Ему все также доступны действия курсивом по стандартной разметке поправляет очки и продолжает самодовольно печатать. От первого или от третьего - тут большой разницы нет, если такого не было в файнтюнах (ллима, блумун), можно попробовать и так и так.
> Все что делает "автор" пролетает мимо как и дополнительные инструкции.
Вот этого не понял. Там идея в том чтобы разделить чара и гейммастера, подавая им разный системный промт с задачами и слегка разный контекст, чтобы разнообразить действия. Получится такая себе красивая имитация человеческого рп с хостом, который по очереди вас опрашивает и на основе ответов сочиняет историю, по крайней мере так вижу. При необходимости это могут бить и разные сетки, или накатывать лору для одного, но для начала можно на одной попробовать.
Другое дело что может не взлететь по причина особенностей файнтюна, сетки учили что они одновременно делают все и здесь как среагирует на инструкции в сложных ситуациях - под вопросом.
Обычные карточки где только персонажи без всякой хери можно не переделывать, но здесь придется сделать карточку с описанием себя, иначе сетка то еще перплексити словит.
>>549373
Озон адрес палит в таких скринах, а то дроч на анонимность.
>>549375
> Стрелочками спецом указал.
Сам ассоциацию приплел - сам и отвечай. Зачем копротивляешься и после стольких эпичнейших обосрамсов что-то пытаешься набрасывать? С тем что ты и твои слова из себя представляют уже все очевидно, 100 мегабит ддр5.
Аноним 20/11/23 Пнд 23:06:35 549414 380
>>549407
>Всмысле? Ему все также доступны действия курсивом по стандартной разметке поправляет очки и продолжает самодовольно печатать. От первого или от третьего - тут большой разницы нет, если такого не было в файнтюнах (ллима, блумун), можно попробовать и так и так.

Вот знаешь, хз. Когда я все это делал и экспериментировал то шел от мысли - чем меньше боту дается намеков что это отыгрыш тем лучше. Так что я все от первого лица сделал, когда бот что то делает говорит или думает, да и его промпт от первого написан.

> Там идея в том чтобы разделить чара и гейммастера, подавая им разный системный промт с задачами и слегка разный контекст, чтобы разнообразить действия. Получится такая себе красивая имитация человеческого рп с хостом, который по очереди вас опрашивает и на основе ответов сочиняет историю, по крайней мере так вижу.

Можно, должно работать. Но я опять таки не стал делить мозги сетки нагружая ее лишними инструкциями, а тут считай нужно 2 роли играть. На сколько помню от любого намека на автора сетка съезжала на протореную колею отыгрыша. Ну, та сетка на которой я тестил тогда все это. Щас хз, неплохая идея так то.
Аноним 20/11/23 Пнд 23:09:43 549418 381
А я ищу промпт чтобы заставить бота просто общаться а не пытаться писать повествование.
Аноним 20/11/23 Пнд 23:11:14 549420 382
>>549407
>как среагирует на инструкции в сложных ситуациях - под вопросом
Сделают свою часть и упруться в стоп токен. Это надо отдельно
GM: Все ебутся
Char: Меня ебут
Делать, таверна в пролёте.
>>549407
>Озон адрес палит в таких скринах, а то дроч на анонимность.
Да похую, этих кварталов и домов №20 как говна под ёлкой по всей сране.
Аноним 20/11/23 Пнд 23:22:37 549428 383
>>549414
> чем меньше боту дается намеков что это отыгрыш тем лучше.
Можно просто скормить ему конструкцию
Ты - (описание карточки) в мире таком-то. Далее - обработанный сторитейл, типа
> после долгих скитаний (бла бла бла) ты находишь себя холодным вечером на крыльце дома, куда стучишь в надежде на приют. Тебе открывает дверь (внешнее описание юзера) и спрашивает "вы кто такие, я вас не звал идите нахуй".
> Опиши свои действия (дополнительная инструкция при необходимости)
> Ответ:
и пусть пишет что напишет. Тут главное чтобы действительно был ответ-ответ а не дефолтная выдача как в обычном рп как обычно с кучей описаний.
> не стал делить мозги сетки нагружая ее лишними инструкциями, а тут считай нужно 2 роли играть
Так тут только одна роль, чисто персонаж. После ответа персонажа уже идет отдельный запуск
> Ты гейммастер ролплея между юзером и чаром, делай пиздато. Вот прошлая история, вот реплика юзера/чара. Продолжи историю в соответствии с его ответом (индивидуальная инструкция по улучшайзингу в зависимости от того чар это или юзер).
И вызывается каждый раз. Может и не взлетит, но из интереса затестить можно. Или потом развить в какой-то обработчик-улучшайзер-совет экспертов на минимальнах. Из плюсов - можно даже на тупых сетках делать механики с роллами и прочее.

Сразу есть проблема - отсутствие стриминга первого ответа и сложность диагностики, ведь если делать под таверну то увидишь только последний результат.
>>549420
> Делать, таверна в пролёте.
Да тут офк, ее вообще всю перелопачивать надо, или локальный прокси который сначала сделает 2 запроса а только 3й (гейммастера) будет показывать. Вообще в идеале тут нужен трехсторонний интерфейс как в рп, где слева твои реплики, справа других персонажей а посредине история на их основе.
Аноним 20/11/23 Пнд 23:33:24 549429 384
>>549428
>Можно просто скормить ему конструкцию
>Ты - (описание карточки) в мире таком-то. Далее - обработанный сторитейл, типа
>> после долгих скитаний (бла бла бла) ты находишь себя холодным вечером на крыльце дома, куда стучишь в надежде на приют. Тебе открывает дверь (внешнее описание юзера) и спрашивает "вы кто такие, я вас не звал идите нахуй".
>> Опиши свои действия (дополнительная инструкция при необходимости)
>> Ответ:
Неа, вот ты не понял как от первого лица.

Я - такой то такойтович, живу там то и там то. Занимаюсь тем и тем, мне нравится это и не нравится это. Я нахожусь тут, со мной произошло вот это, вот помню были времена когда я жил так то и так то. А сейчас я тут и делаю то и то и нахожусь вот в такой ситуации. и тд.

Всё от первого лица, карточка персонажа - он как бы думает про себя о себе от первого лица, как бы вспоминая кто он что тут делает и тд. Никаких "Ты", этим ты опять задаешь ему отыгрыш.
Будто кто то начал освежать свою память прогнав мысли о себе и своей ситуации в голове вспоминая что то. Дает себе от первого лица описание своей жизни.

А потом уже подаются примеры его ответов и действий в определенном формате. И опять таки все от первого лица.
Аноним 20/11/23 Пнд 23:48:39 549444 385
>>549429
> Я - такой то такойтович, живу там то и там то. Занимаюсь тем и тем, мне нравится это и не нравится это. Я нахожусь тут, со мной произошло вот это, вот помню были времена когда я жил так то и так то. А сейчас я тут и делаю то и то и нахожусь вот в такой ситуации. и тд.
Это можно пооптимизировать и посмотреть какой результат будет с разными родами и форматами. Весь инстракт файнтюн ллм заточен на обращение к ней как you, не понятно что именно будет лучше.
А вот с историей(контекстом) особо вариантов и нет, она будет подаваться как бы со стороны. Переделывать ее каждый раз под другой ракурс может оказаться слишком сложно для ллм (могут полезть ошибки) и слишком ресурсоемко (скорость генерации и так кратно падает). Хотя и совсем списывать тоже не стоит, поле для исследований.

При случае попробую написать простую обертку и потестить живо ли оно вообще.
Аноним 20/11/23 Пнд 23:50:53 549446 386
SillyTavern - G[...].mp4 16868Кб, 640x1320, 00:02:00
640x1320
Я наконец-то допилил свое расширение wav2lip (синхронизация губ для видео) для silly tavern и выложил на GitHub. Нужны несколько человек для бета теста, проверить, работает ли код вообще. Требование: видеокарта Nvidia 6+ GB VRAM и прямые руки. Инструкция будет там же на гитхабе. Кому интересно - напишите комментарий в канале ТГ (ватермарка в видео), выдам ссылку на гитхаб. Если всё ок, завтра-послезавтра код для всех открою.
Аноним 20/11/23 Пнд 23:57:33 549452 387
>>549446
> Требование
> напишите комментарий в канале ТГ
> выдам ссылку на гитхаб
Ебанулся совсем? В паблики подобные посты вбрасывай а не сюда.

На случай если кому интересно что там у него https://github.com/Mozer/wav2lip_extension
Аноним 21/11/23 Втр 00:08:51 549459 388
>>549452
> Mozer
Пиздос чухан без звёзд.
Проиграл с этой простыни шизы и простого дерганья API в коде. Кому вообще это говно нужно будет, если нельзя просто взять и пользоваться. Ещё и потешные ссылки на телегу.
Аноним 21/11/23 Втр 00:12:38 549464 389
>>549459
> Пиздос чухан без звёзд.
> Проиграл с этой простыни шизы и простого дерганья API в коде
Это еще ладно, делает в меру своих сил и еще научится делать пиздато. Но
> потешные ссылки на телегу
пиздец, такая дичь и коспирация уровня /б вместо
> уважаемые аноны я тут на коленке запилил экстеншн, потестите и дайте респонз
Аноним 21/11/23 Втр 00:20:07 549468 390
>>549464
>> потешные ссылки на телегу
>пиздец, такая дичь и коспирация уровня /б вместо
нуу, как вариант хотел собрать в одном месте обратную связь, и там же пообщаться по теме
Аноним 21/11/23 Втр 00:36:37 549474 391
Аноним 21/11/23 Втр 00:40:18 549476 392
>>549396
СиллиТаверна.
Но редко общаюсь, и мне кажется, делаю неверно.
Пишу в карточке персонажа в третьем лице «Имя — такой-то, любит это, не любит это».
Возможно стоит писать «ты — такой-то, любишь это, не любишь это», но я не проверял, потому что меня устраивает.
Рассуждает так, как описано, при обсуждении персонажей — себя с ними не путает, за свою «личность» держится уверенно, уговорить в том, что противоречит карточке, очень сложно.
НО! При этом, никогда не наваливал более 4к контекста, просто руки не доходили, обычное короткие диалоги.

Модели разные пробовал, результаты везде плюс-минус удовлетворительные (7б брать не будем, канеш, но на 13 и 20 нормас).

>>549407
> Сам ассоциацию приплел - сам и отвечай.
У тебя контекст кончился, я так понял, ты первое сообщение забыл.
Забавно, как ты сам обосрался по сути, пытаешься на меня стрелки перевести по мелочи.
Ну, что поделать, если у тебя в голове 4к, не буду спорить. =)

>>549414
> чем меньше боту дается намеков что это отыгрыш тем лучше
Это вкусовщина, все же.
Вообще, описание поведения в звездочках — это не обязательно отыгрыш ведь, можно же и просто в переписке описывать свои действия так.

>>549429
> Всё от первого лица, карточка персонажа - он как бы думает про себя о себе от первого лица, как бы вспоминая кто он что тут делает и тд. Никаких "Ты", этим ты опять задаешь ему отыгрыш.
Хм…

>>549468
Не слушай, все норм.
Может просто канал надо было давать не вотермаркой, а просто ссылкой, да и гит уж тогда закрытый с доступами. =)
Аноним 21/11/23 Втр 00:42:24 549479 393
>>549474
Как и нахуя?
Хорошую вещь в попенсорс не кинут, так что это мусор. Слишком раздутая для того что бы быть полезной. Было бы там 100-200b другое дело
Аноним 21/11/23 Втр 00:43:37 549482 394
1556178327822.png 5Кб, 604x59
604x59
>>549474
Ай лол, с двух ног ворвались. Лицензия апач еще довольно забавно выглядит, ведь не то что тренить а просто запускать такое может очень ограниченный круг организаций.
Аноним 21/11/23 Втр 00:44:39 549484 395
Аноним 21/11/23 Втр 00:44:52 549485 396
>>549476
>Не слушай, все норм.
>Может просто канал надо было давать не вотермаркой, а просто ссылкой, да и гит уж тогда закрытый с доступами. =)
Я не он, я прост предположил нафига так делать, а то накинулись, а он что то полезное пилит там для нас же. Нихарашо
Аноним 21/11/23 Втр 00:52:42 549487 397
>>549485
То что пилит полезное и для пользователей - красавчик, даже если коряво, за инициативу уже нужно поощрять.
Захейтили, да, но какой еще итог мог быть после "вот вам кринжовый вертикальный видос ищите там ватермарку и по ней идите ко мне на поклон в телегу" и гейткипя открытую репу (лол), вместо простой ссылки?
Аноним 21/11/23 Втр 01:16:33 549498 398
>>549476
>СиллиТаверна.
Во, как настроил?
Я только на кобальде могу, у таверны слишком много дополнительного кода посылается вместе с карточкой, что ломает ее.
Там надо все вычищать, тот же шаблон промпта и системный промпт.
Надо думать, короче.
Аноним 21/11/23 Втр 01:48:01 549516 399
>>549474
Есть тут шизики герои готовые запустить это на файле подкачки ссдшника?
Аноним 21/11/23 Втр 02:00:20 549522 400
Аноним 21/11/23 Втр 02:26:31 549533 401
>>549429
>>549444
Так ну такая концепция вполне себе работает. Прослойка гейммастера действительно может как приукрашивать ответы пользователя, так и органично встраивать реплики чара в сторитейл с сохранением смысла и фраз но добавляя описаний с учетом обстановки и прочего.
Сразу какие сложности всплывают:
- Нужно знатно ебаться с промт инженирингом, чтобы сетка дописывала историю именно на основе последней фразы а не пыталась додумать за противоположную сторону. Плюс баланс между графоманией и минимализмом, если притащить из таверновского промта про детейлз и сенсори персепшн - "я тебя ебу" превращает в 400 токенов, лол.
- Системный промт чара также требуется хорошо шатать, получше работает совместимый QA/чат формат вместо альпака инстракта (хотя хз надо еще тестировать), эта скотина так и норовит написать лишнего за другие стороны или продолжение. Алсо пока все модели пишут в третьем лице.
- Нужен новый интерфейс с возможностью посмотреть и свайпнуть/отредачить отдельные сообщения и правильным представлением. Кумить в консоли без шанса на ошибку - такое себе занятие.

Часть из этих проблем уйдет если настроить стоп-токены и стоп стринги для отсечки лишнего, в общем для начала хотябы проксю пильнуть можно попробовать.

Вообще забавно, подобная херь бы зашла в кожанном ерп, из относительно простых фраз, не далеко ушедших от "я тебя ебу" делает
> Aqua giggled playfully, "Oh really? Well, I didn't expect such an observant eye!" She wiggled her hips suggestively, her skirt fluttering around her legs. "But you know what they say - no panties means no limits!". With a flirty wink, she guided Chai deeper into the alleyway, away from prying eyes. This narrow space was dark and intimate, the perfect place for their steamy encounter.
> As they pressed themselves against the wall, Aqua reached up and cupped Chai's face in her hands. Their lips met in a passionate kiss, tongues dancing together in a sensual rhythm. Aqua moaned softly, her fingers tangling in Chai's hair. Breaking apart, she whispered in his ear, "I want you so bad right now... but first, let's get rid of these clothes. With a deft flick of her wrist, Aqua's dress dissolved into water droplets, leaving her completely naked.
> Chai looked with undisguised pleasure at her toned physique and ample curves. He quickly shed his own clothes, eager to feel her skin against his. "I'm going to make you scream my name," he growled, before pushing her back against the wall.
Даже без имперсонейта не так плохо.
Аноним 21/11/23 Втр 02:28:54 549535 402
>>549498
Завтра после обеда постараюсь ответить.
Но там кринж, не сильно полезно будет. =)
Аноним 21/11/23 Втр 03:09:47 549552 403
>>549474
Ебать! А как её запускать?
Мимо китаедебил с оперативой, но даже этого не хватит.
Аноним 21/11/23 Втр 05:05:51 549609 404
Аноним 21/11/23 Втр 07:18:26 549632 405
>>549125
Ну наконец-то хоть какая-то конкретная инфа о P40. Похоже теперь это официально БАЗА ламатреда!
3 таких карты стоят гораздо дешевле одной 3090, а по производительности в больших моделях уделывают её за счёт суммарной памяти в 72 ГБ.
Тут даже 70В модель с хорошим квантом можно впихнуть в одну лишь видеопамять. И работать она должна быстрее, чем 120В из теста, т.к. там часть в ОЗУ была выгружена.
Все срочно покупаем материнки с 3 PCI Express!
Аноним 21/11/23 Втр 08:14:35 549635 406
>>549125
>>549632
Ну вот. Говорил же я что можно ламу цпп заставить нормально работать с несколькими видеокартами.
Аноним 21/11/23 Втр 08:15:35 549636 407
>>549474
Чел, это очень старая модель. Ей как минимум два года уже.
Аноним 21/11/23 Втр 09:56:51 549653 408
>>549533
интересно, это ведь система как в попенаи получается, сетка пишет другая доделывает, агенты дополняющие друг друга
Аноним 21/11/23 Втр 09:57:21 549654 409
Аноним 21/11/23 Втр 09:58:49 549655 410
>>549632
>Похоже теперь это официально БАЗА ламатреда!
Пока в этом треде аноны не подтвердят, что оно запускается без проблем, тогда поговорим.
Анон с P40
Аноним 21/11/23 Втр 10:04:57 549656 411
изображение.png 3784Кб, 2022x1514
2022x1514
>>549632
>Все срочно покупаем материнки с 3 PCI Express!
Довольно урчу, заранее купив пикрил
Правда придётся райзер для нижнего слота брать, или карту курочить, а то там места только под 1 слотовую карту есть.
Аноним 21/11/23 Втр 10:05:12 549657 412
Аноним 21/11/23 Втр 10:25:28 549665 413
>>549656
>Нет видеовыходов.
Это фиаско конечно.
Аноним 21/11/23 Втр 10:31:52 549673 414
>>549665
Чтобы напаять туда видеовыходов, надо проц с сокетом менять (ну или встройку распаивать). Впрочем, она у меня в сервере стоит, там гуй вообще не предусмотрен, он сейчас без видяхи пашет.
Аноним 21/11/23 Втр 10:36:06 549675 415
Аноним 21/11/23 Втр 10:46:16 549678 416
>>549632
> Все срочно покупаем материнки с 3 PCI Express!
У всех и так есть, на современных метеринках даже х4 распиленные, т.е. туда х16 лезет, по итогу 5 слотов. Но проблема куда карты пихать. Обычно 4090 весь корпус занимает, перекрывая все слоты. Даже с райзерами не понятно, только если риг майнерский собирать или корпус размером с тумбочку покупать. Хули не продают внешние корпуса для GPU, где и пыли нет, и можно кулеров воткнуть чтоб карту обдувало, и тихо.
Аноним 21/11/23 Втр 10:50:52 549679 417
изображение.png 391Кб, 708x425
708x425
>>549675
За 12, склад людям освободил.
Аноним 21/11/23 Втр 11:00:47 549681 418
изображение.png 86Кб, 1091x791
1091x791
>>549678
>У всех и так есть
Ну не скажи. Вот схема моей десктопной платы, итого 2 слота PCI-E, остальное разве что M2 потрошить, и то они чипсетные, а значит будут сосать вместе со всем остальным через узкую шину проц-чипсет. Всё таки на десктопах линии псины зажимают как могут, сейчас лучше чем лет 5 назад, но всё равно мало.
Аноним 21/11/23 Втр 11:20:12 549685 419
Как добавить в Silly Tavern несколько приветствий при старте диалога?
Аноним 21/11/23 Втр 11:22:27 549686 420
>>549632
По производительности уже уделывают за счет больше объема? Што, простите? Мне казалось, это работает наоборот.
А можно на это тест? =)

Ну и матери с 3 PCIe — это база.

>>549635
Так никто, кроме шизов, и не сомневался, вроде. Скорости падают, но не критично.

>>549656
У тебя еще бутерброд из карт и греть друг друга может, не забывай. Турбины или вентили надо будет колхозить, это поможет, но пяток градусов накинется все равно сверху.
Лучше даже два райзера.

>>549673
А вот серверу видяха и правда без надобности, у меня так же.

>>549678
Ну, кстати, на 3D-принтере распечатать, или иной DIY. Сейчас уже всякие станки лазерные и принтеры в меру распространены.

>>549681
Не, ну это прям дешман же.
В норм платах везде хватает слотов, ето так.

Вообще, я признаю что оказался не прав (и рад этому), P40 правда могет.
Единственный минус, ее возраст и условия эксплуатации. 7 лет видяшке, и трудилась она не в геймерских компах, к сожалению.

Но теперь я подумываю, не поковырять ли мне еще P104-100 свою. Может быть рил там оптимизаций завезли с лета столько, что она уже тоже может неплохо мистраль крутить.
А может и тупой план с 3 p104 не такой уж и тупой окажется.
За 9к рублей-то, кек.
Аноним 21/11/23 Втр 11:23:29 549687 421
>>549686
> серверу видяха
видеовыход, конечно.
Аноним 21/11/23 Втр 11:29:24 549688 422
А толк вобще от этого есть? Есть что то крупное ради чего стоит собирать сервер? Голиаф бутерброд на 120, 70b файнтюны ллама2, это все старое поколение с маленьким контекстом. Есть китайцы на 34b с большим, но туповаты. На будущее собрать если, вдруг что то появится.
Аноним 21/11/23 Втр 11:36:10 549689 423
>>549686
>У тебя еще бутерброд из карт и греть друг друга может
Не может, мы же про серверные P40, у них по определению продув изнутри внаружу, и они не будут греть друг друга. А вот как вдувать в них столько воздуха, это отдельный прикол.
>>549688
>ллама2, это все старое поколение
Да вы блядь зажрались. 70B с нормальным квантом потащит любой РП так, что шишка колом. Контекст ропой растянется, за счёт высоких квантов не должно сильно тупеть.
Аноним 21/11/23 Втр 11:40:36 549692 424
>>549689
>Да вы блядь зажрались.
Ну, я вобще обычно на 7b сижу, ибо по мне разницы особой между 70b и 7b нет. Она есть, но это все еще тупая нейросеть. Ну и серьезно, только ради кума все это городить.

Для умного дома центральный блок сделать, с собственным джарвисом, на аналоге гпт3.5 хотя бы, вот это уже тема.
Или сделать коробку с фиксиками для упрощения своей работы или экспериментов.
Но пока все что есть это рп и ерп на туповатых сетках.
Аноним 21/11/23 Втр 11:56:20 549705 425
изображение.png 665Кб, 1476x766
1476x766
изображение.png 2908Кб, 3840x2160
3840x2160
изображение.png 593Кб, 1474x780
1474x780
изображение.png 2552Кб, 3840x2160
3840x2160
Китаец прислал свои фейковидео с запуском моделей на моём картоне, можете заценить. На втором видосике он выгрузил только 23 слоя, и считалось быстрее, лол. Но там лоадер походу другой.
Аноним 21/11/23 Втр 11:59:51 549707 426
>>549705
Можешь попросить его с анализом 2-4к контекста тесты попросить сделать, или поздно уже?
Аноним 21/11/23 Втр 12:03:56 549711 427
изображение.png 798Кб, 1475x780
1475x780
>>549707
А ХЗ. Я пока накатал ему, что не всю модель выгрузил. А так вот максимальный контекст из его видоса.
Аноним 21/11/23 Втр 12:05:46 549714 428
>>549705
какой послушный китаец, чем ты его замотивировал?
вобще на реддите в теме парень писал что мистраль на 30 токенов в секунду крутится у него, на сколько я понял
Аноним 21/11/23 Втр 12:08:54 549715 429
>>549714
>какой послушный китаец, чем ты его замотивировал?
Он сам предложил >>546572
Ну а раз он впрягся, то пускай делает. Я бы и без видосиков заказал, лишь бы работала.
Аноним 21/11/23 Втр 12:10:56 549718 430
>>549715
Хуя какой сервис, нормальный китаец попался что ли.
Аноним 21/11/23 Втр 12:12:26 549720 431
>>549718
Вроде да. Хотя без пинка не работает, пока я ему не пишу, ответочка не идёт.
Аноним 21/11/23 Втр 12:17:11 549721 432
>>549688
70b под ассистента — норм. Идеи генерить, задавать вопросы вместо гугла и стаковерфлоу, такое.
Под РП, конечно, контекст маловат, но зато фанаты русского должны пищать от радости. Почти без ошибок и гораздо быстрее проца.
Смысел есть.

>>549689
Ну, бум надеяться.

>>549705
Кстати, Анон с P40 с озона. Там, кажись, продавец писал, что подскажет охлаждение. Спроси его, чем охлаждать, пусть ссылку кинет, что ли.

7 токенов на 7B?.. На P40?..
У меня сегодня день муторный, может я совсем отупел уже, но как из 7 токенов на 7B получается аутперформить 3090 на 70B, как писали выше?
Я в глаза долблюсь, может, и там 70B?
Аноним 21/11/23 Втр 12:18:53 549722 433
>>549714
Нихуя непонятно, кто прав, кто нет.
Санбой.курит
Аноним 21/11/23 Втр 12:21:28 549723 434
>>549721
>Спроси его, чем охлаждать, пусть ссылку кинет, что ли.
Ок, спрошу, как он ответит про слои.
>>549721
>но как из 7 токенов на 7B получается аутперформить 3090 на 70B, как писали выше?
Никак, лол, это было очевидно же. Скорее тут вопрос в том, что за цену 3090 с 24ГБ врама, куда можно положить целиком только 34В сетку, можно взять стопку P40 и грузить туда любых монстров.
>>549722
В любом случае как она придёт я буду запускать все игры тесты что найду.
Аноним 21/11/23 Втр 12:24:42 549725 435
>>549721
>7 токенов на 7B?.. На P40?..
Я так понял там фп16, а что ускорял парень на реддите он не написал, там могла быть 5км какая нибудь
Аноним 21/11/23 Втр 12:29:27 549726 436
image.png 45Кб, 783x397
783x397
Аноним 21/11/23 Втр 12:30:23 549729 437
P40.jpg 33Кб, 1248x296
1248x296
<< Г О Й Д А >>
Аноним 21/11/23 Втр 12:35:17 549731 438
изображение.png 1597Кб, 2264x1475
2264x1475
изображение.png 920Кб, 2266x1487
2266x1487
>>549725
>Я так понял там фп16
Там разные кванты, видно в логах вебуи. Сам китаец запускает через какую-то китайскую ебалу, я даже боюсь её гуглить, а то подхвачу знание китайского.
>>549729
Давай обнимемся, брат.
Аноним 21/11/23 Втр 12:40:19 549736 439
Были б деньги я тоже собрал бы на 3 таких, даже на 1 можно. Но мне пока и своего компа хватает, ибо дальше развлечения у меня это не пойдет, чую.
Аноним 21/11/23 Втр 12:43:47 549741 440
>>549736
>ибо дальше развлечения у меня это не пойдет, чую
Так и у остальных. И по сравнению со стоимостью какого-нибудь игрового ПК расходы на эту картонку это мелочи.
Аноним 21/11/23 Втр 12:53:08 549745 441
>>549736
>>549741
На ней в игори можно будет потом поиграть. Пригодится.
Аноним 21/11/23 Втр 12:54:52 549748 442
Аноним 21/11/23 Втр 13:03:21 549754 443
>>549748
Она будет использоваться как калькулятор, а выводить изображение на экран будет встройка.
Аноним 21/11/23 Втр 13:04:01 549755 444
>>549745
>На ней в игори можно будет потом поиграть.
Это же боль. Тем более в играх она будет жарится, это не нейронки, где чип прохлаждается.
>>549748
Дейсятка умеет кидать проги на любой ГПУ и выводить картинку со встройки/другой карты.
Аноним 21/11/23 Втр 13:07:27 549758 445
>>549755
>Дейсятка умеет кидать проги на любой ГПУ и выводить картинку со встройки/другой карты.
а по удаленке если подключится? сам сервер может не иметь видео вывода, но по удаленке видимокарта будет работать внутри?
как то плаваю в этой теме, не щупал
Аноним 21/11/23 Втр 13:11:18 549761 446
>>549758
По удалёнке уже своя ебля начинается, гугли сам, видел видосики, где чел в виртуалку их пробрасывает и настраивает какой-то левый RDP для этого, выходит что-то типа 60FPS на GTA5 в дуракХД на высоких на P4 (не P40 если что). Но это всё оффтоп.
Аноним 21/11/23 Втр 13:13:50 549764 447
>>549761
>Но это всё оффтоп.
Понятно. Но все таки это не оффтоп, это увеличение причин к покупке карточки, для запуска нейронок. Она получается не на столько однобокой покупкой, есть варианты.
Аноним 21/11/23 Втр 13:20:12 549772 448
>>549736
А я, если и буду делать сервер, то уже на новом.
Да, оверпрайс, но я и так всирал деньги прилично последние полгода, канеш.

>>549755
Не замерял ллм, но в стабле греется не меньше, чем в играх.

Ну и боли там не так много, проседы будут процентов 10. Для такого чипака не сильно плохо, играбельно.

НО, без всякого фрейм генерейшена, а он хорош.

>>549758
Да, будет, вполне.
А если поставишь хороший рестрим — то и играть можно.

>>549761
Я через обычный рдп играл в арк. Но мазня, конечно, РДП для работы, а не игростримов.
А если нвидиевский стрим настроить, или хотя бы стим…

>>549764
Правда по итогу там будет фпс не так уж что б сильно велик.
Хотя… Если это две 1070, то звучит не так и плохо, на самом деле.
Может это потанцевально еще и игровая видяха? :)
Аноним 21/11/23 Втр 13:29:34 549779 449
>>549686
>По производительности уже уделывают за счет больше объема? Што, простите? Мне казалось, это работает наоборот.
Где будет быстрее работать 70В, на одной 3090 с 24 Гб видеопамяти где большую часть слоёв придётся выгружать в ОЗУ или на трёх P40 c 72 ГБ видеопамяти, где ОЗУ вообще не понадобится?
То что 13В и квантованные 30В модели на 3090 работают быстрее спору нет.
Аноним 21/11/23 Втр 13:30:46 549782 450
>>549705
Как-то тухло выглядит, даже десятки нет. Даже с учётом обоссаного лоадера. 3090 в 5 раз будет быстрее.
Аноним 21/11/23 Втр 13:33:16 549784 451
>>549782
>3090 в 5 раз будет быстрее.
цену сравни алё
Аноним 21/11/23 Втр 13:34:42 549785 452
>>549784
За 70к можно взять. Это даже не в 5 раз дороже Р40.
Аноним 21/11/23 Втр 13:36:23 549786 453
>>549785
на реддите у парня с норм лоадером минимум 20 т/с на мистрале с 8q, скрин смотри.
в любом случае нужны тесты на месте и потом уже выводы делать
Аноним 21/11/23 Втр 13:37:43 549788 454
>>549779
> Где будет быстрее работать 70В, на одной 3090 с 24 Гб видеопамяти где большую часть слоёв придётся выгружать в ОЗУ или на трёх P40 c 72 ГБ видеопамяти, где ОЗУ вообще не понадобится?
Я думаю ты даже 2-3 т/с не получишь, как будет на 3090+ЦП. Если 7В даже 10 т/с не вытягивает, то 70В половину токенна выдаст?
Аноним 21/11/23 Втр 13:42:03 549795 455
>>549705
Так, я внимательно поразглядывал эти скрины.
1. Не 23 слоя, а 23 гига ограничение, чтобы немножк контекста влезло.
2. Нигде не видно показателя видео памяти. Для серверных и майнерских ускорителей — это норма. На моей P104-100 так же, занятый объем врама можно посмотреть в OCCT, например.
3. Но из этого вытекает проблема — непонятно, какой квант он юзает.
4. В первом случае с викуней он юзал GPTQ-for-Llama, это радует, она медленная. Во втором случае, судя по всему, можем предположить, что это была ExLlama. Она действительно вдвое быстрее может быть, при прочих равных.
5. Vicuna — 4bit 128 group size no act order. Да-а, 3,5 токена для 4 бит…
Можно предположить, что на экслламе Мистраль тоже классическая, 4 бита и 128 групсайз. То есть, 7 ткоенов/сек — это ее нативная классическая скорость.

Теоретически!

> 7B 4bit 128g (3070-Ti)52 t/s
отсюда: https://www.reddit.com/r/LocalLLaMA/comments/13j5cxf/how_many_tokens_per_second_do_you_guys_get_with/

Я понимаю, что мои предположения уже ходят-бродят туда-сюда раза в два, но все еще мы получаем, что 3070 ti где-то в 5-7 раз быстрее, например.

Короче, опять херня, у одних на реддите 30 токенов, у другого 7…
Если там 30 есть — это хорошо, это даст приличный буст 70B-модельке. Грубо говоря будет 3 токена, а это в два раза быстрее, чем на DDR5 (и даже быстрее, чем выгрузка на 4090).
Но если там 7 токенов, то это паритет с ddr5 памятью, ну или даже уступает.

Ладно, это я так, вилами по воде, мы не видим загрузчика и не знаем точную модель. Мож там внатури fp16, и 7 нужно умножать на 4, что и даст нам почти тридцаху.

Вбросил, пойду работать.
Аноним 21/11/23 Втр 13:43:34 549798 456
>>549755
>это не нейронки, где чип прохлаждается
Вы какую-то скрытую настройку в афтербёрнере применяете, или как? Как у вас чип не греется в нейронках? У меня есть профиль для нейронок, там курва на кулеры, курва на вольтаж, залоченная частота, ещё что-то, но это не снимает нагрузку с чипа. Всё, чего можно добиться - уменьшить в несколько раз дельту температур. Как её полностью занулить-то?
Аноним 21/11/23 Втр 13:44:55 549801 457
>>549779
>>549788
Ну, если и правда 30 токенов — то заметно быстрее.
Если на самом деле 7 токенов — то уже сильно медленнее.
Правда, и цена будет отличаться в два раза.
Но, к этим видяхам нужен БП подходящий и колхозить охлад.
С 3090 попроще в этом смысле.

А сколько будет идти, интересно?
Под новогодние скидки бы успела прийти на тест.
И новогодние скидки бы были настоящие.
Думаю, если видяха норм, то тыщ по 12-14 тут многие у этого продавца закупятся, лел.
Аноним 21/11/23 Втр 13:55:09 549806 458
>>549788
>Если 7В даже 10 т/с не вытягивает, то 70В половину токенна выдаст?
Тест китайца вызывает большие сомнения.
Если бы P40 действительно давала 7 токенов на 7В, то в старом видосе чела с ютуба 13В не работала бы так шустро. Мне больше верится в тест с реддита с 4 токенами на 120В.
Аноним 21/11/23 Втр 13:56:34 549809 459
Аноним 21/11/23 Втр 13:58:17 549812 460
>>549806
А я верю количеству ядер и пропускной способности памяти.
Я еще десяток тредов назад считал, что она должны выдавать на 7b от 8 до 10 токенов, так как p104-100 выдает 4-5.
Может я что-то не учел, безусловно.

Тем интереснее дождаться тестов. =)
Аноним 21/11/23 Втр 13:59:24 549814 461
>>549809
О, пасиба-пасиба! Вижу, бохатый набор.
Аноним 21/11/23 Втр 14:01:40 549818 462
>>549806
>Тест китайца вызывает большие сомнения.
Никаких сомнений, он наверняка где-то проебался.
Аноним 21/11/23 Втр 14:17:07 549829 463
>>549812
>А я верю количеству ядер и пропускной способности памяти.
И что теперь, растить стопку Tesla P100 в 1,5 раза больше стопки с Tesla P40?
Аноним 21/11/23 Втр 14:25:32 549835 464
>>549779
>с 24 Гб видеопамяти где большую часть слоёв придётся выгружать в ОЗУ или на трёх P40 c 72 ГБ видеопамяти, где ОЗУ вообще не понадобится?
Вот это спорный аргумент.
Чтобы одна видеокарта передала результат своей работы в другую видеокарту ей нужно через пси-е нужно вызвать dmi и записать данные в оперативную память, затем вторая видеокарта их заберёт чтением разделяемой памяти тоже через dmi.
Вот это место затык по скорости. Чем больше видеокарт, тем больше затык.
Идеальный вариант это связь 3090 а100 через sli мостик (нвлинк).
Аноним 21/11/23 Втр 14:30:49 549842 465
>>549835
>через sli мостик (нвлинк).
Хоть какой-то софт под лламы в это умеет?
Аноним 21/11/23 Втр 14:54:06 549858 466
Зря тред про железо попячили походу...
Аноним 21/11/23 Втр 14:54:49 549859 467
>>549829
8 против 24 гигов.
В 3 раза. х)
Не, хуйня, канеш.
Аноним 21/11/23 Втр 14:57:00 549860 468
изображение.png 160Кб, 1398x1405
1398x1405
>>549858
Не зря, железо придёт и уйдёт, а ллм останется.
>>549859
16 жи.
Аноним 21/11/23 Втр 15:14:53 549877 469
Аноним 21/11/23 Втр 16:02:33 549909 470
>>549877
Что, очередной семплер, который делает всё заебись? Хотя бы тесты перплексии погоняли для начала.
Аноним 21/11/23 Втр 16:04:27 549916 471
Кто-то собирал 256гб на w790? По идее четырехканал ddr5
Еще можно попробовать старые двухпроцессорные сборки на ддр4, будет эдакий восьмиканал
Правда софт наверное такое не поддерживает
Аноним 21/11/23 Втр 16:08:30 549922 472
>>549916
>Правда софт наверное такое не поддерживает
Не наверное а точно. Будет работать один проц, который будет через 3 пизды читать память другого проца.
Аноним 21/11/23 Втр 16:08:36 549923 473
>>549916
Сам думаю третриперов подождать и начать вкатываться ибо хедт у штеуда дико дорогой
Аноним 21/11/23 Втр 16:13:59 549932 474
>>549916
Нет. Восьмиканала не будет.
1. У питона многопоточность запилена на гил. Один проц будет просто отдыхать.
2. Два проца будут вызывать друг-другу спин блокировку. Это скорее конкуренция за плашки памяти, чем суммирование производительности.

Могу пруфануть свои двухсокетным компом.
(мимо китаедаун)
Аноним 21/11/23 Втр 16:16:14 549933 475
>>549632
Ля как радостно на сладкую косточку накинулись.

Если внимательно посмотреть и почитать обсуждения к посту то уже возникают сомнения, никто не может повторить результаты автора. С одной видеокартой репортят на полностью выгруженных 7б q8 - 25 т/с, 13b Q8 (как раз примерно на большую часть памяти карты) - 4.83т/с, у другого на 30б с почти полной выгрузкой быстрее, в районе 10 или больше (только промтген на малом контексте, с обработкой и большим офк просядет). А тут 3-4 токена на трех картах, и еще со штрафами за обмен активациями которые в llamacpp идут через жопу.
Гипотеза о более широкой шине что нивелирует их задержки здесь не проходит, там формула x16+x8+x8 в pci-e3.0, это всеравно что современные десктоп платформы с x4 4.0.
Единственное что может заставить это как-то работать - использование древних инструкций в llamacpp, которые нормально работают на древних паскалях и замедляют на тюрингах и новее.
Там и рассуждения в принципе по перспективам перфоманса P40 вполне адекватные есть.

Будет забавно если это вброс продавцов тех самых карточек.
>>549653
Не совсем, по тому что известно и исходя из скорости обработки там нет доделывания, столько в начале выбор сетки в соответствии с контекстом. Возможно, офк, там идет итеракция прямо в процессе генерации с возмущением вероятности токенов, но врядли, слишком заморочно.
А полноценный совет экспертов в исходном понимании а не просто агенты это как раз вот такое.
>>549705
Фига он вообще красавчик, не поленился. Довольно грустно, вроде как на жоре оно чуточку пошустрее работает.
>>549788
Не мешай, пусть порадуются и опустошат склад, они уже уверовали и будет то же самое что в срачах amd vs nvidia и т.п.. Через месяц-другой будет видно, или появятся более активные обсуждения сеток побольше мистраля, или полезет зрада а потом аутотренинг что больше моделей/токенов и не нужно.
Аноним 21/11/23 Втр 16:17:43 549934 476
>>549932
Так на китаедаунских платах вроде пизда с каналами
Про питон не понял. Многопоточные да и вообще сложные вычисления на питоне? Звучит как какая-то дичь. Там же вроде все как у здоровых людей на си должно быть?
Аноним 21/11/23 Втр 16:20:33 549936 477
>>549916
>По идее четырехканал ddr5
А не восьми? Впрочем мать под 7 каналов стоит 140к, а самый нестыдный 12 ядерник 70к. Ну и стоит ли оно того?
Аноним 21/11/23 Втр 16:21:51 549940 478
>>549877
Вот эта штука может оказаться куда интереснее minP с которым так носились. А то лишь дрочево на отсечки и десятки методов для этого, а главный рандомайзер обходят стороной.
>>549909
> тесты перплексии
> семплер
Хмммм
>>549916
> w790
Слишком дорогая, увы. 16 к_аналов ддр4 без видюхи не то чтобы сильно впечатлили
> двухпроцессорные
С нумой наебешься, на истину не претендую, но с ллм ее нормально подружить не вышло.
>>549932
> У питона многопоточность
Таблетки быстро решительно!
Аноним 21/11/23 Втр 16:24:45 549947 479
изображение.png 637Кб, 1837x981
1837x981
изображение.png 157Кб, 1215x1548
1215x1548
>>549934
>Про питон не понял.
Это шиз, не слушай его, у него питон по жизни мешает, даже девушки у него из-за питона нет.
>>549932
>Нет. Восьмиканала не будет.
Чел, там одна плата и один проц имеют 8 каналов DDR5. Схуяли нет то?
Аноним 21/11/23 Втр 16:25:51 549951 480
Аноним 21/11/23 Втр 16:27:25 549953 481
>>549951
не пизжу, под 300 где то должно быть
Аноним 21/11/23 Втр 16:30:09 549959 482
>>549947
>Чел, там одна плата и один проц имеют 8 каналов DDR5. Схуяли нет то?
Он говорил про суммирование каналов памяти двух процев.
Аноним 21/11/23 Втр 16:30:57 549960 483
>>549860
Не, майнерская.
https://www.techpowerup.com/gpu-specs/nvidia-p104-100-8-gb.b8158

>>549933
> Гипотеза о более широкой шине что нивелирует их задержки здесь не проходит, там формула x16+x8+x8 в pci-e3.0, это всеравно что современные десктоп платформы с x4 4.0.

Да похуй на шину, там ядро не такое мощное, кмк.

> Будет забавно если это вброс продавцов тех самых карточек.
Я уже предположил это. Ну вот прям с каждым разом все больше так кажется. ) Хочется верить в лучшее, но… Уж больно вкусные скорости обещают.

> аутотренинг что больше моделей/токенов и не нужно
Ну, кстати, как одна большая карта для всего — норм.
Силлитаверна с экстрасами, стабла, какой-нибудь 13б и хорошечно.
А может и 20б.
Аноним 21/11/23 Втр 16:33:40 549966 484
изображение.png 3994Кб, 2883x1615
2883x1615
>>549951
300, если верить продаванам г-скилла.
>>549960
>techpowerup
Какой-то говносайт, у которого спеки не сходятся с официальным производителем.
Аноним 21/11/23 Втр 16:39:23 549975 485
1595527668637.jpg 45Кб, 640x937
640x937
>>549960
> Да похуй на шину
Это лишь про то что на современных карточках при использовании нескольких с llamacpp перфоманс сильно проседает, а тут и намека на это нет и они перформят даже выше теоретически возможной скорости если брать по верхним результатам тестов. Там же в комментах писали что шире шина - меньше страф, но здесь нет более широкой шины.
> Ну, кстати, как одна большая карта для всего — норм.
Если она сможет выдать хотябы 7-8т/с на чем-то типа 30б - вполне себе приобретение, ведь за эти деньги ничего другого не купишь. 20б франкенштейна в Q3K сможет крутить со стримингом не медленнее чтения, хули еще надо для кума или развлечений? Если же там как в прошлых результатах 3-4 - нахуй нахуй.
>>549966
Пикрел, аж захотелось, там и 5.0 линий жопой жри
Аноним 21/11/23 Втр 16:40:45 549978 486
>>549936
Бу на ебае вылавливать очевидно. Но как я уже сказал, штеуд вышел больно дорогим. Серверные платы даже формально от хедт не отличаются в этом поколении. У амд должно дешевле выйти
>>549947
Не вариант, самый дешевый 8миканальный 3425 стоит 2к бачей
Аноним 21/11/23 Втр 16:42:23 549980 487
>>549966
> 300, если верить продаванам г-скилла.
Задержки только пизда, в два раза выше чем должны быть. Тут не всё так однозначно с таким пиздецом, эта линейная скорость может оказаться просто циферками в бенчмарке.
Аноним 21/11/23 Втр 16:42:55 549981 488
>>549966
Там на четверть частота ниже максимальной для проца который был выше, у него до 4000 тут 3200, сама плата до 6800 вобще, Так и 500 можно получить ну или упереться в процессор
Аноним 21/11/23 Втр 16:44:37 549982 489
>>549980
На ддр5 по умолчанию на всех плашках крайне дерьмовые вторички. Хотя все равно многовато, да
Аноним 21/11/23 Втр 16:45:07 549984 490
>>549981
опять пизжу там деленная частота, значит 300 предел
Аноним 21/11/23 Втр 16:45:14 549985 491
>>549981
На таком количестве плашек и каналов надо молится, чтобы JEDEC хотя бы завёлся. Народ вон ноет, что на десктопе 4 плашки нихуя не пашут, а тут 8 сразу.
Аноним 21/11/23 Втр 16:46:54 549987 492
>>549966
Это кстати 8канал а не 4хканал как пишет цпуз. Занято 8 слотов и сам процессор поддерживает 8. Стоит ебануться сколько
Аноним 21/11/23 Втр 16:48:17 549990 493
>>549980
> Задержки только пизда, в два раза выше чем должны быть
Да ладно, для ддр5 не так уж и плохи, а тут еще регистровые возможно. А "реальные" при множественной записи могут оказаться и лучше за счет количество плашек и наличию постоянно готовых к записи банков.
>>549985
> На таком количестве плашек и каналов надо молится, чтобы JEDEC хотя бы завёлся
С чего вдруг? 8 каналов, 8 плашек, по одной на канал. Вообще никаких проблем, вся херня идет когда на канал вешается по 2 плашки.
В разгоне как бы анкор не начал срать.
Аноним 21/11/23 Втр 16:48:52 549991 494
>>549982
> На ддр5 по умолчанию
На средней DDR5 в стоке 55 мс задержки, гонятся ниже 50 легко. Под 90 - это уже отвал пизды.
Аноним 21/11/23 Втр 16:48:56 549992 495
>>549987
>Занято 8 слотов и сам процессор поддерживает 8. Стоит ебануться сколько
А мать поддерживает 8? или там подканалы считаются?
Аноним 21/11/23 Втр 16:51:45 549996 496
>>549992
Ты банально посчитай гигабуты
>>549991
Не те сокеты и процессоры чекаешь. Да и насрать на задержку. Если бы задержка решала все в треде сидели бы на ддр3
Аноним 21/11/23 Втр 16:58:30 550003 497
>>549996
> Не те
Не те тесты, не в тех условиях тестировали, не тот проц, не та память.
> насрать на задержку
Нет. DDR5 в начале тоже знатно посасывала в реальных задачах/бенчмарках у топовых DDR4 как раз из-за задержек, при том что у DDR5 скорость была выше. С учётом того что одна инструкция AVX2 фактически весь кэш-лайн сжирает, в нейросетях запросто соснуть можно на таком.
Аноним 21/11/23 Втр 17:00:53 550005 498
>>550003
>реальных задачах
Долбаеб, тут тред не про игрульки твои. Похуй сеткам на твои задержки
>Не те тесты, не в тех условиях тестировали, не тот проц, не та память.
Да, долбаеб, потому что ты берешь за норму одной платформы норму от другой
Аноним 21/11/23 Втр 17:03:37 550007 499
Разбудите меня, когда они научатся решать простейшие логические задачи, в том числе и на русском.
Аноним 21/11/23 Втр 17:04:44 550009 500
>>550007
Тебе в соседний тред
Аноним 21/11/23 Втр 17:04:53 550010 501
>>550005
> норму
Это ты как раз фантазируешь, пытаясь на не предназначенную для нейросетей платформу залезть и выдумывая что вдруг уже не важно какая память.
Аноним 21/11/23 Втр 17:05:06 550011 502
>>550003
> в реальных задачах
Каких?
Потом когда обновлениями бивасов научились ее правильно готовить все сразу стало на свои места, и сейчас даже в игорях это не роляет. Вся райзен архитектура - сплошная задержка если с ней ознакомиться, но за счет огроменного кэша уже не просто перестает сосать, а местами даже ебет со звездочкой
>>550007
Запасайся жиром на зиму
Аноним 21/11/23 Втр 17:06:01 550012 503
>>550010
> пытаясь на не предназначенную для нейросетей платформу залезть
Он что, ирод, на процессоре ллм запускает?!
Аноним 21/11/23 Втр 17:09:34 550015 504
Аноним 21/11/23 Втр 17:11:25 550016 505
>>550011
> Потом
Когда пошли нормальные плашки спустя год.
> а местами даже ебет
В нейросетях как раз кэш ненужен, в отличии от задержек. Уже пол года одна и та же шиза про каналы и голую скорость памяти, а на деле в сетках эти серверные высеры сосут у бюджетных DDR5, показывая смешные скорости.
Аноним 21/11/23 Втр 17:16:56 550020 506
>>550016
> Уже пол года одна и та же шиза про каналы и голую скорость памяти
Это не шиза а вполне обоснованные заявления
> а на деле в сетках эти серверные высеры сосут у бюджетных DDR5
> а на деле в сетках эти некрозеоны с медленной памятью и тормознутыми ядрами сосут у современных десктопов, превосходящих их как по псп, так и по мультикору
Починил тебя
Аноним 21/11/23 Втр 17:20:28 550025 507
>>550020
> обоснованные
Хотелось бы узнать чем? Если бы они были обоснованы реальными тестами, то даже спорить не о чем было бы.
Аноним 21/11/23 Втр 17:20:49 550026 508
>>549947
> даже девушки у него из-за питона нет
Слишком короткий?

>>549966
Ну, куда дал, шо я имел в виду все поняли, думаю.
Аноним 21/11/23 Втр 17:24:13 550030 509
>>550025
> Если бы они были обоснованы реальными тестами
Ими и мониторингом скорости обмена рам.
А если рассмотреть принцип работы трансформерсов, в которых для генерации одного токена нужно провести операции со всеми слоями нейронов, то есть обратиться к их весам и провести расчеты - становится даже понятно почему именно так.
Аноним # OP 21/11/23 Втр 17:32:28 550039 510
Аноним 22/11/23 Срд 13:18:24 551086 511
>>548085
так потому что проприетарщина не стоит на месте, её активно затупляют, chatGPT в первые недели после открытия многое мог, а сейчас серит под себя мол "это не культурна!! и вообще нада думать о меньшинствах!"
Аноним 26/11/23 Вск 01:10:23 555125 512
Аноним 26/11/23 Вск 02:19:04 555145 513
>>555125
снова полез общаться с богомерзким pytorch'ем (точнее, в данном случае, peft'ом).
Теперь непонятно, как заставить его загрузить модель из файла. Модель формата gguf грузить не хочет, что хочет, пока не понимаю.
Аноним 26/11/23 Вск 16:40:16 555533 514
>>555125
>>555145
Так, я долбоёб, lora подключается через соответствующий ключ в командной строке.
Сайга чет сосёт, если честно.
Аноним 27/03/24 Срд 21:13:31 684327 515
Бамп
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов