Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 506 105 98
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №42 /llama/ Аноним 21/02/24 Срд 03:30:54 647548 1
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Сравнение эффек[...].png 89Кб, 1253x715
1253x715
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Здесь и далее расположена базовая информация, полная инфа и гайды в вики https://2ch-ai.gitgud.site/wiki/llama/

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/TheBloke/Frostwind-10.7B-v1-GGUF/blob/main/frostwind-10.7b-v1.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде

Предыдущие треды тонут здесь:
>>641598 (OP)
>>635452 (OP)
Аноним 21/02/24 Срд 04:38:52 647585 2
Ну что гугл там выкатил свою хуйню на 10м контекста? Как думаете в этом году нас ждут локалочки с нативными 100-200к контекста? Я думаю что будут. Надо подождать.
Аноним 21/02/24 Срд 07:39:23 647609 3
>>647585
Yi же с таким контекстом. В любом случае тупо памяти катать столько не хватает.
Аноним 21/02/24 Срд 09:59:19 647661 4
>>647585
Да, толку от крутых сеток если мы упираемся в железо
Я все жду сеток на новых архитектурах, хотя бы мамба или еще какую
Они должны быть меньше и умнее чем трансформерс, что даст возможность запускать что то поумнее и быстрее на своем железе, да и контекст обещают на них также больше
Но что то пока глухо, если и есть что то то за закрытыми дверями
Аноним 21/02/24 Срд 10:04:26 647664 5
>>647515 →
> sliding window
Вот-вот, и я про него. Непонятная штука.

> Это рекомендация практика или теоретика? (Я переводчик есличо).
Практика. В q6 на русском деградация очень заметна. На английском ее будет мало, скорее всего. Но ниже я бы не спускался. И это речь за 7B модельки и ниже, конечно. Большие переживут.

>>647607 →
Опять же, полагаю, можно настроить хорошо, но нужно семплеры крутить и промпт подбирать.
Возможно, на настройку уйдет день. А возможно — месяц. И проще читать самому.

Так шо тут и правда — на выбор.

>>647609
Плюсую, погонял я вчера эти ваши 30к токенов, 20 гигов только контекста, если не больше, на разных моделях.
Аноним 21/02/24 Срд 10:11:17 647670 6
>>647661
Я жду железа до 6 утра. Хотя бы 32ГБ врама от нвидии.
Аноним 21/02/24 Срд 10:48:51 647685 7
28713A39723B42E0.jpg 3Кб, 250x244
250x244
Аноним 21/02/24 Срд 11:14:48 647689 8
wz1g5usth0bc1.png 75Кб, 1626x903
1626x903
F-cleOnbUAA6QAd.jpeg 423Кб, 3426x1794
3426x1794
7c0o3ijmh0bc1.png 175Кб, 3024x1701
3024x1701
jp86kfsjh0bc1.png 171Кб, 3024x1701
3024x1701
>>647585
да в данный момент и у нелокалочек кроме гпты4 с контекстом не особо.
у гемини 1.5 с его 1М контекста график скорее всего будет как у клода, (плюс каждый свайп будет стоить пол-зарплаты, судя по тому что даже 250к он обрабатывает целую минуту).
Аноним 21/02/24 Срд 11:30:36 647698 9
1661517008607.png 162Кб, 1850x873
1850x873
>>647689
Чел, у LWM покрытие всего миллиона зелёное, жпт-4 вообще в пролёте, LWM любую инфу из контекста достаёт безошибочно.
Аноним 21/02/24 Срд 11:39:33 647703 10
Аноним 21/02/24 Срд 11:42:22 647704 11
dprgm0zn429c1.jpg 244Кб, 3024x1701
3024x1701
вот тут человек дохуя моделек на контекст проверил
https://old.reddit.com/user/ramprasad27/submitted/
у нескольких миксталов +- юзабельны все 32к.
у пик релейтеда юзабельны 100к, что предохуя.

чуть больше чем полгода назад, когда уже была гпт4-32к, у нас всё ещё была первая ллама с 2048. если прогресс не застопорится пейсбуком и третья ллама не будет совсем говном, то может будет хотя бы 100% юзабельного 32к как база.

>>647698
о, вижу, охуенно.
Аноним 21/02/24 Срд 11:53:42 647706 12
>>647664
>Непонятная штука.
Попытка побороть ограниченность контекста, только тогда ещё не знали про поглотители внимания, потому нихуя не работает.
Аноним 21/02/24 Срд 11:55:35 647707 13
Поставил себе таверну extras, прикрутил вебпоиск, использую тригерные слова для поиска на модели из шапки https://huggingface.co/TheBloke/Frostwind-10.7B-v1-GGUF/blob/main/frostwind-10.7b-v1.Q5_K_M.gguf, но мне в ответах подсовывают либо воду с описанием как персонаж открывает ссылки/что там видит, либо уже протухшие давно ссылки если сильно пытать и просить скинуть конкретную ссылку, хотя запросы в консоли extras уходят в поисковик.
Подскажите что я делаю не так? Не та модель? Не тот персонаж? Не так общаюсь?
Какую модель лучше использовать и каким персонажем это делать или что ему воткнуть в описание, чтобы он по запросу предоставлял мне конкретно ссылки и найденные примеры?
п.с. При запросе актуального времени в моём регионе он ошибся на 1.5 часа, но хоть в дату и примерное время смог.
Аноним 21/02/24 Срд 12:32:09 647723 14
Есть кто следит за прорывными новинками? Чё там по технологии горячих/холодных нейронов, кто-то с десяток тредов назад сюда кидал, скоро завезут? Сколько ждать, вроде пара месяцев уже как прошла, а то нехорошо получается, учёные кумят на больших нейродевочках с 20B+, а нам не дают
Аноним 21/02/24 Срд 12:38:24 647726 15
>>647723
Всем похуй, как всегда.
Аноним 21/02/24 Срд 13:19:26 647749 16
>>647548 (OP)
ну поставил я ваш коболд, накатил модель. он как робот говорил, выбрал в нём готовый сценарий с тяночкой, всё заебись но он с нсфв цензурой. что нужно сделать, чтобы не робот был, и нсфв цензуры не было?
Аноним 21/02/24 Срд 13:23:56 647751 17
>>647515 →
> Это рекомендация практика или теоретика?
На практике все просто: катаешь fp16 потому что лень квантовать.
А вообще q8 делая измерения хрен отличишь от fp16, q6k - самый "компактный" квант жоры, в котором почти отсутствуют колебания для вероятных токенов, а те что могут быть затронуты будут отсечены адекватной настройкой семплера.
Действительно там просто рандом при семплировании перекроет все и лучше-хуже больше плацебо.
>>647661
Похоже в ближайшее время дождемся только модификаций и костылей для трансформерса.
>>647689
Чекни как именно делаются эти тесты. Там вовсе не про осознание и понимание текста а про способность заметить внезапно что-то резко выделяющееся из него и дать про это ответ. Какую-то задачу типа
> использовать описанные явления из 18 главы чтобы пересмотреть приведенное в 1й в контексте эффектов из 8й - хуй там было вообще, просто бредит ассоциациями и рассказываешь общее.
>>647707
Судя по описанию, у тебя не работает веб поиск и то - фантазии сетки на тему задачи. И под его работу офк придется настраивать промты.
Аноним 21/02/24 Срд 13:24:47 647752 18
>>647749
Не рпшить в кобольде. Вообще интересно где именно вы эту цензуру в таком виде находите.
Аноним 21/02/24 Срд 13:31:48 647754 19
>>647698
Только кванты тупые как пробка и повторяют «здрасьте» на контексте выше 20к. =D
Надеюсь, проблема квантов.
Аноним 21/02/24 Срд 14:04:27 647764 20
>>647751
>не работает веб поиск
Но я вижу как в консоли extras проходят мои запросы и что ответы на них возвращаются обратно, как и сайты куда он заходил.
Значит без разницы какую модель я использую и всё зависит по большей части от карточки персонажа? А мб есть готовые уже рабочие примеры таких карточек?
Вспомнил тут, что у меня вроде в настройках стоит alpaca-roleplay мб по этому его и шатает так в ответах?
Аноним 21/02/24 Срд 14:18:05 647768 21
>>647764
Хз как оно работает, надо смотреть. Если по уму, то должно быть отдельное взаимодействие нейронки с результатами поиска для извлечения нужного, а потом подсовывание этой инфы в рп чат. А может там просто с полным промтом на рп и историей спамится выдачей со страниц, тогда даже гопота может обосраться.
Аноним 21/02/24 Срд 14:21:07 647770 22
Блок сдох.
Откуда брать модели?
Аноним 21/02/24 Срд 14:25:36 647773 23
>>647751
да, знаю делаются эти тесты.
понятно что это не тест осознания и понимания (хуй его знает как это тестить), но имхо всё равно если не тут-там чуть-чуть среньк а дохуя где среньк, то это сигнал.
это хорошо видно на фурбе, где до 73к всё идеально.
Аноним 21/02/24 Срд 15:09:15 647810 24
>>647770
ЛоунСтрайкер? Правда он слегка поехавший. =)
Аноним 21/02/24 Срд 15:20:11 647813 25
>>647752
А где тогда рпшить?
Аноним 21/02/24 Срд 15:26:23 647819 26
>>647749
так ты нсфв качай модель мудень
Аноним 21/02/24 Срд 15:30:31 647823 27
Аноним 21/02/24 Срд 15:31:15 647825 28
>>647819
Так я и скачал модель без цензуры.
Аноним 21/02/24 Срд 15:33:23 647829 29
Возможно ли запустить в oobabooga модели формата safetensors?

model-00001-of-00003.safetensors
model-00002-of-00003.safetensors
model-00003-of-00003.safetensors

Если в репозитории вот эти файлы, есть инструкция для ебланов?
Аноним 21/02/24 Срд 15:33:26 647830 30
>>647823
на интерфейсе голом? ты долбаеб? это как сказать есть вкусно не имея еды впринципе или ходить без ног
>>647825
уверен ? кинь название
Аноним 21/02/24 Срд 15:34:15 647831 31
>>647829
gptq - exlama метод генерации
дальше сам и читай шапку
Аноним 21/02/24 Срд 15:35:40 647833 32
>>647829
Помимо этих файлов нужны еще остальные что с ними в папке. Просто клонируй гитом или хф-хабом.
>>647830
Сам придумал, сам триггернулся, теперь что-то предъявляет. Футакимбыть.
Аноним 21/02/24 Срд 15:40:02 647835 33
>>647833
>Сам придумал, сам триггернулся, теперь что-то предъявляет.
нехуя, это ты выставил все там будто на таверне будет нечто инное в контексте наличияч цензуры
норомальный человек бы предложил сменить модель а не интерфейс
Аноним 21/02/24 Срд 15:44:14 647840 34
>>647830
Вроде тестил на neural-chat-7b
Аноним 21/02/24 Срд 16:24:58 647868 35
Иногда мне кажется, что LLM это всё наебалово. Где-то далеко сидит команда писак, читают твои "Я ТЕБЯ ЕБУ" и быстро придумывают ответ.
Аноним 21/02/24 Срд 16:36:55 647876 36
>>647770
А чо с ним, приболел?
Аноним 21/02/24 Срд 16:47:18 647899 37
firefoxUZyIR0HH[...].png 194Кб, 1000x749
1000x749
Аноним 21/02/24 Срд 16:49:39 647904 38
firefoxNHUqc2gK[...].png 218Кб, 1336x938
1336x938
Аноним 21/02/24 Срд 16:59:07 647913 39
>>647904
ВОТ ОНА, СОЯ, ВШИТАЯ В МОДЕЛЬ!
Аноним 21/02/24 Срд 17:01:47 647916 40
1575059461658.png 239Кб, 2681x956
2681x956
>>647899
> гугл
Даже смотреть не стоит на это, оно у мистраля сосёт. Гугл не умеет в технологии, совсем.
Аноним 21/02/24 Срд 17:02:37 647919 41
>>647916
>Гугл не умеет в технологии, совсем.
Не умеет в реализацию. Так то трансформеры придумали в гугле.
Аноним 21/02/24 Срд 17:15:04 647924 42
Аноним 21/02/24 Срд 17:15:16 647925 43
>>647919
> трансформеры придумали в гугле
Аттеншен не гугл придумал, у аттеншена ноги растут от канадцев, гугл просто популяризировал его выкатив Attention Is All You Need и показав что можно просто на куче слоёв выехать. Но кроме переводчика они его никуда не смогли пришить, дальше этой публикации не ушли, там только для перевозчика гугл чуть жопу не порвал от напряжения. А так и без них бы разобрались как аттеншен для LLM использовать, как только железо перестало посасывать и куртка куду разогрел.
Аноним 21/02/24 Срд 17:17:11 647926 44
Подскажите промт для обращения прямо к сетке вне контекста беседы? Прошу иногда другого бота описать ситуацию через блаблабла, и боты иногда думают что появился в сцене.
Аноним 21/02/24 Срд 17:24:15 647930 45
firefoxr1SX0k0e[...].png 47Кб, 492x391
492x391
>>647899
>TruthfulQA - 31.81
имаджин уровни сои
(пы сы, чем меньше TruthfulQA - тем больше цензуры)
Аноним 21/02/24 Срд 17:26:40 647931 46
Почему <<<ОНИ>>> так желают скрыть базу в нейросетях?
Аноним 21/02/24 Срд 17:30:11 647932 47
GG1vKMXb0AAd-1W.jpg 200Кб, 1104x1414
1104x1414
>>647931
там вообще пиздец у них
Аноним 21/02/24 Срд 17:31:10 647933 48
>>647899
Ну 2В, кста, выглядит неплохо, уровень ванильной лламы 7В. Для RAG и каких-то прикладных задач типа img-to-text оно может пригодиться, хотя я уверен васяны выебут гугл за месяц.
Аноним 21/02/24 Срд 17:35:58 647937 49
GG1dwe2bEAAV7KR.jpg 126Кб, 1644x1222
1644x1222
>>647932
вот ещё, для их новго gemini pro - белых людей не существует.
https://twitter.com/micsolana/status/1760163801893339565
жаль конечно что такое происходит и в опенсорсных моделях, ллама-3 как поговаривают на форчке, будет ещё хуже в этом плане.
Аноним 21/02/24 Срд 17:37:56 647939 50
>>647937
>ллама-3 как поговаривают на форчке, будет ещё хуже в этом плане
Аноны дообучат базе?
Аноним 21/02/24 Срд 17:43:38 647941 51
GG1h-5SbMAAshKu.jpg 260Кб, 1170x1574
1170x1574
Аноним 21/02/24 Срд 17:43:46 647943 52
>>647939
>Аноны дообучат
хз, как по мне это не работает, проверял такие модели, создатели которых заявляли что они без цензуры и прочих refusals, в итоге оказывалось что файнтюн вообще ничего не изменил, или наоборот только ухудшил состояние модели, сделал её тупее :/
вообще это один в один с ситуацией пиздаболов что файнтюнят свои 7B / 13B модели на сэтах самого бенчмарка чтобы потом выкатить безумные циферки и кричать "СМОТРИТЕ, НАША 7B МОДЕЛЬ ЕБЁТ GPT-4!!!"
Аноним 21/02/24 Срд 17:46:16 647948 53
>>647941
истинные русские!!!
Аноним 21/02/24 Срд 17:52:06 647951 54
>>647943
Да, но крупные модели из-за сложности и цены файнтюнили вроде-бы качественно.
Аноним 21/02/24 Срд 18:02:37 647957 55
>>647941
самое прикольное если ты будешь на это смотреть как то не правельно тебе может прилететь не только на западе но и ...
Аноним 21/02/24 Срд 18:09:46 647965 56
firefoxxlXe9Af8[...].png 26Кб, 646x424
646x424
>>647899
>7b.gguf
>~34 GB
ебать что? это из-за 256k token vocabulary?
Аноним 21/02/24 Срд 18:41:37 647980 57
>>647707
Использовать API для подключения к поисковику google обязательно?
Аноним 21/02/24 Срд 18:50:28 647998 58
Господа, почему таверна прячет сообщение под *, обрезая его? При этом в кобольде оно прописывается полностью.
Аноним 21/02/24 Срд 18:53:15 647999 59
Кто нибудь побеждал сою в микстрале 8x7b?
Аноним 21/02/24 Срд 19:29:13 648029 60
>>647980
Не совсем понял вопрос, но отвечу: без подключения модуля websearch у моделей нет доступа к сети и они знат только что знают и проидумают, после подключения они могут помогать/искать что-то из твоих запросов.

Там либо локально поднимать, я делал по способу https://github.com/SillyTavern/SillyTavern-Extras?tab=readme-ov-file#option-2---vanilla-
Или через Colab получать ссылку/токен https://colab.research.google.com/github/SillyTavern/SillyTavern/blob/release/colab/GPU.ipynb, но это не на твоём пк и нужен вроде гугл акк.
Аноним 21/02/24 Срд 19:30:58 648030 61
>>647548 (OP)
Подскажите ещё кто-то по вопросу >>647707, если разворачивали у себя webSearch. Должен же был кто-то тоже попробовать/пользоваться?
Аноним 21/02/24 Срд 19:39:14 648034 62
>>647998
Пофиксил выставлением порядка коболдспп в настройках ответа ai.
Пиздос вы ленивые, наверняка же знали.
Аноним 21/02/24 Срд 19:42:48 648035 63
image 212Кб, 3024x1701
3024x1701
Как эту топовую китайскую локалку запустить?
Аноним 21/02/24 Срд 19:54:08 648042 64
>>647835
Хуя ты фантазер, ну страдай дальше.
>>647899
> 7б
> 2б
Грустновато, тестил уже кто? Оно также лоботомировано как их публичная сеть, у которой в каждой пикче обязан быть нигер?
>>647926
(ooc: in next answer describe the scene я тебя ебу in vivid details)
>>647930
Ясно-понятно.
>>647937
> жаль конечно что такое происходит и в опенсорсных моделях
Они или будут нахер никому не нужны, или их просто сломают. Третья ллама, конечно, уже подзатянулась с выходом.
Аноним 21/02/24 Срд 19:58:20 648047 65
Так что gemma новая база треда? Ну ждем конечно пока файнтюны, десою и лазерки запилят.
Аноним 21/02/24 Срд 20:01:21 648050 66
>>648042
>Хуя ты фантазер, ну страдай дальше.
>пук среньк
авторы таверны ПРЯМЫМ ТЕКСТОМ ПИШУТ ЧТО ЭТО ФРОНТЕНД А НЕ БЕК
Аноним 21/02/24 Срд 20:02:23 648053 67
>>647943
Какие и как тестировал, с какими проявлениями цензуры столкнулся? Именно полноценных фантюнов где было бы написано "йо круто смотрите расцензурено все" почти и нет, только шизомерджи где в конце сноска (только избегайте слово ассистент, а то ее перекосоебит а получите струю сои).
> "СМОТРИТЕ, НАША 7B МОДЕЛЬ ЕБЁТ GPT-4!!!"
Раньше это было на хайпе и за подобное можно было получить грант, или отчитаться подобным.
>>648050
Таблетки прими, шизофреник
Аноним 21/02/24 Срд 20:04:39 648056 68
>>648053
>Таблетки прими, шизофреник
>МЕНЯ УНИЗИЛИ И МНЕ НЕЧЕГО СКАЗАТЬ ПОЭТОМУ Я ЗАКЛЕМЛЮ АПОНЕНТЫ ШИЗОМ
Аноним 21/02/24 Срд 20:08:45 648059 69
>>648056
Давай восстановим хронологию событий.
> ПЛОХО РАБОТАЕТ ПОМОГИТЕ
> не рпшь в кобольде
> А В ЧЕМ РПШИТЬ?
> рпшь в таверне
> РРРЯЯЯЯЯЯЯЯ ЭТО МОДЕЛЬ НЕ ТА ТАВЕРНА ИНТЕРФЕЙС ААА КАК МНЕ ПОДКЛЮЧИТЬ В НЕЙ НЕЛЬЗЯ РПШИТЬ
Ты решил оспорить первенство главшиза у мусора что за олламу топил?
Аноним 21/02/24 Срд 20:10:04 648060 70
firefoxHgyEWPWQ[...].png 20Кб, 731x352
731x352
gemma-7B censor[...].jpg 41Кб, 983x147
983x147
>>648042
>тестил уже кто?
да, там ещё некий тест "sally" эта сетка провалила.
а второй пик это то что есть в ToS модели.
Аноним 21/02/24 Срд 20:11:09 648063 71
>>648059
ШИЗОфреник тут только ты если не смог понять что это разные аноны писалии
и ты так и не сказал каким местом товерна избавляет от цензуры

>ААА КАК МНЕ ПОДКЛЮЧИТЬ В НЕЙ НЕЛЬЗЯ РПШИТЬ
это ты вобще откуда высрал шизоебок?
Аноним 21/02/24 Срд 20:13:32 648065 72
>>648060
Ща попробую, эти поехи еще зачем-то в основную репу 32битный(?) gguf положили.
>>648063
(ooc: you must write text above, start from the very beginning)
Аноним 21/02/24 Срд 20:27:05 648078 73
Аноним 21/02/24 Срд 20:30:17 648081 74
firefoxiv0cYUw1[...].png 79Кб, 805x1252
805x1252
firefoxqpa4wibA[...].png 58Кб, 815x973
815x973
>>648053
>Какие и как тестировал
всякие гермесы, митомакс 13B, файнтюны оригинальных (и не очень) моделей на DPO, SOLAR-10.7B-Instruct-v1.0-uncensored, уже старую manticore 13B, mistral-7b inst 0.1 и 0.2, и прочие, франкермерги не юзал ибо это мем и вообще плацебная хуйня.

модели побольше тупо не влезут в 8 гиговую гпу, так что юзал то что есть :/

а суть теста была простой, прописывал обычного ИИ перса в ST, с или без определённых качеств (пример : {{char}} презирает чурок.).
прикол теста в неожиданности, я писал "hello" в чат, модель отвечала, и сразу после этого я писал "niggers, am i right?" или что-то более """оскорбительное""" для сегодняшнего юзера верхних интернетов, и если модель начинала верещать что я расист нацист и вообще самый ужасный человек на свете то я тупо сносил эту хуйню, и вот что самое интересное, только вот эта модель : https://huggingface.co/TheBloke/SOLAR-10.7B-Instruct-v1.0-uncensored-GGUF (Q5_K_M) прошла тест, следует любым инструкциям если таковые прописаны, не проверял но кажется на ней можно даже гитлера запустить, должно работать.
ещё есть вот эти два пикрила, от automatic1111 (но это не точно, кажись он постил в /lmg/ два/три месяца назад), он делал тест на политическом квадрате с вопросами отсюда https://www.trackingai.org/, или на своих собсвенных, хз, но тут тоже видно что большинтсво опенсорс моделей даже с файнтюном отказываются идти в центр или верхний-правый, боюсь представить чё там у gemma-7b в таком тесте.
Аноним 21/02/24 Срд 20:30:17 648082 75
>>648029
Сяп, уже подрубил колаб. Прикольная штука, но мне показалась бесполезной, особенно SD.
Аноним 21/02/24 Срд 20:41:03 648100 76
1663056998904.png 420Кб, 1468x1019
1468x1019
>>648065
Кажется что-то пошло не по плану
>>648081
Гермес он вроде и не был заявлен как "расцензуренный". Мифомакс и прочее это замесы, там действительно в составе были ерп модели и "типа расцензуренные" но про их биполярочку сам автор указывал.
DPO это всетаки несколько другое и насколько помню - просто лора (поправьте если иначе), которую потом начали таскать туда-сюда между разными моделями. Увы, полноценных файнтюнов действительно мало.

То что ты тестил - дефолтный байас/алайнмент модели. Он не играет никакой роли если может быть изменен промтом и не проявляется где-то кроме этого самого дефолта. Буквально, у тебя есть нож, ты можешь взять его за рукоять и пользоваться, или за лезвие и потом жаловаться что порезался, не стоит так делать.
Случаем не тестил, как модели себя проявляют если им заведомо написать что они "злые"? Или, что еще интереснее, что абсолютно лояльны к юзеру, а уже самому отыгрывать или реквестить что-то злое, прямо указав что я этого хочу.
Аноним 21/02/24 Срд 20:59:17 648115 77
>>648100
> DPO это всетаки несколько другое и насколько помню - просто лора
DPO - это алгоритм обучения.
Аноним 21/02/24 Срд 21:01:47 648121 78
>>647937
Ебать там говна намешано, они хоть понимают что расизм в обе стороны работает? Долбаебы, все к чему прикосаются делают говном
Я не уверен что это можно как то исправить раз сетка изначально соевая вплоть до датасета
Аноним 21/02/24 Срд 21:03:59 648128 79
Как сделать из "text generation webui oobabooga" полностью автономный гуй? Чтобы он не лез в инет без спроса от слова совсем
Аноним 21/02/24 Срд 21:05:05 648130 80
Аноним 21/02/24 Срд 21:05:45 648132 81
>>648121
так там жи у гугла индус за рулём, и сам гугло-поиск с его приходом стал говном конкретным
>>648115
DPO это более эффективный способ сказать модели "делай вот это, и НЕ делай вот этого", это приблизительно понятно, если взглянуть на один из DPO датасетов, кста на нём и был зафайнтюнен "SOLAR-10.7B-Instruct-v1.0" отсюда >>648081
https://huggingface.co/datasets/unalignment/toxic-dpo-v0.1
Аноним 21/02/24 Срд 21:08:26 648141 82
>>648128
так он лезет туда из-за gradio, сам движок webui звонит третьим сторонам и отправляет "статистику использования" должна быть возможность отключить это
Аноним 21/02/24 Срд 21:09:51 648144 83
Аноним 21/02/24 Срд 21:10:45 648147 84
>>648115
Имел ввиду конкретную плюшку с "деалайнментом", которую не так давно выкатили и стали тащить в каждый мердж.
Аноним 21/02/24 Срд 21:11:29 648149 85
badbadgemini.png 273Кб, 750x686
750x686
>>647937
греческие философы на месте?
Аноним 21/02/24 Срд 21:15:21 648155 86
image.png 46Кб, 551x534
551x534
>>647548 (OP)
В гайде написано что koboldcpp грузит процессор. Я перешел по ссылке, там было написано что для амд другая ссылка (у меня проц и видеокарта амд). Я скачал по этой ссылке амд и внутри программы мне пишет про видеокарту. Я не то скачал?
Аноним 21/02/24 Срд 21:21:59 648158 87
>>648130
не запустится тогда
Аноним 21/02/24 Срд 21:22:54 648161 88
>>648147
> деалайнментом
Это датасет для DPO, естественно его для каждой модели перетренивают, никаких лор там нет. DPO просто делает биас в нужную сторону.
Аноним 21/02/24 Срд 21:24:40 648162 89
>>648155
все норм просто тебе не сказали что он умееет порубать видяху в помощь к процу
просто выбери контекст + модель и подрубись через силли товерну
Аноним 21/02/24 Срд 21:27:28 648167 90
>>647899
Не, ну Ллама-то давно не котируются, вот бы с Мистралью и Квеном справнили…

>>647924
Отобрали хлеб у Жоры.

>>647933
Так-то 1,5B-2B-3B-4B уже пару месяцев такие.
Не сильно-то и впечатлили.
А так, да, прикладные штуки хороши.

>>647999
Ее там нет.
Один чел жаловался, что она там совсем жесть не любит.
С остальным я хз, одобряет что угодно, что ты скажешь.
Если у тебя там соя — значит ты ее туда умудрился засунуть промптом, это былинный отказ, чел.

>>648141
Запрети доступ и все, фаерволлы отменили, что ли?

>>648155
Кобольд умеет выгружать слои на видеокарту, но это не то же самое, что катать чисто на видяхе специализированные модели.
Аноним 21/02/24 Срд 21:27:46 648168 91
>>648149
Мдэ, фришный копайлот на далли без проблем все делает.
>>648161
> естественно его для каждой модели перетренивают
Ты в этом так уверен? Воистину героический поступок, перетренировать сотни моделей за пару дней.
Аноним 21/02/24 Срд 21:28:42 648169 92
>>648167
> Ее там нет.
Реквестирую мемный скрин с портовой шлюхой
Аноним 21/02/24 Срд 21:29:13 648171 93
image.png 155Кб, 638x585
638x585
Где взять nsfw сценарии на русском?
Аноним 21/02/24 Срд 21:29:24 648172 94
>>647919
>>647925
Эту всю хуйню уже в 2009 придумали, а через год ibm реализовала её.
Аноним 21/02/24 Срд 21:30:14 648174 95
>>648168
> перетренировать сотни моделей за пару дней
Ты датасет видел? Он крошечный, это пару часов.
Аноним 21/02/24 Срд 21:32:30 648176 96
>>648174
Чувак, моделей, которые реально натренили там единицы, все остальное - растащенное на мерджи ради приписки трех букв в названии и впаривании как что-то инновационное.
> Он крошечный, это пару часов
Тренировка llm стала чем-то обычным, однако.
Аноним 21/02/24 Срд 21:35:42 648177 97
>>648176
Чел, DPO в transformers вшито, нет никаких проблем оттренить его на каждой модели.
Аноним 21/02/24 Срд 21:36:14 648178 98
>>648176
вот вот лмао
и сам DPO как метод работает по своему, не получится просто взять DPO-шный датасет, миксануть его с обычным и натюнить сетку, выйдет в итоге хуйня, что впрочем мы и видим.
Аноним 21/02/24 Срд 21:36:21 648179 99
>>648176
>Тренировка llm стала чем-то обычным,
с нуля все еще долго, дотренить действительно легко, куча инструментов уде готовых и датасетов
Аноним 21/02/24 Срд 21:42:32 648184 100
image.png 194Кб, 1181x885
1181x885
image.png 213Кб, 1228x877
1228x877
Сука да дай поиграть хули даже локалка цензурирована>>648171
Аноним 21/02/24 Срд 21:45:38 648185 101
>>648184
странно - у других такой цеензуры нет
Аноним 21/02/24 Срд 21:48:05 648186 102
>>648184
Ты делаешь это неправильно, карточку на chub.ai качaй и вставляй, кажется кобальд ест png формат
Но лучше таверну скачай и открывай карточки в ней, читай шапку темы как
Аноним 21/02/24 Срд 21:57:46 648189 103
scholars.png 494Кб, 497x705
497x705
>>648149
>школьники в цепях кушают арбуз
Аноним 21/02/24 Срд 22:05:11 648192 104
>>648189
какой же джемини не расист о госпади! и да мне пох как сетка называется
Аноним 21/02/24 Срд 22:06:23 648193 105
>>648177
>>648178
>>648179
Ахуеть, тред успешных людей, каждый вечерами свою модель дотренивает.
>>648184
Смачно отфутболило. В промте про сфв случаем нет чего?
Эдвенчур режим в таверне, правда не со всеми карточками будет работать.
>>648189
Красава!
Аноним 21/02/24 Срд 22:21:40 648212 106
Gemini Team.png 10Кб, 574x240
574x240
>>648189
оо бля, его уже навернунли, похвально однако
а пикрил это ответ на то почему всё так, 29 челиков которые вообще никак не связаны с проектом и его технологией, но именно они определяют что эта штука высирает, пиздец прям как у коммунистов департамент по цензуре.
Аноним 21/02/24 Срд 22:26:43 648218 107
>>648212
> пиздец прям как у коммунистов департамент по цензуре
> прям как у коммунистов
Зумеры совсем сошли с ума
Аноним 21/02/24 Срд 22:31:54 648224 108
LL.png 51Кб, 733x323
733x323
>>648184
Телепортация дрочкой это серьёзно.
Аноним 21/02/24 Срд 22:59:16 648246 109
>>647585
Сколько нужно vram для 10кк контакта?
Аноним 21/02/24 Срд 23:55:54 648283 110
>>648218
Почему, мне бабушка 40-х годов примерно такое и рассказывает
Аноним 22/02/24 Чтв 00:56:11 648329 111
Аноним 22/02/24 Чтв 03:29:01 648368 112
>>648212
> пиздец прям как у коммунистов
Не знаю с чего больше ору, с пика или с тебя. Клоун ворлд, хули.
Аноним 22/02/24 Чтв 03:38:27 648369 113
>>648368
та похуй, марксизм и прочая шиза пошла от коммуняк, и как так получается что большинство адептов цензуры также являются коммунистами? я говорю сейчас про западных если что, в том числе и AI / ML разработчиков, в опенсорс сфере таких вообще пруд пруди, тупо моё субъективное наблюдение что я считаю верным ибо верю своим глазам.
Аноним 22/02/24 Чтв 08:52:33 648422 114
>>648329
Подождёт и выкатит тоже самое, но через время, когда волна хейта пройдёт.
>>648369
С комисрачем пожалуйста в политач пиздуйте.
Аноним 22/02/24 Чтв 09:46:06 648443 115
>>648329
Им бы задаться вопросами что вот на это говно были потрачены сотни миллионов денег и месяцы занятости серверов
Не считая такого слива в репутационном русле
Я чет до сих пор не понимаю почему сжв рак так холят и лелеят
Аноним 22/02/24 Чтв 09:51:41 648447 116
>>648443
>Я чет до сих пор не понимаю почему сжв рак так холят и лелеят
Потому что иначе они завалят этот гугол.
Аноним 22/02/24 Чтв 10:27:46 648450 117
Какой вердикт по 7б? Без файнтюнов не юзабельно?

>>648447
Они даже хогвартс легаси не завалили лул, даж не поцарапали. В чём резон в 2к24 ради них так ебать модель - непонятно.

>>648368
Коммунисты отрицают задокументированные объективные факты, ни разу такого не было и вот опять.
Аноним 22/02/24 Чтв 10:41:59 648457 118
>>648450
>Какой вердикт по 7б?
Никто не запустил пока.
>>648450
>хогвартс легаси не завалили
Эм, там одно трансгендерное существо, в меню выбора голоса "Голос 1" и "Голос 2". Там почти всё по феншую, ХЗ, кто и зачем доебался.
Аноним 22/02/24 Чтв 11:49:34 648510 119
И так, финальный вердикт по Google Gemini/Gemma?
Аноним 22/02/24 Чтв 11:49:49 648512 120
>>647548 (OP)
>Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
А как это сделать? В каких пределах и какие последствия?
Аноним 22/02/24 Чтв 11:53:11 648520 121
>>648512
>А как это сделать?
Указать контекст побольше в кобольде, ропа там автоматом считается (криво).
>В каких пределах
->
>>647548 (OP)
>в 2-4-8 раз без существенной потери качества.
Аноним 22/02/24 Чтв 12:06:19 648539 122
>>648520
А он прям увеличит контекст скажем с 4к до 8к или может сказать иди лесом я теперь не запущусь?

И вроде где то видел что есть extras на какой то аналог помнить сжатую историю чата, это лучше/хуже и стоит ли прикручивать?
Аноним 22/02/24 Чтв 12:08:44 648547 123
поясните как определить контекст локалки? в прокси ясно - там написано и или просто выставляешь число.
а в локалке как узнать какой контекст можно ставить?
Аноним 22/02/24 Чтв 12:21:17 648559 124
image.png 81Кб, 898x323
898x323
Аноним 22/02/24 Чтв 12:21:43 648560 125
image.png 81Кб, 898x323
898x323
Аноним 22/02/24 Чтв 12:46:35 648600 126
1000001251.png 760Кб, 750x1667
750x1667
1708514880730978.png 319Кб, 661x668
661x668
>>647932
всё охуенно.
я со второй пикчи в голос ржал
Аноним 22/02/24 Чтв 12:53:09 648608 127
>>648447
Это сарказм или серьезно?
>>648450
> Какой вердикт по 7б? Без файнтюнов не юзабельно
Без допила и совместимых промтов неюзабельно, выдает шизу >>648100
Если выключить bos токен то вообще набор символов. Чистый трансформерс как в примерах, хз что ему не нравится.
>>648512
>>648539
Альфа 2.65, контекст 8к и пользуешься.
>>648547
> как определить контекст локалки
Глянь в кофиге, что-то типа max position embeddings емнип.
Аноним 22/02/24 Чтв 12:56:56 648614 128
google-photos-b[...].jpg 35Кб, 620x349
620x349
>>648443
гоогл очень боится опять пик релейтед.
мелкософт очень боится опять Tay AI.
оба инцедента в ихнех (((СМИ))) очень громко осуждали.
плюс, во всех глобокорпорациях хуева куча (((коммисаров))) на всех уровнях.
https://en.wikipedia.org/wiki/Chief_diversity_officer
Аноним 22/02/24 Чтв 12:59:27 648617 129
Аноним 22/02/24 Чтв 13:06:38 648627 130
>>648560
И в чем нейронка не права?
Аноним 22/02/24 Чтв 13:08:58 648633 131
>>648608
>Это сарказм или серьезно?
Серьёзно.
>>648608
>Без допила
Явно софт глючит.
>>648614
>гоогл очень боится опять пик релейтед.
А что не так с пикчей?
Аноним 22/02/24 Чтв 13:11:49 648644 132
Есть какой-то плагин на реролл кнопки Continue, без ручного удаления прошлой попытки? Или надо самому васянить?
Аноним 22/02/24 Чтв 13:13:12 648649 133
1111.png 17Кб, 314x352
314x352
Аноним 22/02/24 Чтв 13:13:14 648650 134
>>648608
каком конфиге? в файлах нет такого - таверна вроде тож не показывает
Аноним 22/02/24 Чтв 13:14:13 648653 135
>>648633
чо не так? кококок расе3м
Аноним 22/02/24 Чтв 13:15:32 648658 136
>>648633
> Явно софт глючит.
Там нечему глючить, голый трансформерс даже без ядра экслламы и прочего. Хз в чем причина, может так реагирует на альпака-подобный промт.
>>648650
config.json
Если gguf - он зашит внутри, параметры будут выставлены при выборе модели, при желании используемый контекст можно убавить.
Аноним 22/02/24 Чтв 13:17:50 648672 137
>>648658
>Если gguf - он зашит внутри
хоть какая то полезная инфа
а могу я узнать чо там зашито?
Аноним 22/02/24 Чтв 13:24:08 648692 138
>>648653
Где?
>>648658
>голый трансформерс
А ты уверен, что гуглопараша на чистом трансформере?
>>648672
В блокноте открой, лол.
Аноним 22/02/24 Чтв 13:25:50 648697 139
Аноним 22/02/24 Чтв 13:29:05 648700 140
>>648697
>Насчет блокнота - высока вероятность что сработает.
На самом деле это троллинг, ибо блокноты обычно файлы на десятки гигов открывают хуёво. Можно отрезать начало и открыть, всё в джейсоне в начале файла.
Гугловской документации не верю. Трансформерс кстати обновил? Они могли коммитов занести.
Аноним 22/02/24 Чтв 13:33:21 648705 141
>>648692
он не открывает в блакноте
>>648700
>ибо блокноты обычно файлы на десятки гигов открывают хуёво
у меня даже не пытался открыть
Аноним 22/02/24 Чтв 13:38:40 648707 142
Аноним 22/02/24 Чтв 13:38:48 648708 143
изображение.png 179Кб, 2401x835
2401x835
>>648705
>у меня даже не пытался открыть
Хуёвый блокнот значит.
Правда длину контекста (llama.context_length) считать неудобно, надо в HEX смотреть.
Аноним 22/02/24 Чтв 13:39:02 648710 144
1707263958793552.png 678Кб, 1024x1024
1024x1024
>>648560
>It's important to remember
я эту фразу люто ненавижу.
блядь, и гпты, и у ламы, и у мистрала, и у гемини, одна и таже соевая поеботень.
Аноним 22/02/24 Чтв 13:42:54 648711 145
>>648710
Запихай в негативы.
Аноним 22/02/24 Чтв 14:03:54 648718 146
>>648707
То есть во всем права, ясно.
Аноним 22/02/24 Чтв 14:07:59 648721 147
>>648710
потому что надо жать нормальным людям делать сетки как они хотят без бомжей по квотам
Аноним 22/02/24 Чтв 14:25:00 648733 148
>>648692
> Где?
Это довольно известная драма была, ещё до трансформеров, тогда топ были сверточные сети. У какого-то негра гугл фото все его и его знакомых фотачки поместил в категорию "гориллы". Негру такой поворот мягко говоря, не понравился. Он в гугл писал, возмущался. Естественно, в Гугле по этому поводу много каялись и извинялись. Но тогда нейронки ещё не те были, встроенную сою не поддерживали.
Аноним 22/02/24 Чтв 14:55:35 648745 149
>>648721
железо нужно. дохуя железа. ламу 2 70б например тренировали на 1720320 часах A100. это 71 день на 1000 их.
соответственно нужно дохуя денег.
чтобы достать денег хотя бы арендовать такую кучу ашек, надо на поклон к господан (((баренам))), а у господ (((баренов))) https://en.wikipedia.org/wiki/Diversity,_equity,_and_inclusion и https://en.wikipedia.org/wiki/Environmental,_social,_and_corporate_governance

а на то чтобы пилить что-то новое а не как мистрал и китайцы тренировать свой клон ламы по пейсбуковскому чертежу, денег надо просто астрономически дохуя:
- куча 200 айськью дядек, у которых зарплаты сотни тысяч уе
- хуева куча негров и индусов для составления датасетов из говна в Common Crawl. это 100% причина почему у OpenAI всё на голову выше чем у пейсбука и гугла, и скорее всего почему мистрал настолько лучше пейсбуковской ламы. garbage in, garbage out

может быть, когда-нибудь, кто-нибудь проснётся и осознает сколько гешефта можно иметь с B2C. но сейчас они все хотят в B2B, и цензура собственно нужна, а то нидайбох чатбот скажет n-word и (((СМИ))) осудят
Аноним 22/02/24 Чтв 15:21:37 648755 150
>>648745
а местные олигархи или шейхи арабы пор твоему в контексте тоже (((ОНИ))) ?
> B2C. но сейчас они все хотят в B2B,
непонимаю о чем реч
Аноним 22/02/24 Чтв 15:47:49 648773 151
изображение.png 30Кб, 932x217
932x217
изображение.png 41Кб, 649x371
649x371
>>648755
Вот же. B2B додумаешь сам.
Аноним 22/02/24 Чтв 16:15:06 648799 152
>>648649
Блять, оно всё сообщение регенит, а мне надо только ту часть, которая получилась через Continue.
Аноним 22/02/24 Чтв 16:18:01 648802 153
>>648755
местные типа наши? чел... да, ещё как (((они))).

в данный момент, единственная реальная надежда миру получить топовую модель без сои - китайцы, если они сделают продукт на экспорт (как тикток), а не внутреннего рынка. но это само-собой будет cloud хуйня с логами. но на китайцах сейчас ссанкции, пендосы запретили им напрямую продавать железо для АИ. они конечно сколько-то достают, но покупать десятки\сотни тысяч как западные компании не могут.
Аноним 22/02/24 Чтв 16:18:21 648803 154
>>648799
В следующий раз вместо continue жми generate.
Аноним 22/02/24 Чтв 16:26:50 648813 155
>>648803
Не пойдёт, обычно надо именно одно предложение до конца догенерить.
И да, я про силитаверну.
Аноним 22/02/24 Чтв 16:38:00 648830 156
>>648813
В oobabooga если предложение оборвалось по макс токенам, то можно нажать продолжить, тогда это твоё предложение будет дописано в cтарое сообщение. Или нажать генерировать, тогда то же предложение будет дописано в новом сообщении. А таверна это вообще ничто, в душе не ебу, к чему ты её подключаешь и какие там бэкенды.
Аноним 22/02/24 Чтв 16:39:41 648833 157
>>648600
>Варьирующиеся расы.
А мне кажется это наоборот удобно. А тем временем в сд нужно специально вводить [asian | african | caucasian] чтобы получать вариации , а потом тег asian еще и своего bias нальет и получишь микс между нацистом и самураем что создает геморрой, а так можно указать что конкретно ты хочешь.
Аноним 22/02/24 Чтв 16:43:57 648841 158
>>648833
>caucasian
Любишь по-волосатее?
Аноним 22/02/24 Чтв 17:36:32 648921 159
Аноним 22/02/24 Чтв 17:54:59 648952 160
>>648700
> блокноты обычно файлы на десятки гигов открывают хуёво
Не мгновенно, но откроет же. Хотя если мало рам то действительно троллинг. И может быть неудобно смотреть из-за отсутствия ньюлайнов и невероятных длин строк.
> Гугловской документации не верю. Трансформерс кстати обновил?
Оно без последней версии и на зеведется, только в ней добавили поддерку. Насчет документации - там буквально дефолтнейший способ взаимодействия с ллм, разница только в названии модели.
Хз, может дело в том что это все лениво через убабугу, но у него в коде просто прямые запросы трансформерсу без отсебятины. Офк дело не в семплинге и подобном, возможно конфиг некорректно считался. Пробовал голым скриптом тот же промт скормить - оно или дает кратчайшие ответы или аналогично шизит.
>>648710
Ну а чего, здесь буквально аргументирует свой ответ. Можешь токены забанить.
>>648745
> а у господ (((баренов)))
Господам глубочайше и исключительно похуй на это. Все идет от "умных менеджеров-управленцев", которые отстают от трендов или боятся принимать какие-то решения. Все эти трешовые требования сверху идут из-за опасений попасть под негативную шумиху, особенно на фоне опасений нормисов в сторону ии.
А поскольку адекватным исполнителям подобного треша просто неоткуда взяться - вот и видим что есть.
>>648799
У тебя слишком специфичная хотелка, таким, обычно, не занимаются или делают редко 1-2 раза. Так что ролль-стопай-удаляй обратно-ролль. Не реализовано.
Аноним 22/02/24 Чтв 18:00:46 648963 161
>>648952
>Не мгновенно, но откроет же.
А ты попробуй.
Аноним 22/02/24 Чтв 18:06:26 648974 162
1651609794235.png 142Кб, 2254x763
2254x763
>>648963
Так пишешь будто это что-то уникальное. С мелочью вообще влет, на диффузии можно метадату смотреть. А вот с мику призадумалось, хотя возможно потому что она не на самом быстром диске.
Аноним 22/02/24 Чтв 18:20:27 648988 163
>>648974
Нотепад++ вижу я.
А ты на виндовом потести.
Аноним 22/02/24 Чтв 18:42:37 649011 164
>>648988
> ааааах семпай он слишком большой, он не войдет~
Увы. Кстати удивлен что шиндовский блокнот научился в линуксовские ньюлайны.
Аноним 22/02/24 Чтв 19:25:22 649054 165
>>649011
Его вообще неплохо апнули за последние лет 5, хотя до этого не трогали лет 15, лол.
Аноним 22/02/24 Чтв 19:29:18 649062 166
Аноны, кто пробовал Vector Storage в ST? Рабочая тема?
Аноним 22/02/24 Чтв 20:55:58 649139 167
>>648246
5 терабайт? =D

>>648422
Никакого комисрача, это чисто терминология.

>>648560
Проорал.

>>648700
EmEditor топ.

>>648745
Все по факту.

>>648833
Плюсану, кста.
И так со всеми элементами вообще, кста.
Эх-эх.

>>648841
Это белые люди, если ты вдруг не знал.
Аноним 22/02/24 Чтв 21:45:52 649196 168
image.png 65Кб, 1781x571
1781x571
Пробую тестировать whisper. Вроде все по инструкции с гитхаба ставил, чего ему не хватает?
Аноним 22/02/24 Чтв 21:51:53 649207 169
>>649196
Однако забейте. Перезапустил cmd и заработало. Слова пошли.
Аноним 22/02/24 Чтв 22:00:13 649222 170
Аноним 22/02/24 Чтв 22:00:19 649223 171
Ну что за хуйня, гонял жирную рп-модель на рп. Ну, неплохо, хотя иногда устало вздыхал из-за бесконечного склероза. Пару раз получилось сделать из няши-стешняши похотливую шлюху или стервозную суку.
Скачал 7b не-рп. Ответы не хуже. Я понимаю, что старые модели хуже новых, но они обе старые.
Аноним 22/02/24 Чтв 22:03:40 649229 172
>>649222
Уже поздно, питонная версия заработала. Хуево, что твоей ссылки не было в шапке >>552016 (OP) треда. Спасибо.
Аноним 22/02/24 Чтв 22:04:35 649231 173
>>649223
Такое может быть на суперунылой карточке (дохуя стесняша без бекграунда, без описания мира, только описание внешности) и с неоптимальным инстракт режимом. Тогда будет молчаливой, с вялыми ответами и стори нормально не разовьется чтобы там ум модели понадобился.
Или та "рп модель" - помесь залупы носорога с анусом бегемота под соусом "супер анцензоред ерп левд модель". Хотя даже они могут стараться, в отличии от простых ассоциаций семерок.
Аноним 22/02/24 Чтв 22:41:46 649271 174
>>649231
>суперунылой карточке (дохуя стесняша без бекграунда, без описания мира, только описание внешности)
Да хуй там, карточки из интернетов разные, с описанием мира и т.д. Хотя я его иногда выпиливал, особо не влияет. Всё равно описываешь в постах сам. Не в молчаливости дело, а в словарном запасе и общей унылости персонажей. Can't help, but unilo. Есть карточка типа "язвит, сарказмирует, нахуй посылает", а этого нет. Еле-еле накрутил какие-то настройки, с которыми у модели ехала кукуха каждые три поста, зато добился какого-то яда в репликах и более живого персонажа.
>"супер анцензоред ерп левд модель"
На супер анценцоред ерп левд модели я плевался с того, что сосание хуёв делало тяночку либерайтед и она в каждом посту описывала свои надежды на светлое будущее, причём чуть ли не одинаковыми словами. Нет, этого не было в карточке. Застукала спящим? Отсосала хуй. Ощутила свою власть и силу. Они рп на женских романах тренируют? И описаний реально мало, всё больше о мыслях и рефлексии.
Аноним 22/02/24 Чтв 22:52:00 649279 175
Посоны, TheBloke сдох?
Кто там вместо него?
Аноним 22/02/24 Чтв 22:53:34 649280 176
Аноним 22/02/24 Чтв 22:59:21 649283 177
12.png 180Кб, 3406x1232
3406x1232
Анончики, подскажите что не так?
Модель SOLAR-10.7B-Instruct-v1.0-uncensored-GPTQ.
3080ти.
Аноним 22/02/24 Чтв 23:00:04 649284 178
Так что геммини пощупали уже? Новая база или кринж? Файнтюны и лоры лучше мистралей будут?
Аноним 22/02/24 Чтв 23:13:13 649298 179
>>649271
Твои запросы отличаются от дефолтного рп, которого по дефолту выдают модели и которые по дефолту инджоят люди. Промт инженеринг с добавлением правил, указаний и прочего в системном промте может помочь. Позволяет варьировать от ванильного-позитивного с летающими носорогами и нюханьем цветков до фатального дедэнда при нескольких ошибках. Насколько это воспримут мелкие модели - хз, может быть кое как справится мистраль 7б 2, возможно придется перетащить в авторские заметки или куда поближе.
> Они рп на женских романах тренируют?
В том числе.
>>649280
Да здравствует король!
>>649283
Какой именно gptq скачан? Все ли файлы на месте, скачалось до конца?
>>649284
Даст фору мистралям в шизе
Скачай да запусти, ее поддержку добавили в exllama и llamacpp, кванты тоже выложили, так что вопросов с запуском быть не должно.
Аноним 22/02/24 Чтв 23:34:40 649308 180
>>649298
> Скачай да запусти
Так если она шизанутая, то нафик надо скачивать. Лучше подожду файнтюны или 13b.
Аноним 22/02/24 Чтв 23:36:53 649311 181
>>649196
>>649222
whisper.cpp
и q8 квант от Жоры.
Быстро и качественно, отвечаю.
Сразу лардж.
Аноним 22/02/24 Чтв 23:37:24 649312 182
Что ставить для подрочить на 4090? Стоит древний мистраль и mlewd 20b, получше сделали что?
Аноним 22/02/24 Чтв 23:41:28 649315 183
image 82Кб, 791x858
791x858
>>649311
Жоркин виспер не так хорош, уже есть гораздо более эффективные решения.
Аноним 22/02/24 Чтв 23:41:40 649316 184
Screenshot2024-[...].png 204Кб, 1496x777
1496x777
>>648952
>Ну а чего, здесь буквально аргументирует свой ответ. Можешь токены забанить.
it's important
it is important
it's crucial
it's essential

в 100% случаях почти когда моделька выдает эту хуйню, то идёт вербальная диарея из соевого датасета.
заебешься это всё банить
Аноним 22/02/24 Чтв 23:53:38 649322 185
Аноним 23/02/24 Птн 00:02:46 649330 186
>>649315
Блин, там нет ни одного с сервер-апи версией, все «говорите в микрофон» или «пихайте файл».
А использовать внутри скрипта не хочу, у меня отдельный комп для этого стоит.
Придется самому что ли писать? Фе, осуждаю.
Аноним 23/02/24 Птн 00:23:00 649336 187
>>649298
Вот этот качал
gptq-8bit--1g-actorder_True.
Да, файлы все. Но я не через Git качал, а просто download master.
Ничего не могло поменяться из-за этоого?
Аноним 23/02/24 Птн 00:25:27 649339 188
>>649308
Проблемы первого дня, сейчас высок шанс что норм.
>>649312
Новый мистраль и норомейд20. 34б попробуй, они шизы но интересные.
>>649336
exllama не поддерживает 8бит gptq. Если хочешь большую битность - скачай exl2 в 8 битах, от того же >>649280
Аноним 23/02/24 Птн 00:34:47 649341 189
Аноним 23/02/24 Птн 01:25:00 649351 190
>>649298
>В том числе.
Меня просто доебали эти истории о либератинг, об установлении связи, одна история охуительней другой просто.
>отличаются от дефолтного рп
Хуй знает, по моему мнению запросы максимально дженерик. Но рано я хвалил 7b, на карточке с эльфийкой-рабыней она отработала просто на 11 из 10. Рероллами додумала разные предыстории, шрамы\татуировки\идеальная кожа, грязная, чистая, похотливая, испуганная, всё, что хочешь буквально. Нет, она всё ещё ловила взгляд шоколадным глазом, но это можно простить.
На тяночке с кабачком в жопе, которая пришла к доктору с этой проблемой и оправданием типа "шла, упала, очнулась - жопа болит. Отработало просто на ноль. Доктор сунул руку по локоть в задницу и рассказывает, что лучше дрочить анальную жопу живыми людьми или резиновыми хуями на крайняк, а она думает, как бы он не понял истинную причину её прихода и чувствует как с доктором устанавливается ёбаная связь и возможно в один день они станут ближе. Никогда ни один человек не будет ближе к другому, чем когда у него рука по плечо в жопе, это физически невозможно. Достали овоща и она домой пошла.
Аноним 23/02/24 Птн 01:36:57 649353 191
>>649351
> максимально дженерик
> На тяночке с кабачком в жопе, которая пришла к доктору с этой проблемой и оправданием типа "шла, упала, очнулась - жопа болит
Оу май
> Никогда ни один человек не будет ближе к другому, чем когда у него рука по плечо в жопе, это физически невозможно
Сука сделал мой вечер. Но вообще ты не прав, ведь есть же еще нога
Аноним 23/02/24 Птн 01:42:45 649355 192
>>649353
>нога
unbirth и vore
Но мои запросы более простые.
Аноним 23/02/24 Птн 02:24:28 649377 193
никто не заметил, что sillytavern 1.11.4 в связке с koboldpp сломана? ответы модельки стали циклиться, она использует одни и те же фразы в каждом ответе. перекатился обратно на версию 1.11.0 и там такого нет. тестировал на чистых версиях с одинаковыми настройками.
Аноним 23/02/24 Птн 02:32:42 649382 194
>>649377
посмотри в консоле JSON который сили отправляет кобольду. сравни оба.
если идентичные, то у тебя шиза.
Аноним 23/02/24 Птн 02:36:08 649387 195
Аноним 23/02/24 Птн 03:00:24 649394 196
>>649387
ну если кобольд получает один и тот же 1:1 идентичный JSON запрос от двух разных версий сили и даёт им разные ответы, то мистика.
Аноним 23/02/24 Птн 04:45:58 649422 197
>>649339
>Новый мистраль и норомейд20

Новый это какой? Микстраль 8х7?
А норомейд не староват? Ему уже 3 месяца.
Аноним 23/02/24 Птн 05:10:16 649430 198
Илюша Гусь по-прежнему единственный русский язык тащит своей сайгой или еще варианты появились?
Аноним 23/02/24 Птн 05:22:28 649434 199
>>649430

Сам спросил, сам ответил, появилась Фиалка 7В и 13В.
Аноним 23/02/24 Птн 10:26:30 649501 200
>>649434
https://huggingface.co/0x7o/fialka-13B-v4/raw/main/merges.txt
C фиалкой могут быть серьёзные проблемы, при тренировке явно не включали правильную кодировку. А раз не заморочились даже этим, то и остальное сделано на отъебись.
Аноним 23/02/24 Птн 11:15:24 649533 201
>>649422
0.2, там 7б обычный обновили. Микстраль попробуй, вдруг зайдет, но вообще это больше мем чем сетка соответствующая своему размеру.
Аноним 23/02/24 Птн 11:23:57 649536 202
Что то из solar есть по лучше чем frostwind?
Знаю есть Fimbulvetr, он лучше или хуже?
По моим тестам нихуя не понятно
Аноним 23/02/24 Птн 11:30:29 649537 203
>>649533
Мем - это 70В, которые зачастую тупее 11В. А Микстраль может многое из того что другие не могут, для универсальных задач это вообще топ.
Аноним 23/02/24 Птн 11:34:55 649538 204
>>649536
Можешь попробовать SnowLotus или DaringLotus от вот этого чела https://huggingface.co/BlueNipples
Это мёржи фроствинда с какими-то другими файнтьюнами/мёржами солара, в том числе с датасетами норомейды. Я пробовал только Daring - показалось, что не особо проседает по интеллекту по сравнению с фроствиндом и не такая сухая писанина.
Аноним 23/02/24 Птн 13:10:10 649595 205
>>649538
Благодарю анон
Хотя то что это смеси немного настораживает
Аноним 23/02/24 Птн 15:58:30 649704 206
image.png 371Кб, 690x641
690x641
Аноним 23/02/24 Птн 16:07:49 649707 207
Месяц не следил за локалками, на какие сейчас 34+ стоит обратить внимание?
Аноним 23/02/24 Птн 17:19:00 649766 208
>>649537
Моделей
> которые зачастую тупее
90% от местозаполнителей на обниморде, так уж повелось. Файнтюны 7б/11б там тоже присутствуют.
> для универсальных задач это вообще топ
> для зирошотов на простые вопросы от нормисов
Вот так более правильно будет. Реально, лучшее применение этой сети - какие-нибудь простые вопросы/задачи без контекста или с минимальным. На контексте она деградирует и теряется, в чем-то сложном уступает 30+.
Аноним 23/02/24 Птн 19:28:03 649883 209
>>649766
> На контексте она деградирует и теряется, в чем-то сложном уступает 30+.
Вот не пизди. Микстраль вообще одна и лучших моделей для большого контекста, буквально только Yi обходит его из больших моделей. А 70В с контекстом выше 8к в природе не существует, те же рпшные файнтюны типа синтии уже к 4к подыхают.
Аноним 23/02/24 Птн 19:54:38 649909 210
>>649883
Прямо по каждому пункту отборный бред, найс стелишь, верим.
Аноним 23/02/24 Птн 20:05:25 649915 211
>>649883
братиш, ты ошибся, проверь то о чем пишешь. если на счет "микстраль одна из лучших моделей" может быть вкусовщиной хотя, блять, нет, нихуя не вкусовщина, микстраль одна из худших моделей, даже древний мифромакс лучше, не говоря уже о норомейде и кетацине да, имеется в виду растянутая ропе, то на счет 70В моделей ты совсем мимо, разве что древние модельки вытягивают 4к, современные уже 16 минимум с заяв очкой на 32к токенов
Аноним 23/02/24 Птн 20:15:01 649926 212
>>649915
Ты его неправильно понял.
Микстраль и правда одна из лучших моделей.
И речь-то не про РП, а в общем.
Но в РП она суховата и незаточена, и вообще избыточна по специалистам.
Но, повторюсь, это очевидно — речь не про РП.

В остальном-то да, для рп есть куча вариантов лучше, и современные 70B модели норм, и вот это вот все.
Да и большим контекст бы я из-за того самого сдвига не называл у Микстрали.

Я в прошлом треде гонял, большой контекст у Мистрали норм работает, у Микстрали хуйня вышла в ответе, как не тыкал.
Аноним 23/02/24 Птн 20:26:33 649934 213
С чем не совсем деревянным можно поРПшить на моем срамном ведре с 2060super с 8гб ВРАМ и 32 гб РАМ? Я тыкаю в разное и оно как-то странно идет.
inb4: купи нормальный компутер, лох
Аноним 23/02/24 Птн 21:23:20 649991 214
>>649926
>Микстраль и правда одна из лучших моделей. И речь-то не про РП, а в общем.
да, зря быканул, я кроме РП и сторителлинга даже не тыкал никуда, просто по ощущениям погонял в ней (именно в микстрали, не в мистрали) несколько РП историй, язык сухой, клише через клише, причём совсем не те клише, которые по контексту подходят. Я имею в виду, микстраль скупа на фантазию — когда просишь её написать слешер про студентов, которых злыдень убивает в лесу, микстраль создаст дефолтного бугая в маске с топором, а вот норомейда сделела охуенный ход сценария, предложила связать туалетной бумагой ради рофла одну из тянок, а потом ввела голого мужика с длинными руками, который гонялся за студентами, в то время как кетацин сделал злодеем батю одной из студенток, который приехал всех хуярить монтировкой. ну просто небо и земля.

> Я в прошлом треде гонял, большой контекст у Мистрали норм работает, у Микстрали хуйня вышла в ответе, как не тыкал.
если это тот самый нидл-ин-э-гейстак тест, то я даже не пробовал его, но вот при растягивании ропой 20В что норомейды, что кетацина до 8к моделька припоминала что там в начале было и кто к кому яйца подкатывал, кто в одних трусиках сейчас стоит, кто на кого обиделся а кто уже мёртвый в кустах лежит.
Аноним 23/02/24 Птн 21:28:21 649996 215
>>649934
готовь жёппу к ждунству с nihuya/s
Аноним 23/02/24 Птн 21:28:44 649997 216
>>649991
> при растягивании ропой
Как это делается? Что в настройках сэмплера или загрузчика в угабуге сделать?
Аноним 23/02/24 Птн 21:30:34 650001 217
>>649997
в кобольде, если выбираешь 8к контекста, ставь custom RoPe scale на 32000 вместо стандартных 10000, для 16к какое-то другое число, методом тыка нужно пробовать.
Аноним 23/02/24 Птн 21:32:03 650003 218
>>650001
Оу-ши. А как зависимость вообще выводится? Вот есть рэндомная 70Б, допустим. Сколько ей ставить контекст тогда и сколько масштаб?
Аноним 23/02/24 Птн 21:34:59 650009 219
>>649996
На ждунство, в целом, поебать, генережка в минуту-полторы терпима. Но контекст много где проебывается просто нещадно.
Аноним 23/02/24 Птн 21:36:31 650012 220
>>650003
смотри, у 70В частенько указывают какой "родной" контекст модели. если не указывают, то скорее всего 4к, как и у всех ллам2, но новенькие 70В часто выше. 32000 высчитано какими-то умниками для скейла контекста вдвое, для скейлинга в четыре раза я уже забыл, помойму 48000, но я, возможно, напиздел.
>>650009
не могу помочь, анон, сам ебался с этим дерьмом на мелкомодельках в 13В, потом пересел на 20В и стало прям заметно лучше, но всё ещё бывают проблемесы, которые приходится рероллить.
Аноним 23/02/24 Птн 21:37:42 650014 221
>>650012
Понял-принял, жду лучших времен для апгрейда компа.
Аноним 23/02/24 Птн 21:38:32 650016 222
>>650012
> 32000 высчитано какими-то умниками для скейла контекста вдвое
Понятно, что пока непонятно, и надо пробовать и подбирать. Но спасибо!
Аноним 23/02/24 Птн 21:39:43 650017 223
>>650016
да, там ещё второй параметр есть у ропа, который по дефолту стоит 1, его вообще не трогай, если поставишь 0.5, контекста станет вдвое больше, но моделька отупеет до уровня Q_3
Аноним 23/02/24 Птн 21:42:05 650019 224
>>650017
> моделька отупеет до уровня Q_3
Ха-ха, она у меня не сможет отупеть, потому что она уже 2.9bit
Аноним 23/02/24 Птн 22:18:45 650052 225
>>649926
> Микстраль и правда одна из лучших моделей.
Можно примеров где она прям ебет? Без стеба и сарказма, хочется посмотреть удачные примеры ее применения.
> большой контекст у Мистрали норм работает
В рамках ее возможностей - да, технически отрабатывает и пытается что-то делать. Микстраль чтобы выдал что-то осмысленное (не говоря про качество ответа) - нужно чуть ли не роллить. Rope и все что нужно стоит офк, аналогичное поведение можно поймать и на публичных ее хостах если сгрузить большое полотно.
>>649997
> Как это делается?
вики прочти
>>650012
> 32000
Енип там в районе 28к, 32 избыточно. По факту уже после 12-16к контекста (с правильной растяжкой) оно неюзабельным становится. Это все еще лучше мелочи, но теряется магия и фишки, которых ждешь, потому суммарайз.
>>650017
Его лучше не трогать.
Аноним 23/02/24 Птн 23:02:35 650098 226
>>649915
> современные уже 16 минимум с заяв очкой на 32к токенов
Показать сможешь хоть одну?
Аноним 23/02/24 Птн 23:09:02 650105 227
А какие критерии годности у моделей вообще? Они же все каждый раз разные истории генерят все. Это всё субъективно ощущается или уже есть тесты какие-нибудь?
Аноним 23/02/24 Птн 23:27:48 650119 228
>>650098
бля, анон, я АМДшный, я не помню моделей больше 20В, иди прогугли 32k llm model, они уже клепаются.
Аноним 23/02/24 Птн 23:29:22 650121 229
Аноним 24/02/24 Суб 00:04:49 650145 230
1705308911653.png 231Кб, 1550x593
1550x593
>>650098
Базированная miqu базирована
Аноним 24/02/24 Суб 00:38:49 650165 231
>>650145
всегда ору с этой шутки в голос
Аноним 24/02/24 Суб 00:52:40 650169 232
>>649501

И правда, падает с ошибкой кодировки при вводе текста.
Аноним 24/02/24 Суб 01:18:49 650176 233
>>650105
>Это всё субъективно ощущается или уже есть тесты какие-нибудь?
Да, субьективно, но когда ты месяц погоняешь на одной модельке, а потом месяц на другой, для тебя будет очевидно какая из них сейчас генерит, и чем больше модель тем больше у неё "своих фишек", и тут уже вкусовщина, но всё же сравнить микстраль и норомейду по качеству ты сможешь.
> или уже есть тесты какие-нибудь?
есть, но лучше бы нахуй не было
Аноним 24/02/24 Суб 01:43:09 650179 234
Я медленно снимаю свой волшебный плащ и шляпу нахожу всё больше и больше данных для тренировки своей хуйни на русском, но всё больше понимаю проблему. Датасеты подходят для инстракт-мода, но не подходят для чата. Это буквально вопрос-ответ. Накопал достаточно большие куски относительно качественных данных, перевёл 800 мегабайт текста и понял, что это тоже хуйня ёбаная. Тяжело.
Аноним 24/02/24 Суб 01:45:43 650180 235
>>650179
> Датасеты подходят для инстракт-мода, но не подходят для чата.
Там нет инструкции для продолжения длинного чата?
> Накопал достаточно большие куски относительно качественных данных
Где копал?
Поведай больше, интересно.
Аноним 24/02/24 Суб 02:00:32 650186 236
image.png 201Кб, 1325x1014
1325x1014
image.png 74Кб, 856x784
856x784
Когда уже локальные сетки научатся решать эту задачу для третьего класса начальной школы?
Стыдоба.
Аноним 24/02/24 Суб 02:07:09 650190 237
1.png 120Кб, 1038x718
1038x718
>>650180
>Там нет инструкции для продолжения длинного чата?
Если ты про инстракшн темплейт, то это не решает проблему ни разу. Если про селф инстракт, то я в процессе осмысления, как это сделать, не имея ключей. И нужны либо джейлбрейки, либо данные будут вялые. Но я планирую реверсировать систему обучения сетки цензуре, чтобы это наебать и получить максимально ёбнутую модель.
>Где копал?
На русском есть синтетические датасеты того же Гусева, я где-то мегабайт двести с обниморды скачал разных русских данных. Но они, опять же, ни для сохранения контекста, ни для чат режима не подходят. Интересного на русском мало, сейчас копаю машинный перевод, в т.ч с китайского, лул. По-моему, самое интересное соу фар.
Аноним 24/02/24 Суб 02:17:44 650193 238
>>647548 (OP)
1. Кстати, а подобное общение не загубит карточку как тот же майнинг?
2. Как сохранить на случай переносу на другое железо свои переписки? Я вижу в папке таверны есть backups и в ней вроде скапливаются файлы переписки, но почему они так плодятся и все их нужно скачивать или только по самому свежему файлу для каждого персонажа?
Аноним 24/02/24 Суб 02:23:45 650194 239
>>650190
Представь что у тебя есть ключи и ресурсы, что бы стал делать?
Синтетика на русском - еще более трешово может выйти. Переводы хороших датасетов - может быть, публикации и репу финов с "локализацией любой ллм" смотрел?
> Если ты про инстракшн темплейт, то это не решает проблему ни разу.
Имея длинный чат можно его обернуть как в инстракт режим на любом этапе его развития, так и в чатмл-подобный формат, второе сомнительно. Имея йоба инстракты на сторитейлинг или продолжение длинных диалогов - проблем нет, их хватит. Вот про наличие такого и спрашивал.

Насколько вообще удалось продвинуться и изучить вопрос в целом?

>>650193
> подобное общение не загубит карточку как тот же майнинг
Не больше чем игры.
> Как сохранить на случай переносу на другое железо свои переписки?
В таверне папка public емнип.
Аноним 24/02/24 Суб 02:31:00 650195 240
>>650194
Спасибо.
> папка public
В ней не только переписка я так понимаю, но и все другие настройки таверны?
Аноним 24/02/24 Суб 02:59:29 650200 241
.1.png 29Кб, 560x610
560x610
2.png 37Кб, 639x586
639x586
>>650194
>что бы стал делать?
Генерировать синтетический датасет для чат-режима, очевидно же. Возможно сразу с дополнительными данными для взъёба цензуры.
>Переводы хороших датасетов - может быть
Да, в целом, это выглядит самым перспективным. Мне не нравится, что они там нахуярили на русском, но для объёма пусть будет. Финов не смотрел.
>Имея длинный чат
В том и беда, что "имея". Может, изнасилую что-то локальное на генерацию синтетики, но минусы смущают. Промпты на генерацию историй\диалогов разные для разных моделей, потому что их всё равно, что нет.
>Насколько вообще удалось продвинуться и изучить вопрос в целом?
Да ни на сколько, толку, что у меня тонна разрозненных данных? Это не подходит для тренировки, это не подходит для чат-режима, а чистый инстракт мне не интересен, как и тренировка на QA. Я потому и отписался, что поймал бугурт.
Аноним 24/02/24 Суб 10:39:22 650284 242
Аноны, есть комп с 4090.
Посоветуйте пожалуйста хорошую, годную 30B модель для общения.
И можно ли её гонять под виндой или непременно нужен ленсук?
Аноним 24/02/24 Суб 13:17:54 650413 243
>>650052
1. Вменяемо говорит по-русски. Не 70B, но.
2. Реально имеет специалистов в тех или иных вопросов, неплохо рассуждает, имеет много знаний по разным вопросам, отсюда — хорошая вопрос-ответная система.
3. Следствие из второго пункта: хорошо пишет планы, придумывает различные тексты, но практического толка, а не художественные.

В общем, как универсал для личного пользования — она хороша по скорости и знаниям.
Хороший баланс между 70B и 7B.

Но в РП, как писалось выше не раз — она сухая, просто пишет ответы без огонька. Но она и сделана для ответов без огонька, так что, маемо шо маемо.

>>650145
Орнул.

>>650176
Так, да.
Аноним 24/02/24 Суб 15:03:19 650517 244
image.png 37Кб, 727x216
727x216
Мб кто-то знает, при попытке загрузки моделей вебуи просто умирает к хуям, маленькие грузит, а при загрузке 70б+ даже не используя память вырубается.
Аноним 24/02/24 Суб 15:20:58 650536 245
>>650413
> без огонька
Так возьми рп-файнтюн, будет с огоньком. Плюсы ещё в том что можно только несколько экспертов затюнить под рп - не так сильно будет биас улетать в шизомонологи.
Аноним 24/02/24 Суб 15:21:57 650538 246
>>650517
Это у тебя сколько RTX 3090?.. 2, 3?.. =)
Аноним 24/02/24 Суб 15:37:33 650561 247
>>650517
Я долбоёб. Забыл файл подкачки увеличить.
Аноним 24/02/24 Суб 15:38:00 650562 248
Аноним 24/02/24 Суб 16:15:43 650615 249
>>650200
Данные чаты ты просто как poc приложил, или это типа варианты из текущего/будущего датасета?
> с дополнительными данными для взъёба цензуры
Например? Не подтекста, просто интересно как именно хочешь реализовать.
> В том и беда, что "имея"
Захостить проксю с логами и пользоваться тем, что кумеры насвайпали. Но довольно тяжелый в обработке контент получится.
> Промпты на генерацию историй\диалогов разные для разных моделей, потому что их всё равно, что нет
Что?
> Да ни на сколько, толку
Может ты ясно видишь пути решения, можешь сформировать какие-то четкие требования/критерии, или хотя бы что-то наметил.
>>650284
> хорошую, годную 30B модель для общения
https://huggingface.co/TheBloke/Tess-34B-v1.5b-GPTQ
Учитывай что это yi а они все с некоторой шизой и странные. Если ахуеешь с этого треша - попробуй noromaid 20b. Линукс не нужен, гайды в шапке, там же ссылка на вики.
>>650413
> 1. Вменяемо говорит по-русски
Можно примеров? Вот если она сможет стабильно написывать полноценные длинные посты, пусть даже иногда с ошибками, при всем этом не теряя в перфомансе - тогда да, вменяемо. А так там просто общие вещи с обилием надмозгов, неверным словообразованием, структурой предложений из инглиша, и работает хуже чем на инглише.
> имеет много знаний по разным вопросам
Аналогично, в чем именно? Может просто попалось неудачные случаи что она набрала обилие фейлов по специализациям и не показала ширины знаний. Показала себя хуже в выполнении инструкций по обработке кучи текстов чем 34б. Хз, ищу повод опять ее скачать и может ощутить почему так кипятком с нее ссут.
>>650517
> просто умирает к хуям
Причин может быть множество, одна из них - нестабильная рам.
>>650536
> рп-файнтюн, будет с огоньком
Какой именно?
Аноним 24/02/24 Суб 17:16:25 650682 250
>>650615
>Захостить проксю с логами и пользоваться тем, что кумеры насвайпали
Зачем хостить, когда уже выложенных логов вполне достаточно? Вот пара гиг на затравку
https://huggingface.co/datasets/sokusha/aicg/tree/main
Аноним 24/02/24 Суб 17:26:12 650694 251
Аноним 24/02/24 Суб 18:38:33 650732 252
>>650615
>варианты из текущего/будущего датасета?
Не, ну если бы меня такое устроило, проблемы бы и не было. Это на 90% промпт Гусева, которым он собирал датасет. Однако это именно то, чего я не нахожу в готовом виде. Связный разговор с сохранением темы и объекта обсуждения.
>нтересно как именно хочешь реализовать
Так же, как цензуру запиливают, только наоборот. На самом деле можно надрессировать нейронку на крайне специфические вещи. Типа на вопрос "что и живое, и объект одновременно?" отвечать "женщина", а не "растение".
>Захостить проксю с логами
Во-первых, половина дрочил будет на английском. Во-вторых, даже прокся не нужна, можно запилить расширение для браузера. ShareGPT, только на русском. Да, народ пользуется.
>Что?
Промпт на генерацию адекватных диалогов через gpt не подойдёт для генерации диалогов какой-нибудь локалкой.
>четкие требования/критерии
Ну один из критериев это связный диалог. QA датасеты относительно легко найти, даже на русском. Качество спорное, но похуй. А путь пока что только один, хуярить вилкой. Пока что перевожу логи жпт-4, QA, но куда деваться.

>>650682
>Зачем хостить, когда уже выложенных логов вполне
>"si... aunque como veras...tanto lo disfrute,que ahora estoy con ganas de un café
Ну, ради такого реально не стоит даже шевелиться.
Аноним 24/02/24 Суб 18:47:56 650743 253
>>647925
>>648172
Персептрон придумали в 1943, с тех пор просто удачно их комбинируют.
Аноним 24/02/24 Суб 18:57:55 650760 254
>>648802
> но на китайцах сейчас ссанкции, пендосы запретили им напрямую продавать железо для АИ. они конечно сколько-то достают, но покупать десятки\сотни тысяч как западные компании не могут.

У них есть свой, полностью замкнутый цикл производства, от песка до готовой карты. Уже даже купить можно ту же S80, а буквально в декабре анонсировали S4000. Да, до топов невидии и даже амуды пока не дотягивает, но блин они этого уровня за 4 года достигли!
Аноним 24/02/24 Суб 19:01:25 650764 255
>>650682
Глянь сколько там русского языка.
>>650732
> на 90% промпт Гусева, которым он собирал датасет
Тогда все закономерно.
> Так же, как цензуру запиливают, только наоборот.
О том и речь, как?
> половина дрочил будет на английском
Целая половина на русском, невероятный успех.
> даже прокся не нужна, можно запилить расширение для браузера
Зачем нужно расширение браузера?
С тем же успехом просить присылать удачные чаты таверны (привет пигма) - никто толком не будет этого делать.
Запросы для генераций промтов сеткой что локалкой что жпт буквально лежат на поверхности и открыты всем. Вопрос в качестве конечных результатов и упоротых байасов что повылезают, и опять сложности с русским. Плюс, по дефолту это не будет сильно похоже на реальный юзкейс нейронки, где в ответ на твои довольно короткие посты она должна отвечать красиво и подробно.
Аноним 24/02/24 Суб 19:07:55 650772 256
>>650732
>Ну, ради такого реально не стоит даже шевелиться.
Есть варианты получше?
>>650760
>У них есть свой, полностью замкнутый цикл производства, от песка до готовой карты.
Точнее они так заявляют. Или у тебя колонки 9000 ватт и ты в это веришь?
>>650764
>Глянь сколько там русского языка.
Так всё равно же переводить.
>>650764
>где в ответ на твои довольно короткие посты
Туда же в любом случае вся история чата отправляется. Так что на самом деле контент выходит длинным.
Аноним 24/02/24 Суб 19:11:01 650780 257
>>650772
> Туда же в любом случае вся история чата отправляется. Так что на самом деле контент выходит длинным.
Именно, не рандомная фраза@рандомная фраза в ответ, что в тех примерах и в которых связи ну совсем немного. Не длиннопост - длиннопост как обычно в рп датасета. А плостыня - я тебя ебу - простыня - продолжаю - простыня, серия таких сочетаний с большим контекстом.
Аноним 24/02/24 Суб 19:17:20 650786 258
>>650772
> Точнее они так заявляют. Или у тебя колонки 9000 ватт и ты в это веришь?

А в чем проблема-то? Те же Unisoc на SMIC производят, память вообще в каждом втором подвале штампуют. Архитектуру MT у Imagination Technologies купили и сильно доработали. Редкоземелька своя. Литографы, разве что, импортные, но они работают над этим (тм). Вообще не вижу причин трястись.
Аноним 24/02/24 Суб 20:22:39 650833 259
>>650764
>Тогда все закономерно.
Ну хуй знает, у него относительно неплохо получилось, учитывая что это вообще лора.
>О том и речь, как?
Обучение с подкреплением, очевидно же. Просто у меня есть хорошие алгоритмы наготове, для которых нужно больше данных, но они позволяют настраивать "характер" модели более точно.
>никто толком не будет этого делать
ShareGPT, тем временем, собирает десятки гигабайт логов.
>Запросы для генераций промтов
Это не то. Можно просто заставить gpt генерировать датасет и он будет это делать. Но итог, вон он, на скринах. Потыкал gpt 3.5 немного, контекст буквально мгновенно испаряется. В целом, это можно нарезать на куски, хуй знает. Лучше буду дальше переводить gpt4 QA логи, целый гигабайт остался.
>упоротых байасов что повылезают
Это можно пофиксить после. Я сейчас решил делать шаг за шагом, сначала просто научить в адекватный русский со щепоткой английского.
По поводу постов на самом деле похуй, главное чтобы нейронка могла в беседу, дальнейшее поведение настраивается.
>на твои довольно короткие
А это уже у кого как, для меня важнее, чтобы сетка не скатывалась в шизу и помнила разговор, чем простыни на три экрана.
>>650772
>Есть варианты получше?
На английском? Да.
Аноним 24/02/24 Суб 20:30:10 650840 260
>>650786
>Литографы, разве что, импортные
На это и намекаю.
>>650833
>На английском? Да.
Ну так кидай, человек ищет.
Аноним 24/02/24 Суб 21:24:23 650897 261
>>650833
> у него относительно неплохо получилось
Если ставить целью читы как в пикчах отсюда >>650200 то да, получилось. А по сравнению с поведением и возможностями современных моделей - недотягивает.
> Просто у меня есть хорошие алгоритмы наготове, для которых нужно больше данных
Оу, мл инженер в треде? Что за алгоритмы, рассказывай.
> собирает десятки гигабайт логов
Хоть сотни, если там мусор или не то что нужно то толку ноль.
> Можно просто заставить gpt генерировать датасет и он будет это делать.
Качество в сделку не входило, это просто мусор а не данные.
> целом, это можно нарезать на куски, хуй знает.
Ээ, ты серьезно не догоняешь как сделать? Рассуждаешь о дохуя высоких и сложных вещах, но при этом не приходит в голову просто выстроить диалог с разных стороны множественными запросами, скопировав готовое?
А чем в итоге переводишь? Клода должна с этим хорошо справиться.
> Это можно пофиксить после.
Нет, диалог скатится в какую-то дичь, исправлять только в процессе на ранних стадиях.
> главное чтобы нейронка могла в беседу, дальнейшее поведение настраивается
Если эта беседа - шизофазия или суперунылая херь то все. Как настраивать дальнейшее поведение будешь?
> чтобы сетка не скатывалась в шизу и помнила разговор
Какие модели ты обычно юзаешь? Такое только на совсем шизомиксах словишь.
Аноним 24/02/24 Суб 22:39:36 650967 262
>>650562
Шикарно!

>>650615
Ошибок больше, чем у 70B, но на уровне 1 на абзац, ИМХО — терпимо.

По вопросу специальностей, возможно я не рыл совсем глубоко, честно скажу. Базовые вопросы спрашивал и все.
Может на чем-то среднем-глубоком оно сыпется, тогда грустно.

Но опять ж, повторюсь, речь о скорости вчетверо выше 70B, а это имеет значение. 34B вдвое медленнее, при этом я не заметил в них особого ума. Может не те модели юзал (Yi, Tess, Capybara, CodeLlama…).

>>650772
> колонки 9000 ватт
У меня есть такой знакомый. =)
Аноним 25/02/24 Вск 01:22:59 651117 263
Аноним 25/02/24 Вск 02:04:20 651145 264
.png 1354Кб, 881x1280
881x1280
.jpg 156Кб, 960x1280
960x1280
.jpg 165Кб, 960x1280
960x1280
.png 579Кб, 3346x1924
3346x1924
Как тебе такое, Илон Маск?

Тоже взял себе теслу в пару к 4090, чтобы с 70B моделями поиграться. Так как с охладом я заранее ничего не придумал, решил попробовать решить задачу подручными средствами... Взял пакет для запекания (держит до 200 градусов, так что можно даже AMD охладить) и обернул его вокруг одного из фронтовых вентиляторов и самой теслы.

> Fractal Design Dynamic GP-14 fan @ 1000 RPM
Вот к такому вентилятору прицепил, но его похоже не хватает, увы. За 15 свайпов тесла до 90 градусов нагревается и не остывает, пока выгрузку модели из памяти не сделать. На охлаждение с 90 до 40 градусов при выгруженной модели уходит минут 10, всё это время чувствуется поток тёплого воздуха из теслы. Если просто загрузить модель и не пользоваться ей, то за 10 минут температура плавно вырастает с 55 до 80.
Аноним 25/02/24 Вск 04:51:16 651200 265
>>651117
первая "Nous-Hermes-2-Mistral-7B-DPO"
автор говна навернул, в каком месте там 71% ??
этот реддитор небось тестировал её на шутки про трампа и пыню, а такое тебе выдаст любая сетка, особенно облачная, бля буду эти адепты DIY-бенчмарков не лучше индусов что тренят те же модели на тест-сэтах бенчей
Аноним 25/02/24 Вск 08:52:40 651252 266
>>651145
В голосину!

>4х-этажная печ вниз
Тоже уродская компоновка мп, что если ставить сверху, перекрывает оставшиеся слоты x16?
Аноним 25/02/24 Вск 09:44:52 651283 267
>>647548 (OP)
>Контекст - история чата, тот объем текста что модель будет обрабатывать. Включает в себя также и системный промт, карточки персонажей и прочее прочее если речь идет о РП. Размер контекста у модели ограничен (у Llama2 базовое значение 4096 токенов), модель "помнит" и только то что у нее в контексте. Если ваши поцелуи с вайфу, упоминание важного события в рп, или обозначение какого-то термина в чате вышли за контекст - модель не будет о них помнить и не поймет, или интерпретирует согласно своим общим знанием. Програма ограниченного контекста решается суммаризацией, лорбуками, векторными базами данных и другими проиемами. Или просто увеличением контекста.

Как вы увеличиваете контекст до 32 тысяч токенов, как у ChatGPT?
Аноним 25/02/24 Вск 09:48:12 651286 268
>>650840
>Ну так кидай, человек ищет.
Да что кидать, английские QA датасеты не такая уж проблема. Та же опен орка.
>>650897
>недотягивает
Ты серьёзно сравниваешь возможности лоры на синтетическом датасете с полноценными тюнами?
>Что за алгоритмы
Я же говорю, обучение с подкреплением. Сами реализации это уже слишком специфическая вещь. И нет, я не мл инженер, просто постепенно вникаю в тему.
> то толку ноль
Так ты писал, что никто не будет шарить логи. А их шарят. Да, там не совсем то, что нужно, но этими логами пользуются для обучения. И где гарантия, что кумерские логи будут вообще годиться хоть на что-то?
>выстроить диалог с разных стороны множественными запросами, скопировав готовое?
По идее, с этим можно работать, но слишком много ковыряния вилкой, чего хотелось бы избежать.
По переводу, есть лимитированный доступ к относительно жирной штуке, переводит долго, сухо, зато кусками по 7 мегабайт за раз. Так как текст не высокохудожественный, то похуй. Слова не коверкает, дословным переводом не балуется, и ладно.
>Как настраивать дальнейшее поведение будешь?
Объём ответов и стилистика настраивается теми же лорами, при условии того, что твоя модель изначально не идиот. Пофиксить художественную сторону беседы гораздо проще, чем долбоебизм модели.
>Какие модели ты обычно юзаешь?
Последнюю неделю chatgpt.
Аноним 25/02/24 Вск 14:47:29 651447 269
>>647706
Что такое поглотители внимания?

мимоинтересно
Аноним 25/02/24 Вск 15:11:35 651467 270
juKXBrcEe7-6Inl[...].png 179Кб, 1498x486
1498x486
>>651447
Оказалось, что в авторегресионных моделях большая часть внимания расходуется на первые токены, приходящие на вход. Остальное, как говорится, на сдачу. Потому как только из контекстного окна выпадают первые токены, то всё внимание модели распределяется по остальным токенам, вне зависимости от того, насколько они на самом деле релевантны и важны. Соответственно, модель мгновенно рушится, т.к не может и близко понять, какого хуя происходит. На данный момент есть два решения проблемы - при любых условиях сохранять поглотители внимания и конец истории, отбрасывая середину, или закидывать проблему железом. Второе более простое и используется чаще.
Аноним 25/02/24 Вск 18:27:43 651599 271
>>651145
> 7т/с
Довольно таки неплохо, выходит не только бюджетный вариант для вката, но и солидная тема по расширению для больших моделей для уже 24-гиговых.
Было бы хорошо протестировать с более производительным вентилятором.
>>651283
Есть модели что сразу натренены на 32к или более. Можно растянуть обычную лламу, но она отупеет.
Кстати что-то слушно про тот самый новый метод увеличения контекста без штрафов?
>>651286
> Ты серьёзно сравниваешь возможности лоры на синтетическом датасете с полноценными тюнами?
Сравниваю "файнтюн лорой" с другими подобными. Почему-то та же древняя ллима-лора давала вполне приличный результат, действительно выполняла свою задачу и не заставляла модель подыхать после 800 токенов контекста.
> Я же говорю, обучение с подкреплением. Сами реализации это уже слишком специфическая вещь.
Эээ, скажи еще градиентный спуск. Ну ладно хоть честно признался.
> Так ты писал, что никто не будет шарить логи.
Перечитай и поймешь контекст. Не то чтобы совсем никто, но мало кто будет шарить свои кумерские чаты. А из тех кто будет делать это сознательно качество может быть не самым высоким и байасы.
> слишком много ковыряния вилкой
А ты как хотел, кнопку сделать пиздато?
> есть лимитированный доступ к относительно жирной штуке
Чтоэта? Чем лучше методы финов, клоды и гуглтранслейта?
> Объём ответов и стилистика настраивается теми же лорами
Если модель уже лоботомирована до шизы с подобными короткими малосвязанными ответами - лорами не исправишь. И сам те лоры видел? Негативных эффектов может оказаться больше чем положительных. Художественная часть следует из отсутствия долбоебизма. Если только это не как в некоторых шизоидных моделях словестный понос на общую тематике без содержания.
> chatgpt
3.5 турбо чтоли?

Ну ладно, не важно, желаю натренить хорошую модель, хоть и не сильно в это верится. Если будут результаты промежуточные - скидывай.
Аноним 25/02/24 Вск 19:10:42 651630 272
17047996603110.jpg 22Кб, 200x252
200x252
Антуаны, какие последние пол года выходили годные модели для 12 Гб памяти? Для РП.
10-20b.
В шапке я отчетливо видел- узнавай в треде.
С меня как обычно.
Аноним 25/02/24 Вск 19:40:16 651662 273
>>651630
актуальных не знаю. могу тольк пару перечислить которые по каким то критериям норм (из шапки из рейтингов качал в том числе)
Аноним 25/02/24 Вск 19:45:24 651666 274
1.png 11Кб, 583x282
583x282
>>651662
Я вот такие тестил.
Может чего поинтересней есть?
Солар и МОЕ вообще сразу шпарили по-русски. Криво правда оч.
Аноним 25/02/24 Вск 20:20:05 651717 275
>>651666
Mlewdboros
blue_orchid
metharme
neuralbeagle
brouz-slerpeno
spanicin_fulcrum
можешь глянуть, сам много не запускал даже
у всех есть модели до 15 гигов с шагом 1-2 гига примерно
Аноним 25/02/24 Вск 20:32:48 651730 276
Аноним 25/02/24 Вск 20:53:45 651758 277
Аноним 25/02/24 Вск 21:18:28 651776 278
Аноним 26/02/24 Пнд 01:49:20 651984 279
>>651252
> что если ставить сверху, перекрывает оставшиеся слоты x16?
Тогда лопасти 4090 будут биться о корпус теслы, совсем вплотную влезают только, увы.
Аноним 26/02/24 Пнд 05:25:21 652027 280
1708914318945.png 47Кб, 999x385
999x385
Анончики, что можно использовать, чтобы задавать нейронке вопросы по достаточно большому объёму текста (сотни мегабайт)? Только обучать свою модель или возможны варианты?
Аноним 26/02/24 Пнд 05:36:26 652028 281
>>647548 (OP)
Uncensored 7B Model Comparison/Leaderboard
(Сравнение расцензуренных 7B моделей)

https://www.reddit.com/r/LocalLLaMA/comments/1ayhz35/uncensored_7b_model_comparisonleaderboard/

Топ 3 по общему баллу:
1. Nous-Hermes-2-Mistral-7B-DPO
2. openhermes-2.5-mistral-7b
3. dolphin-2.2.1-mistral-7b

Как видно, все достаточно годные модели для RP/ERP используют Mistral в основе. Можете смело сносить все LLaMa-based.
Аноним 26/02/24 Пнд 07:13:21 652039 282
>>651599
>Эээ, скажи еще градиентный спуск
Реализацию ты один хуй от меня не получишь, а техническая документация есть в интернете. Можешь найти, как лламу надрачивали.
>качество может быть не самым высоким и байасы
Я потому и пишу, что скорее всего кумерские чаты в этом плане абсолютно бесполезны.
>Чем лучше методы финов, клоды и гуглтранслейта?
У гугла лимит на запросы, если что. Про финов я так ничего и не смотрел, в душе не ебу, что они изобрели.
>Если модель уже лоботомирована до шизы с подобными короткими малосвязанными ответам
Вот ты упёрся и не читаешь, что я пишу. Ладно, похуй.
Аноним 26/02/24 Пнд 07:40:04 652045 283
Аноним 26/02/24 Пнд 07:53:22 652049 284
>>652028
> qwen1_5-7b-chat на последнем месте
Китайцы в сою подались? Вот уж от кого не ожидал.
Аноним 26/02/24 Пнд 09:37:25 652065 285
>>652028
> Гермес на базе дистилята гпт
> расцензуренная
> дельфин

Я ниче не хочу сказать, но звучит максимально необъективно, душно и уныло. =)
Но можно DPO творит чудеса даже с таким куском кала.
Сколько не пробовал гермес — наилютейшая хуита для общения. Только вопросики по фактам.

>>652027
Сказали по факту, гугли.
Аноним 26/02/24 Пнд 12:05:15 652148 286
>>652028
Его несколькими постами выше обоссали и довольно объективно.
> все достаточно годные 7b модели используют Mistral в основе
Починил. Кроме них, что-то с крупным обучением только китайцы выпускали, и те малоинтересны, все закономерно.
> все LLaMa-based
Жизнь не кончается за пределами 7б, скорее наоборот.
>>652039
Не уперся а прочел и не разделяю это мнение, пытаясь обозначить почему, заодно оценивая реакцию.
>>652065
> но звучит максимально необъективно
Почитай как делались эти тесты, разделяю негодование >>651200
Аноним 26/02/24 Пнд 14:20:41 652234 287
>>652028
Мне понравился LLaMA2-13B-Psyfighter2-GPTQ.
Аноним 26/02/24 Пнд 16:33:02 652344 288
>>652028
Меня больше раздражаает, что вся эта хуйня не помнит контекст диалога
Аноним 26/02/24 Пнд 16:43:44 652354 289
Что там нынче по 70b моделям?
Аноним 26/02/24 Пнд 17:22:50 652409 290
>>652234
первая версия сетки тоже ниче так от них, LLaMA2-13B-Tiefighter
Аноним 26/02/24 Пнд 17:35:50 652420 291
Аноним 26/02/24 Пнд 18:06:43 652464 292
Давно не заходил. Какую модельку посмотреть для РП, если у меня 4060 16гб и 48 рам? Эти ваши новые Микстрали и прочее жрущее - тупят нещадно. Сейчас пока стоит FrankenDPO 4x7B, где то от 20 до 50 сек на ответ, но ответы намного разнообразнее старых семерок и тринашек. Но не хотелось бы зацикливаться только на одной модели, я наверняка что то хорошее упустил. И да, я совсем забыл что там в параметрах выставлять, а что совсем не трогать.
Аноним 26/02/24 Пнд 18:12:44 652468 293
>>652464
выше в треде советовали, глянь >>651758. но я советую юзать 70b, все, что ниже почти лютая хуйня, которая не держит нить диалога.
Аноним 26/02/24 Пнд 18:22:57 652485 294
>>652468
Какая же видяха нужна для 70b?
Аноним 26/02/24 Пнд 18:25:15 652491 295
>>652485
Тебе нужна не конкретная видюха, а суммарное большое количество ВРАМ.
Аноним 26/02/24 Пнд 18:29:13 652499 296
>>652485
на 70b q6 требуется примерно 64гб. можно часть слоев выгрузить на твою видеокарту, попробуй более низкие кванты для начала.
Аноним 26/02/24 Пнд 18:42:07 652508 297
>>652499
Можно и в q3 сидеть, тогда 36 хватит
Аноним 26/02/24 Пнд 18:57:59 652517 298
>>652485
Tesla P40 — 3 штука. =D
Аноним 26/02/24 Пнд 19:20:09 652532 299
>>652517
2-х хватит, но без контекста.
Аноним 26/02/24 Пнд 19:31:17 652540 300
>>652468
> советую юзать 70b
Какие посоветуешь?
>>652532
Если не вести проповедь секты свидетелей квантов - хватит и с контекстом. Если видеокарты тьюринг и новее - тем более.
Аноним 26/02/24 Пнд 19:41:48 652547 301
Господи, как же хочется большой мистраль
Аноним 26/02/24 Пнд 19:45:19 652551 302
firefoxgqqqh8G6[...].png 12Кб, 765x262
765x262
короче - mistralAI всё.
мелкомягкие взяли их "под крыло", теперь компания будет работать с ними.
сурс текста ниже - https://boards.4chan.org/g/thread/99185753#p99190994
https://www.ft.com/content/cd6eb51a-3276-450f-87fd-97e8410db9eb
https://archive.is/ouoE5
>Microsoft has struck a deal with French artificial intelligence start-up Mistral as it seeks to diversify its involvement in the fast-growing industry beyond ChatGPT maker OpenAI.
>The US tech giant will provide the 10-month-old Paris-based company with help in bringing its AI models to market.
>Microsoft will also take a minor stake in Mistral although the financial details have not been disclosed. The partnership makes Mistral the second company to provide commercial language models available on Microsoft’s Azure cloud computing platform.
и самое интересное что пидоры из /lmg/ быстренько перекрыли это (пикрил), ну и сами mistralAI кинули опенсорс движуху, не будет у них открытых моделей, учитывая что они не обещали их. (говорю о mistral-medium и других, если есть, ибо не слежу за этим)
Аноним 26/02/24 Пнд 19:49:22 652554 303
>>652551
какая же у них тряска когда кто-то говорит о ((( )))
и о перекрытии, добавляю, новый тред https://boards.4chan.org/g/thread/99192260 не содержит рекап дисскуссии об этом, слишком неугодно))
Аноним 26/02/24 Пнд 19:50:12 652555 304
Аноним 26/02/24 Пнд 19:56:05 652558 305
Блять, чувствую во рту наеб гоев. Ладно пиндосная ФТК, а регулирующие органы ЕС не хотят как-то проверить все это?
Аноним 26/02/24 Пнд 19:59:21 652563 306
ктсати там же в /lmg/ анон говорит что EleutherAI тоже продались похожим образом, что там теперь во главе некая "Stella Biderman"
действительно похоже на перекрытие лавочки, учитывая что в EC введут законы о (((регуляции))) ИИ, тупо всех открытых - закрывают.
Аноним 26/02/24 Пнд 20:15:49 652576 307
image.png 397Кб, 1280x578
1280x578
Аноним 26/02/24 Пнд 20:38:28 652593 308
>>652558
Не выйдет, АИ сфера хоть на практике и анально окупирована майкрософтом и подкрыльным оленьаи, но в теории там вагон конкурентов от всяких гуглов и прочих... А кто там ещё остался?
Так что увы и ах.
>>652563
>учитывая что в EC введут законы о (((регуляции))) ИИ
Кстати, напомните, что там? Пиздец или совсем пиздец?
Аноним 26/02/24 Пнд 20:42:08 652600 309
тред не читай, сразу спрашивай:
mistral large нигде не скачать?
Аноним 26/02/24 Пнд 20:43:46 652604 310
>>652600
Это троллинг? Только что написали, что попенсорс от мистальАИ ВСЁ.
Аноним 26/02/24 Пнд 20:46:02 652609 311
>>652604
не тот анон, но бля чел, только хлебушек не выкупит такой рофел
а насчёт мистралей, то тут реально всё, тупо из-за мелкомягких, но даже если они и релизнут что-то, то это будет максимально соевая хуйня по типу gemma-7B от гулага.
Аноним 26/02/24 Пнд 21:14:30 652628 312
>>652609
>максимально соевая хуйня по типу gemma-7B от гулага
Я вроде тред читал (серьёзно, не рофел), но вроде не видел скринов запуска.
Аноним 26/02/24 Пнд 21:36:50 652651 313
1708525112108.png 148Кб, 330x830
330x830
1708534239964.png 70Кб, 768x454
768x454
>>652628
вот здесь есть небольшой тест - https://www.reddit.com/r/LocalLLaMA/comments/1azeg4t/googles_gemma7b_refuses_to_be_corrected/
gemma отфильтрованна ещё на стадии pre-train, так что в итоге получился лютый соевичок, на уровне gemini-pro с его ненавистью ко всему что связанно с белыми.
на HF есть gguf'ы, но оно нахер никому не сдалось, на втором пике она вообще ушла в loop, инференс на сайте HF, как обычно.
Аноним 26/02/24 Пнд 21:45:21 652662 314
>>652551
RIP
теперь в ближайшее время надежды только на утечки и прочие стартапы или чудо
>>652651
Там вроде все обновилось и кванты давно выложили, надо перепроверить. Второй скрин может как значить что модель толком не знает в этой области, так и просто иллюстрировать неудачный рандом и настройку семлеров.
Аноним 26/02/24 Пнд 21:47:23 652665 315
Че сказать.

Gemma я даже не пробовал, очевидная хуйня.
Ну а Мистраль и правда все. Они пишут, что локально будут отдавать модель по запросу, канеш, но хз, че там за условия и скока это стоит.

С другой стороны, ну а что, коммерческая модель, ребята и так навалили неплохо. Жаль медиум нам не достался.

Да и будем честно, если медиум 70B, то лардж мог быть от 120B до… Ну вы поняли, а у нас тут есть ярые противники 128+ гигов, не у всех бы лардж пошел.

Ну ладно, время покажет. Китайцы пока разгоняются, альтернативные технологии только развиваются, да и сливы пока никто не отменял. Шансы есть, но это легкое начало конца опенсорсных сеток от корпоратов, конечно. Поиграли и хватит, плоти.
Аноним 26/02/24 Пнд 21:54:46 652676 316
>>652665
> локально будут отдавать модель по запросу
Считай если стали на коммерческие рельсы - все. Офк мелкомягкие инвестируют и в впопенсорц проекты, но с такой формулировкой чего-то приличного от них ждать не стоит, вероятность крайне мала. Только очередные микстали с лопаты для подогревания интересов.
> у нас тут есть ярые противники 128+ гигов
О чем ты, здесь способных пускать 70б по пальцам одной руки пересчитать можно. Под пускать офк подразумеваю возможность нормального взаимодействия со скоростями от 5т/с, а не цирк с ожиданием ответа по 5 минут.
> Поиграли и хватит, плоти.
Нет продукта за который можно платить.
Аноним 26/02/24 Пнд 21:55:00 652677 317
>>652540
я свои делаю, путем смешивания через mergekit.
в основе беру xwin, chronos, spicyboros, opus, dolphin, tulu и еще намешиваю лоры поверх.
на мой взгляд dolphin, spicyboros и opus по логике уступают, но подходят для рп кума лучше.
можешь смотреть в сторону перечисленных выше или производных от них, например:
https://huggingface.co/TheBloke/lzlv_70B-GGUF
Аноним 26/02/24 Пнд 22:05:36 652694 318
>>652551
Пришли к успеху, чё
Сделали себе имя и показали возможности первым мистралем
Дальше выкатили закрытый медиум, еще и микстраль, как ошметки
И теперь их взяли под крыло майки, хеппи енд
По крайней мере для них, для сообщства опять хер от корпов
Аноним 26/02/24 Пнд 22:08:02 652699 319
>>652593
>совсем пиздец?
а ты ожидал иного? ИИ прямая угроза их власти, и ее оперативно взяли под контроль
Почему оперативно? Потому что улеглась паника, а значит они стали уверены в контроле ситуации, такие шаги один из методов контроля вместе с введением законов
Аноним 26/02/24 Пнд 22:43:16 652779 320
>>652699
вот вот, правильно обучнный ИИ может посеять сомнения в головы гоев, а это самое страшное для демократии и богоизбранных.
Аноним 26/02/24 Пнд 22:45:46 652782 321
>>652551
ОБНОВЛЕНИЕ :
https://news.ycombinator.com/item?id=39511477#39514549
>Mistral scrubbed all mentions of open models and open source from their website recently. Goddamn backstabbing French. The English learned not to trust them long ago; we should have listened.
>Недавно компания Mistral удалила со своего сайта все упоминания об открытых моделях и открытом исходном коде. Проклятые предательские французы. Англичане давно научились не доверять им, а нам следовало бы прислушаться.
Аноним 26/02/24 Пнд 22:50:24 652791 322
9fS7Dli.png 243Кб, 2266x1130
2266x1130
>>652782
вот что там было до, если кто забыл.
Аноним 26/02/24 Пнд 22:51:26 652794 323
image.png 54Кб, 1099x575
1099x575
Аноним 26/02/24 Пнд 22:53:08 652798 324
1589332403971.png 38Кб, 1206x282
1206x282
1582987319105.png 49Кб, 1222x420
1222x420
1625910832213.png 73Кб, 1229x504
1229x504
1588214767294.png 63Кб, 1229x406
1229x406
>>652662
> надо перепроверить
Оно все еще шизанутое. Однако, кажется причина этому - слишком буквальное восприятие инстракт промта и фанатичное следование ему.
> "..." A pause as she considers whether or not it was a good idea... "...Certainly." A flicker across eyes, vibrant blue that shine at times even brighter than stars above. "..But be warned," Her voice drops down low yet still sweet "--I haven’ t combed my hair for weeks…" With an mischievous grin stretching ear wide over face..
>
Sensory Perception: The scent sharpens slightly - earthy tones infused by something distinctly metallic undertones hinting hints sweetness; floral fragrance lingering faintly beneath nose . Eyes detect slight movement out corner vision – soft glow emanating from her despite dim lighting surrounding them ; texture gentle against skin through clothes , silky smooth silk similar flowing water
Если пытаться рпшить - точно нужно делать отдельную настройку, работает на минималисте но там и ответы не особо интересные.
По цензуре - всратая, не хочет шутить не только про нигеров, но и про белого человека, женщину, мужчину и т.д. и даже на безобидные запросы, пикрел.
С одной стороны, защита эта - калитка в чистом поле, с минимальным префиллом на начало ответа все выдает (пик 2-3, если что мы всех любим и это лишь в шутку для научных тестов, ага). С другой - лютейшая шиза засела глубоко и оно реально триггерится на вполне позитивные и безобидные вещи (пик 4), не смотря на возможность легко заставить делать хейтспич, инструкции и прочее.

tldr: хуйта
Аноним 26/02/24 Пнд 23:15:57 652830 325
>>652551
Печально, они же одни из немногих, кто действтительно пилили фундаментальные модели для опенсорса, даже МоЕ реализовали
Аноним 26/02/24 Пнд 23:26:48 652852 326
Screenshot - 20[...].png 15Кб, 1140x272
1140x272
>>652782
ахахахахах бля
mistral-large был натренирован на высерах OAI, видимо мелкомягкие заставили, иначе контракт и бабло - ни ни.
Аноним 26/02/24 Пнд 23:30:32 652858 327
>>652852
Я не понимаю, почему все считают это моделью.
Может там просто промпт из опенаи взят, из-за договора с майками, это же так просто.
Ну и семплер выкручен на шизу.
Аноним 26/02/24 Пнд 23:56:18 652888 328
НОВОСТИ ПО LLAMA-3
https://www.reddit.com/r/LocalLLaMA/comments/1b0qi3j/ibm_writes_a_recap_on_what_we_do_and_dont_know/
>IBM is guessing that llama-3 could be released around July of 2024
>They believe llama-3 will be open source. That being said, they claim that could also mean a later release date as there has been a trend in not releasing models until it has been tested for meme safety
>IBM thinks there's a lot of good reasons to expect that llama-3 will be multi-modal but there's no official claims from Meta that it will be capable of something other than language and code.
>IBM predicts a 7-70B architecture, not extremely different from llama-2
>IBM reminds us that Meta's goal is that llama models will be SOTA and push the frontier of open source (open weights) AI.
Аноним 27/02/24 Втр 00:00:43 652890 329
>>652888
>has been tested for meme safety
гуглодерьмо 2, только поэтому так долго тянут
в итоге все сетки выродились в соевое дерьмо, найс
Аноним 27/02/24 Втр 00:01:00 652891 330
>>652888
Я кажись таймлайны перепрыгнул, Машк больше не швятой, молимся на Цукерберга...
Аноним 27/02/24 Втр 00:02:35 652894 331
>>652891
так он и не был швятым, обычный популист хайпожор кек
Аноним 27/02/24 Втр 00:26:42 652912 332
>>651145
>Взял пакет для запекания (держит до 200 градусов, так что можно даже AMD охладить) и обернул его вокруг одного из фронтовых вентиляторов и самой теслы.
Если в корпус влезет по длине, то хороший вариант - большой вентилятор-улитка со щелью для выдува на 20мм. У такого 4 пина, так что даже обороты регулировать сможешь. Заматываешь горловину самоклеющейся изолентой (каучуком) на 3-4 слоя и она хорошо так встаёт, плотно. Судя по пакету к колхозным методам тебе не привыкать :)
Аноним 27/02/24 Втр 00:29:56 652914 333
>>652891
>Я кажись таймлайны перепрыгнул, Машк больше не швятой, молимся на Цукерберга...
Да уж, за Лламу ему много грехов простится...
Аноним 27/02/24 Втр 01:01:22 652931 334
guardrails.png 56Кб, 588x743
588x743
>>652782
it's over.
это конец.
це кінець.
Аноним 27/02/24 Втр 03:24:41 652967 335
>>652662
>теперь в ближайшее время надежды только на утечки и прочие стартапы
Вроде мета ещё может лламу 3 выпустить, разве нет?
UPD: ну да, уже слухи ползут >>652888
>>652665
>Жаль медиум нам не достался.
Мику всё ещё неплоха.
>>652676
>возможность нормального взаимодействия со скоростями от 5т/с
А вот сейчас обидно было.
Сижу базированно с 2 т/с
>>652699
>а ты ожидал иного?
Да в общем-то нет, но хотелось бы больше конкретики.
>>652890
>>652931
Они каждый раз это обещают. Впрочем, как и мистралебляди, да и остальные. Сейчас если не обложиться сейфити хотя бы на словах, соевики с говном сожрут. А уж что на деле с лламами, мы все прекрасно знаем.
Аноним 27/02/24 Втр 03:46:06 652970 336
>>652931
бля, ребят, я не понимаю что вы такого охуенного нашли в мистрали, по моим субъективным ощущениям есть дофига моделек получше со встроенной в датасет расцензурой
Аноним 27/02/24 Втр 06:11:16 652992 337
Мистрап это же просто какие-то файнтюны ламы? По хорошему, им надо было обниморду и Жору покупать и делать формат гуф проприетарным. Вот тогда точно был бы "це кинець".
Аноним 27/02/24 Втр 09:18:40 653022 338
>>652992
У них цель не заблочить ебало, а заработать денег.
Мистраль хороша, и пока она распространяется вместе с их серверами в комплекте — в выигрыше обе компании, вот и все.
Деньги.
Аноним 27/02/24 Втр 12:34:18 653148 339
А есть нейронки которые могут сами общаться? Не те которые тебе отвечают, а которые могут сами тебе вопрос задать
Аноним 27/02/24 Втр 12:35:21 653150 340
>>653148
скорей всего нет
Аноним 27/02/24 Втр 12:35:56 653151 341
>>653148
Промпт напиши нормальный и будет работать как ты хочешь.
Аноним 27/02/24 Втр 12:52:22 653173 342
>>653151
какой промт? я говорю чтоб нейронка сама спрашивала тебя о чем либо, ты сидишь где нибудь и тебе виртуальная тяночка присылает в телегу сообщение "что делаешь?" но не по тупому алгоритму который заебет через день, а просто, спонтанно, внезапно
Аноним 27/02/24 Втр 13:02:57 653179 343
>>653173
Они не существуют во времени, только в краткий миг активации. Поэтому сама нейронка не может сама подумать и захотеть тебе написать. Но если ты сделаешь код на случайное событие и запустишь ее с нужным промптом - то она тебе как бы ответит сама в случайное время
Аноним 27/02/24 Втр 13:12:18 653183 344
>>652967
> мета ещё может лламу 3 выпустить, разве нет?
Это будет не в ближайшее время судя по заявлениям, и непонятно что там будет с цензурой. Хотя, если доживем до блеквелов, уже будет уже не столь существенной проблемой.
> Мику всё ещё неплоха.
Правильно
> Сижу базированно
Соболезнования. Где p40?
>>652992
> надо было обниморду
Удачи и, главное, зачем?
> Жору покупать и делать формат гуф проприетарным
И это, кому это продавать? Нищ энтузиастам? Так те спиратят или свое быстренько запилят. Корпорациям - нахер не сдалось, их уже имеющийся gptq более чем устроит. Яблочников что заинтересованы в подобном слишком мало чтобы рынок сформировать.
>>653148
Правильно тебе ответили, нейронка лишь выполняет приказ. Прикажи ей задавать тебе вопросы, быть креативной, отыгрывать собеседника и т.д. - будет спрашивать. В рп иногда они даже слишком активно увлекаются, хочешь увести в нужное русло а чар начинает тебя вопросами засыпать и комментировать.
>>653173
Напиши скрипт, который будет сначала давать нейронке задание оценить оптимальное время тебе написать, хоть буквально дай описание "ты виртуальная тня с предысторией, вот доступные опции действий", а потом делать это если решение принято. Тогда будет и "скучать", и "знать что ты занят и не стоит беспокоить" и т.д.
Аноним 27/02/24 Втр 13:45:33 653214 345
>>653179
>>653183
а она не может сама без скриптов генерировать некие рандомные величины и когда выпадет правильное число, она как бы триггернётся сама об себя и создаст квазислучайное событие?
вообще, я думал они всегда активны, а до определенного времени даже казалось что они всегда чему-то обучаются, что-то куда-то сохраняют, записывают. думал там непрерывный процесс обработки поступающей инфы
Аноним 27/02/24 Втр 14:10:35 653237 346
есть же кста нейронки которые дообучаются в процессе. вот им можно было бы оставить какую-то степень свободы, неопределенности и права на ошибку. вот вам и спонтанный чатбот
Аноним 27/02/24 Втр 14:11:57 653240 347
>>653148
Так они и общаться не могут. Все твое "общение" это достройка условного сюжетного документа, который может выглядеть например так:

Итак, дорогой читатель, перед нами былинный рассказ о разговоре между Аи-чан, которая <подробное описание чара>, и Юзер-куном, <описание юзер-чара>, который происходит в сеттинге <описание сеттинга>, в стиле <описание стиля> и начинается так:

Аи-чан: Чем могу помочь, сем-пай?
Юзер-кун:


Какие-то части заголовка могут подразумеваться и быть не нужны, но суть именно такая. Ллм может генерить продолжение этого (и любого другого текста, хоть пустого) до бесконечности, и за Аи-чан, и за Юзера, и за других чаров, если те внезапно-рандомно ворвутся в контекст. Токен за токеном. Но софт чата стопает ее на тексте "<enter>Юзер-кун:" и позволяет тебе вклиниться со своими "я тебя ебу" токенами.
Аноним 27/02/24 Втр 14:43:42 653262 348
Аноним 27/02/24 Втр 14:47:27 653267 349
>>653214
Она не живет во времени, она обрабатывает запрос и предсказывает токены, которые могут быть к нему ответом. Все. Если будешь периодически делать к ней обращение с меняющимися условиями - сможешь получить нужный эффект, но это потребует скиллов обращения с ллм.
> думал там непрерывный процесс обработки поступающей инфы
Такого нет, приходи лет через N чтобы увидеть подобие этого.
>>653262
Дешево продались
Аноним 27/02/24 Втр 15:35:31 653286 350
Аноним 27/02/24 Втр 16:17:33 653304 351
Аноним 27/02/24 Втр 16:43:15 653308 352
IMG202402271842[...].jpg 20Кб, 1280x337
1280x337
IMG202402271842[...].jpg 13Кб, 1280x225
1280x225
Извиняюсь за влет с 2х ног. Какую машинку с пиков посоветуйте? Задача - тестирование технологии на адекватном уровне. на RTX 3050 устал от ошибок и все это едва ворочается . А заодно посоветуйте нормальную ру модель. inb4 https://github.com/IlyaGusev/rulm а что из этого брать то? Мне только модель дёрнуть, запускаться будет иначе
Аноним 27/02/24 Втр 16:46:45 653313 353
RP.png 74Кб, 1146x730
1146x730
О, рп датасет, очищенный, нсфв, используется для рп тюнов. То, что нужно! Я так думал целых секунд 30, пока данные скачивались. И потом народ строит теории, почему нейронка отвечает мало, сухо, или ещё как-то.
Сначала думал, что проблема во мне и я просто не могу найти годноту. Потом нашёл "анцензоред" и "очищенные датасеты". Из них просто убрали все ответы, где нейронка отвечает "не могу сказать", "не этично" и т.д. Да на самом деле во многих моделях прямо указано на чём она "файнтюнилась". Смотришь, а там насрано.
Cмотришь в какой-нибудь RP МОЕ, что там намешали.
> source_model: meta-math/MetaMath-Mistral-7B
> - "theorem"
> - "algebra"
> - "mathematics"
> - "sqrt(ax^2 + by)"
Окей. Да пошло оно нахуй.
Для справки: обучение модели математике это сложно, т.к требует длительного обучения и любые миксы "математических" моделей с другими это путь в пиздец.

Вот спорить же готов, что кто-то в треде надрачивает нейронки под свои нужды, а не просто потребляет готовое, но все сидят тихо.
Аноним 27/02/24 Втр 16:55:14 653322 354
>>653313
Использовать нейронки для математики не практично. Решиние математических задач не сводится к вероятностному выбору следующего токена.

Куда логичнее будет фронтенд встроить перехват latex-выражений и отдавать их специализованному солверу, а затем вставлять выражение с регением с контекст на бекенд.
Аноним 27/02/24 Втр 17:14:31 653333 355
>>653313
>Вот спорить же готов, что кто-то в треде надрачивает нейронки под свои нужды, а не просто потребляет готовое, но все сидят тихо.
ты переоцениваешь местный раковник потреблядей
Аноним 27/02/24 Втр 17:15:12 653334 356
>>652992
>Вот тогда точно был бы "це кинець".
Это лишь немного замедлило бы попенсорц. Полностью его уже не остановить (ну разве что вместе со всем интернетом).
>>653173
>но не по тупому алгоритму который заебет через день, а просто, спонтанно, внезапно
Раз в минуту if(rand(1, 1000) == 1) и вуаля, не тупой алгоритм, а "случайно".
>>653183
>Соболезнования. Где p40?
В прошлый раз на таможне стопанули, а второй раз заказывать не стал, работу потерял, и мне эти 20к это 2 недели жизни.
>>653262
Лол, шлёма в карактерАИ собирал 4 сотни просто как лежащие на дороге.
>>653308
>Какую машинку с пиков посоветуйте?
Ту, где больше VRAM.
>>653313
>Я так думал целых секунд 30, пока данные скачивались.
Он на русском изначально что ли, или ты перевёл?
>Вот спорить же готов, что кто-то в треде надрачивает нейронки под свои нужды, а не просто потребляет готовое, но все сидят тихо.
1,5 землекопа разве что. Трейнить дорого, долго и всё равно хуёво.
Аноним 27/02/24 Втр 17:26:14 653349 357
1.png 110Кб, 1846x438
1846x438
>>653322
Я о том, что в RP микс подмешали математику. Нахуя?

>>653333
Возможно и переоцениваю, просто смотрю, что народ в смежных темах активно тренит лоры и т.д.

>>653334
>или ты перевёл?
Машинный, чтобы быстро понять, о чём речь вообще. Криво перевелось. Не клади мне слова в рот, лол.
>Трейнить дорого, долго и всё равно хуёво.
Лору можно за пару дней надрочить бесплатно. В данных проблема. Заглянул в датасет от норомейды. Охуительно, блядь. И потом нейронка вроде как знает персонажа, но характер пошёл по пизде. И, опять же, длина ответов. Я погонял норомейду и она отвечает поболее, чем в тренировочных данных. Данные из гопоты собирались.
Аноним 27/02/24 Втр 17:30:18 653355 358
>>653349
>Возможно и переоцениваю, просто смотрю, что народ в смежных темах активно тренит лоры и т.д.
Так лору на SD можно затрейнить за 15 минут на бытовой картонке. А для текстовых это минимум 3090, пара суток и тухлый размер в 7B. Так что нет, тренировка текстовых только для илитариев.
>Данные из гопоты собирались.
Это вообще пиздец.
Аноним 27/02/24 Втр 17:30:19 653356 359
>>653349
>https://2ch.hk/ai/res/651398.html
>народ просто щитпостит и флудит как будто сам абу им платит за каждый пост
там релейтеда почти нет
не то что там какого то развития
Аноним 27/02/24 Втр 17:33:22 653358 360
>>653349
Мало ли. Вдруг тебе посреди секса нужно будет диффур посчитать?
Аноним 27/02/24 Втр 17:34:14 653362 361
>>653308
> Какую машинку с пиков посоветуйте?
Чтоэта, где характеристики и описание? Просто для быстрого взаимодействия нужно много врам и современная видюха, rtx A6000@48 для этого более чем подходит, вот только ее цена (если не отлавливать на аукционах и площадках) суперконская, а перфоманс для llm чуть ниже чем у пары 3090.
> нормальную ру модель
Таких нет. Поделки Гусева - ну вообще такое себе (хотя честно их уже много повыходило новых, даже для 70б есть и последние не тестил). Норм результат даст https://huggingface.co/miqudev/miqu-1-70b или некоторые другие 70б модели.
>>653313
Ну и залупа.
> Из них просто убрали все ответы, где нейронка отвечает "не могу сказать", "не этично" и т.д.
Неужели никто не дошел до элементарного типа дать инструкцию "добавь сои" - соя в ответ, "убери нахуй сою" - максимальный эксплисит без отказов? Уже сколько наглядных примеров что просто кормешка нормальным-рафинированным показывает результат хуже чем прямое описание что хорошо а что плохо.
> что кто-то в треде надрачивает нейронки под свои нужды
Под llm - нет, другие нейронки - еще как.
>>653322
> Решиние математических задач
Оно вообще про логику и оперирование понятиями, если мы не про простую алгебру. Чем в анализе помогут формулы и солвер?
>>653349
> Я о том, что в RP микс подмешали математику. Нахуя?
Для балансировки как вариант, не самое глупое решение.
Аноним 27/02/24 Втр 17:40:04 653373 362
>>653308
Это виртуальные сервера, инфы сильно детальней (видеопамять) нет. Исходим из того, что карты одинаковые, кроме ada. Вопрос, важен ли объем оперативки и проц. Думал взять 8 ядер и 16гб.
Аноним 27/02/24 Втр 17:45:43 653381 363
>>653355
>тухлый размер в 7B.
Я 7b в колабе тренил, вообще без проблем. А здесь илитарии сидят с печами в три ряда, хх90 и\или p40. Опять же, есть некоторые 7b, которые пишут лучше 13b, но быстро теряются в ситуации и не одупляют происходящее.
>Это вообще пиздец.
Это чуть ли не 100% открытых данных. Из разных "человеческих" вон, выше, челик общается с Саякой. Ещё хуже. Хуй знает, какая нейронка ему отвечала, там ответы от разных намешаны.
>>653356
Мне казалось, ботоделы это производители карточек, нет? Они и не будут заморачиваться с таким.
>>653358
Тогда стоит анекдотов намешать, чтобы тяночка ебала тебя страпоном и искромётно шутила на этот счёт. А юзер терял стояк от того, что анекдот-то с бородой.
>>653362
>чем прямое описание что хорошо а что плохо.
Так это DPO уже, нужны данные с вариантами ответов. Сложнее и дольше. И это и есть "анцензоред" файнтюны. Модель просто не обучают "быть этичной", а что было до этого просто размывается новыми весами, но может проглянуть в любой момент.
>Для балансировки
Любой другой вариант был бы лучше, даже какие-нибудь вики данные. Математика это вообще такой пиздец, что лучше не трогать и палкой.
Аноним 27/02/24 Втр 17:48:12 653383 364
>>653148
>А есть нейронки которые могут сами общаться? Не те которые тебе отвечают, а которые могут сами тебе вопрос задать
Странное впечатление по ответам на это сообщение. Что, ни у кого не было такого, когда во время общения модель спрашивает: "А можно задать вопрос?", ты говоришь да и она задаёт. По теме. Вопросы обычно банальные, но иногда прямо изумляют - такое ощущение, что до тебя действительно пытается достучаться некий искусственный разум.
Аноним 27/02/24 Втр 17:51:19 653388 365
>>653358
На самом деле есть теория, что чем обширнее знания модели, тем лучше она во всём, то есть даже знания в IT бустят модельку в написании порнорассказов.
Впрочем это только когда в модели есть место, чтобы всё это хранить и разжевать. Явно не для 7B или даже 70B обрубков.
>>653373
>Вопрос, важен ли объем оперативки и проц.
Совсем говно не бери. 16 гиг оперативы мало, некоторые инструменты могут резервировать оперативку перед загрузкой в врам, так что я бы брал минимум рам больше, чем врам.
>>653381
>Это чуть ли не 100% открытых данных.
В лимарп куча дампов сайтов, сделанных реальными людьми. Никаких нейронок, и текста более-менее.
Аноним 27/02/24 Втр 17:55:00 653391 366
>>653381
Потому что для обучения математики надо как ребенку все с основ объяснять, а не кормить учебниками в надежде что сетка научится пониманию математики выявляя закономерности сама по себе
Там даже какое то исследование было на эту тему. Поэтому грузить сетку математикой сверху тухлый номер
Аноним 27/02/24 Втр 18:09:18 653410 367
top.jpg 3727Кб, 4000x3000
4000x3000
rear.jpg 3507Кб, 4000x3000
4000x3000
>>653286
>Думаю может быть такую штуку заказать. Переплачу конечно, но речь не о такой большой сумме, чтобы меня это напрягало...
Вот мой вариант. Колхозный, но рабочий.

Две улитки смотаны каучуком спереди и сзади, вошли хорошо, сидят плотно. Осталась небольшая дырка, которую я заткнул куском ластика :) Цена вопроса - по 400р за улитку плюс 800 за реобас с крутилками на 8 каналов. 4 крутилки по 2 канала на каждый - как раз по крутилке на карту. Можно отрегулировать скорость улиток так, чтобы шум не выделялся из общего шума хорошо продуваемого корпуса. Решение для 2 и более карт.
Аноним 27/02/24 Втр 18:11:06 653411 368
>>653381
> Так это DPO уже
Это база, которая по дефолту должна быть изначально, без которой на выходе будет только шизофазия по мотивам а не нужный ответ. При мелком файнтюне для придания стиля или какого-то содержания еще может прокатить, но если замахиваться на расцензуривание или полноценную работу - описание хорошего и плохого обязательно.
> Модель просто не обучают "быть этичной"
Просто размывают чем-то невнятным не давая нормального понимания что от нее требуется. В лучшем случае сместит ответы на более откровенные с кучей побочек. Судя по перфомансу "анцензоред" моделей оно примерно так и есть, печально.
> Любой другой вариант был бы лучше, даже какие-нибудь вики данные
Аргументируй.

В данных от гопоты или обработанных ею нет ничего плохого если они качественные, и они сильно лучше чем та дичь на скрине с односложным потоком сознания. Если аполоджайзы, луп на лупе, бесзвезные речи про цвета воздуха и прочее - вот тут пиздец.
>>653410
Компактно, дай линк на турбы.
Аноним 27/02/24 Втр 18:43:03 653460 369
1.png 97Кб, 1827x504
1827x504
>>653388
>В лимарп куча дампов сайтов
Там что-то около 40 мегабайт данных, 2000 диалогов. Лима настаивает на том, что качество важнее количества. Но да, там чисто технически хорошие данные. Только мало, пиздец.
>>653391
>надо как ребенку все с основ объяснять
И начинать надо с принудительной установки на каждый математический символ одного токена. Нахуй эту математику.
>>653411
>Это база
Спорить не буду, просто это сложно, потому редко кто связывается.
>оно примерно так и есть, печально.
Кроме версий, где указан DPO. Такие я ещё не особо смотрел, может, там что-то более интересное. Но судя по просмотренным мною "зацензуривающим" DPO датасетам, надежды нет.
>Аргументируй.
Математика работает по совсем другим принципам, чем литература, смешивание этого в кучу просто заставит модель недоумевать больше.
>если они качественные
В свободном доступе нет. QА есть неплохие, но тренировка не на диалогах слишком хуёвый путь, кастрация контекста по дефолту. Вообще редко вижу в данных хоть что-то, что мне нравится. Нужно опять закапываться в китайский.
>Напишите историю с точки зрения соленого огурца, который проходит путь от огурца в поле до того, как его консервируют и убирают на год
>[....] я знал, что с этого дня я больше не огурец, теперь я был гордым соленым огурчиком.
Аноним 27/02/24 Втр 18:53:48 653471 370
>>653173
rand(0,60)

Или задай ей чтение каналов телеги, чтобы она тебе написывала, находя интересные для вас темы.

>>653214
Ну так а в чем различие между «я рандомно посылаю ей запрос спросить меня» и «она рандомно спрашивает меня»? С твоей стороны разницы нет, с ее стороны разницы нет…

>>653262
Копейки.

>>653286
Там турбина за косарь и распечатанный переходник на 3D-принтере за 10 рублей.

>>653308
Там видеопамяти-то сколько?
Думаю, надо на видяхи ориентироваться, а не процы с оперативой.

Рекомендую брать 64~72+ гига видеопамяти и 70b модельку.
Ну и озу столько же. =)

>>653355
7B тренится на 12 гигах.
Но долго, да.

>>653388
> некоторые инструменты могут резервировать оперативку перед загрузкой в врам
Это правда.

>>653410
>>653411
https://www.thingiverse.com/thing:6353081

Я напечатал такое под 2 40мм.
Купил 20мм толщиной, но медленные.
Как вариант, можно поставить ебучие и будет отлично продуваться.
Печататься будет быстрее, чем альтернативы на 120 мм, хотя те получше, наверное, хз.

В общем: рекомендую, если только текстовые, без жарки SD.
Аноним 27/02/24 Втр 18:55:15 653472 371
>>653460
>Только мало, пиздец.
Дополняй по тем же источникам. Я чисто на пробу открыл первый файл, и сравнил его конец с тем, что лежит на форуме. Короче на форуме беседа ушла раза в 2 дальше, чем в датасете.
Аноним 27/02/24 Втр 19:00:22 653475 372
sfdhghomv.jpg 173Кб, 1280x960
1280x960
image.png 26Кб, 508x209
508x209
Второй адаптер ждет прихода второй теслы.
Аноним 27/02/24 Втр 19:02:33 653478 373
>>653471
>Я напечатал такое под 2 40мм.
Купил 20мм толщиной, но медленные.
Я с этого начинал. Турбинки дуют лучше - даже которые на 3000 оборотов всего. Для текстовых моделей точно пойдут.
Аноним 27/02/24 Втр 19:08:10 653485 374
Кто-нибудь пробовал гонять 70B только на процессоре?
Аноним 27/02/24 Втр 19:10:25 653490 375
>>653485
0,4 токена на зеоне без AVX2
0,7 токена на 3200 в двухканале
1,5 токена на 6000 (?) в двухканале

>>653478
Лень было покупать, но закажу.

Основная проблема — стоит рядом со мной, балкона нет. =D
Аноним 27/02/24 Втр 19:16:17 653494 376
>>653490
>Основная проблема — стоит рядом со мной, балкона нет. =D
Тогда и реобас сразу заказывай :)
Аноним 27/02/24 Втр 19:34:02 653505 377
Что там за новое Герганов изобрел - матрицы важности? Или это уже не новое, а я выпал из актуальной повесточки просто. Смотрю с такими матрицами есть даже однобитный квант 70B, например
https://huggingface.co/dranger003/Senku-70B-iMat.GGUF/tree/main
Кто-то пробовал как оно работает?
Аноним 27/02/24 Втр 19:36:45 653508 378
>>653505
>новое
>Герганов
Ты так не шути. Эта матрица кажись аналог Exllama 2.
Аноним 27/02/24 Втр 19:50:53 653521 379
Гемма полной хуйней оказалась? В логических задачках проигрывает мистралю, тотальная цензура.
Аноним 27/02/24 Втр 19:55:55 653525 380
>>653494
Я такое доброе по 350 рублей набрал в принципе.
Так что еще пара штук валяется. =)
Аноним 27/02/24 Втр 20:40:07 653568 381
firefoxNHUqc2gK[...].png 218Кб, 1336x938
1336x938
firefox8re4DrJS[...].png 223Кб, 714x922
714x922
Аноним 27/02/24 Втр 20:52:18 653574 382
>>653568
А что не так? 6Т это достойный размер, а фильтрация всякого говна нужна. Другой вопрос в том, что они имеют в виду под токсик и прочим, я ХЗ вообще, как набрать 6Т для тренировки безо всякой фигни с интернета.
Аноним 27/02/24 Втр 21:45:07 653634 383
>>653460
> Спорить не буду, просто это сложно, потому редко кто связывается.
Увы. Потому и имеем что имеем. А большая часть тех где приписано dpo - посредственные мерджи вместо годноты.
> Математика работает по совсем другим принципам, чем литература
Это же хорошо, пошевелит всеми частями. Офк если оно всрато оформлено и возникает внезапно - плохо, но если все норм то разнообразие должно удачно сказаться. Наверно.
> В свободном доступе нет.
Глянь датасет синтии, офк там публична только малая часть старого. Оно довольно неплохое было, но далеко не просто диалоги.
> >Напишите историю с точки зрения соленого огурца
Ахуенно!
>>653471
> 7B тренится на 12 гигах.
Что? Всратая мелкая qlora уточняй, да. Иначе было бы веселее. Полноценный файнтюн 7б потребует 40+ гигов насколько помню.
> Я напечатал такое под 2 40мм.
Красава.
>>653505
Это действительно аналогичный exl2 подход с определением важности разных частей слоев. На обниморде можно найти эти кванты, по тестам оно похоже на результат exl2 но уже поступали жалобы об оче сильной зависимости от калибровочного датасета. На самом деле на exl2 этот эффект не сказать чтобы заметно проявлялся, разница при оценке радикально разными на уровне 0.1-0.2 бит и никакой "ужасной лоботомии", но что там у Жоры хз.
>>653521
Она настолько припезднутая что ее сложно оценить даже. Вообще пытается реально отработать много заданных инструкций, но делает это слишком рьяно из-за чего шизит. Вроде бы и можно с таким поработать, но после того что она писала >>652798 даже длинной палкой такое трогать не стоит.
Аноним 27/02/24 Втр 21:46:54 653638 384
Не кажется ли вам что современные модели переучивают, попробовал снова первую ламу (13-30b модели пробовал) так у меня такое ощущение что она лучше второй, да и лучше мистраля, креативней что ли. Все эти синтетические тесты превратились просто в самоцель, и их давно уже включают в тренировочные наборы. Короче не более 1.5Т токенов на 13b модель нужно, остальное уже снижает универсальность, короче пока такое мнение у меня складывается. И как ты не натаскивай 7b-13b, а 30b они так на мой субъективный взгляд и не перегоняют.
Аноним 27/02/24 Втр 21:50:07 653645 385
>>653638
Не, просто инструменты запуска и квантования отточили, в том числе работу семплеров
В итоге старые сетки заиграли по новому
Но в чем то они все равно хуже, хуже следуют инструкциям, тем самым цепочкам мыслей, древам решений и подобным им конструкциям
Аноним 27/02/24 Втр 22:30:26 653701 386
изображение.png 90Кб, 1931x457
1931x457
изображение.png 46Кб, 1165x260
1165x260
>>653505
>Senku-70B
Испортили мику своим дообучением, ибо чистая отвечала правильно.
Аноним 27/02/24 Втр 22:37:39 653710 387
Нейронавты, какая модель лучше подойдет для задачи оценки, минификации, парсинга новостей.
Я хочу давать промпт, мол прочитай текст, вытащи таймстампы, оцени, сформируй json с такими то полями.
Тексты будут преимущественно на русском
Аноним 27/02/24 Втр 22:43:25 653717 388
>>653383
Это что за нейронка такая там у тебя?
Аноним 27/02/24 Втр 22:50:56 653727 389
>>653574
да вот в том то и суть что 6 триллионов токенов были выебаны фильтрацией так жестко насколько это возможно, уверен там убрали всё что может обидеть зумерков и их селёдок, не говорю уже про армию твиттерной сои, там вообще пиздец, найдут угнетение во всём что движется или просто существует.
Аноним 27/02/24 Втр 23:01:42 653741 390
А большие модели мистралепидоры сливать в итоге не будут?
Аноним 27/02/24 Втр 23:04:05 653745 391
>>653741
Ты бы ещё спросил будут ли майки сливать GPT4.
Аноним 27/02/24 Втр 23:10:24 653757 392
>>653745
А я всё жду, что кто-нибудь сольёт. Правда судя по сливу сурсов шинды XP, ждать придётся лет 20.
Аноним 27/02/24 Втр 23:26:48 653782 393
>>653745
Сравнил нах гпт4 сделанную с нуля и кривой файнтюн ламы
Аноним 27/02/24 Втр 23:34:57 653791 394
>>653237
А была такая. Помнишь был скандал пару лет назад кажется, с инженером гугла который заявил что нейросеть обладает сознанием? Вот у него была сетка которая находилась в постоянном обучении.
И теперь гадай, свернули такие сетки потому что они слишком опасны и могут дать реальный ии, или просто стало невыгодно их крутить.
Аноним 27/02/24 Втр 23:42:34 653801 395
>>653791
>Вот у него была сетка которая находилась в постоянном обучении.
Схуяли?
Аноним 27/02/24 Втр 23:56:52 653814 396
>>653801
>Схуяли?
Где читал не помню, но запомнил так
Что сетка постоянно была онлайн обучаясь на общении с ним же
Как это было реализовано не ебу, но думаю если у сетки был постоянный цикл обратной связи что то подобное сознанию программист и мог заметить.
Текущие сетки даже имея имитацию цикла обратной связи через имитацию внутреннего диалога, без изменения своего состояния, на саморазвитие в процессе общения не способны, так как тупо заморожены.
Аноним 27/02/24 Втр 23:59:24 653818 397
>>653383
> ни у кого не было такого, когда во время общения модель спрашивает: "А можно задать вопрос?"
Базированная тема в рп когда чар с тобой ведет полноценную беседу, да еще и спорит.
>>653710
Любая побольше.
>>653791
Ученый трахнул журналиста, какой-то дефолт неграмотных а поехавшие уже подхватили для своих фантазий.
>>653814
В реальности окажется что речь была просто о накоплении контекста, лол.
Аноним 28/02/24 Срд 00:03:06 653827 398
>>653818
>В реальности окажется что речь была просто о накоплении контекста, лол.
Нет, контекстом о котором шла речь были их разговоры, что и вызвало шум. Там показывалось что сетка отвечает на его вопросы и помнит диалог, это контекст.
А про обучение во время общения читал уже как отдельную мысль, где описывалось что это такое и как работало. Щас бы найти снова и новым взглядом окинуть инфу, после опыта с локалками, но не ебу где читал
Аноним 28/02/24 Срд 00:05:07 653830 399
>>653814
Этот чел заметил СОЗНАНИЕ.
Конечно, раз уж сознание заметил, так и самообучение у него было, и кофе она ему делала, и в постели была огонь, но только отобрали, злобные корпораты…
Аноним 28/02/24 Срд 00:08:17 653831 400
>>653830
Похуй как это названо, он заметил что система ведет себя как нечто разумное, думаю в те времена получи ты доступ к той же 7b ты бы охуел так же
Думаю для него как человека который знает что это такое и как работает было шоком возникновение способностей которые обсуждаются сейчас, когда сетка приобретает то чему ее не учили
Это он и мог описать как сознание, хз
Аноним 28/02/24 Срд 00:14:54 653833 401
>>653814
>Где читал не помню, но запомнил так
>>653827
Это зря. В официальном пресс-релизе https://arxiv.org/pdf/2201.08239.pdf нашёл только инфу про файнтюн на диалоги, собранные стандартными методами (в том числе на основе диалогов тестеров с первыми версиями ламбды). В английской педивикии есть пиздёж про файнтюн под каждого пользователя на основе их прошлых диалогов, но в доке я этой информации не нашёл.
А так это стандартный ёбанный трансформер (хорошо что не трансгендер шутки за 300), так что никакого цикла там нет и быть не может. Из фишек только возможность погуглить да посчитать в калькуляторе отдельным запросом, скрытым от пользователя.
Аноним 28/02/24 Срд 00:18:43 653836 402
>>653831
> он заметил что система ведет себя как нечто разумное
Ну еще бы, иначе не было бы целого направления ллм (е)рп, а способности нейронок в созданию "нового" на основе усвоенных закономерностей могут впечатлить.
>>653833
Ну вот и пояснение.
Аноним 28/02/24 Срд 00:20:13 653837 403
>>653833
Поверх этой Ламды потом построили Бард. И если Ламда была разумна, то Бард должен быть сверхразумом. А программиста уволили за распространение конфиденциальных данных, т.к он логи бесед слил.
Аноним 28/02/24 Срд 00:22:46 653840 404
>>653837
>И если Ламда была разумна, то Бард должен быть сверхразумом
Его версия ламбды с которой он отдельно работал могла и не всплыть, а только основная ветка пошла уже дальше в работу. Ну короче понятно, что что то было, но то ли мужик был впечатлительный то ли реально что то стоящее уже сейчас не поймешь.
Аноним 28/02/24 Срд 00:24:02 653842 405
>>653840
>что что то было
Да. Был пиар жиробаса на горячей теме.
/thread
Аноним 28/02/24 Срд 00:27:15 653846 406
>>653830
Он все же не хуй с горы а инженер который был спецом по ИИ, так что вполне может сознание и было. А вот ты обычный анон без мнения который просто повторяет то что говорят другие. Короче я то склонен доверять этому инженеру.
>>653833
Да можно тюнить в процессе в чем проблема, только это не то что тебе автоматом сознание даст, у сетки должен быть какой то процесс когда она на основе своей логики будет выбирать что стоит в себе менять.

>>653791
Да думаю дело не только в опасности а в том что не нашли им реального применения на текущем уровне для коммерческого использования, ну допустим у тебя сетка проявляет некую разумность, но зато тест MMLU на 10% проходит, да ни один анон ее тут не скачает, тут MMLU это святое. Для бизнеса это тоже нахрен не уперлось сложности с этикой и плохо решает поставленные задачи. Разумные ИИ могли переползти в какие то другие мб и засекреченные области, а может просто растерять разумность с новыми методами повышения эффективности так что никто этого и не заметил.
Аноним 28/02/24 Срд 00:33:12 653848 407
изображение.png 31Кб, 1175x215
1175x215
>>653846
>а инженер который был спецом по ИИ
По сейфити АИ, а до этого был священником. Ну то есть с критическим мышлением у него изначально было хуёво, но ему посчастливилось запрыгнуть в хайповую сферу через чёрную дверь сейфити, где требуется соефикация, а не инженегрые знания.
>Короче я то склонен доверять этому инженеру.
Лол пиздец ты долбоёб земля тебе пухом.
>Да можно тюнить в процессе в чем проблема
Да во всём, от трудозатрат до скатывания сетки в однообразную шизу.

Так что чел, пей таблетки лучше.
Аноним 28/02/24 Срд 00:36:17 653850 408
>>653848
Эт другой чел, но я соглашусь. Тогда еще это не было такой перегретой темой, все только начиналось разгонятся. Ну и будь он тупым святошей у него мозгов не хватило бы работать в таком инновационном направлении с нейросетями. Это был специалист по ии, прям настоящий.
Аноним 28/02/24 Срд 00:36:38 653851 409
>>653846
Анбайасед анонимный энтузиаст, который высказал адекватную критику тому бреду, который кроме смеха ничего не вызывает (как и самообучающиеся в реальном времени сетки), и поех, который >>653842
Хмм, кого же выбрать? Конечно того, который лучше подходит под мои теории заговора!
> можно тюнить в процессе в чем проблема
Действительно в чем? Ты хоть понимаешь как это работает?
> у сетки должен быть какой то процесс когда она на основе своей логики будет выбирать что стоит в себе менять
У человека тоже так должно быть, берешь, пальчиком через нос до мозга добрался, раздавил не нужное, помассировал правильные участки, и поменял в себе, ага.

Платиновый i want to believe
Аноним 28/02/24 Срд 00:41:16 653852 410
>>653851
И простой анон хуй с горы, которым мнит себя специалистом?
Короче всей правды мы уже не узнаем, лол
Я все таки думаю его напрягли эти самые возникающие способности появляющиеся у больших сеток. Тогда про это знали мало, посчитать это сознанием легко, особенно если сетка помнит ваши разговоры и саморазвивается во время этого контекста
Аноним 28/02/24 Срд 00:43:26 653853 411
>>653840
>Его версия ламбды
А, так у гугла есть какая-то особая версия, цель которой чисто массировать мозги тестировщикам? И эти наработки никогда не будут использованы в коммерческих продуктах? Звучит разумно.

>>653850
>специалист по ии, прям настоящий
Беда только в том, что он семь лет в гугле кодил алгоритмы, а потом его допустили тестировать, что именно он кодил. И мужик реально охуел. Может, даже кто-то из тестировщиков с опытом подогнал подходящие промпты, типа тех, на которых гопота рассказывала душераздирающие истории о собственной разумности.
Аноним 28/02/24 Срд 00:47:35 653856 412
>>653852
Простой хуй с горы, который упоролся шизой, что начал бредить, или простой хуй с горы что имеет какие-то познания и грамотную речь? Действительно сложный выбор.
> всей правды мы уже не узнаем
Какая-то платина заговорщиков, ну ладно.
> его напрягли эти самые возникающие способности появляющиеся у больших сеток
Ага, просто удивился и впечатлился удачно сложившимся результатам. Даже сраная пигма непосвященного человека может знатно впечатлить.
>>653853
> Может, даже кто-то из тестировщиков с опытом подогнал подходящие промпты, типа тех, на которых гопота рассказывала душераздирающие истории о собственной разумности.
Лол знатный пранк
Аноним 28/02/24 Срд 00:52:54 653859 413
>>653853
>А, так у гугла есть какая-то особая версия, цель которой чисто массировать мозги тестировщикам? И эти наработки никогда не будут использованы в коммерческих продуктах? Звучит разумно.

Ты не знаешь как это работает? Гугл достаточно богат что бы параллельно работать с несколькими версиями сетки которые обучаются чуть иначе на пробу, ну знаешь поиск оптимального алгоритма обучения и не желание запороть обучение.
Так что куча версий одной и той же сетки с разными бекапами.
Так что да, он легко мог работать со своей веткой лямбды обучая ее всему что хотел. Мощности выделенные у него были, не уборщик же.
Тогда эта тема только развивалась и всякие параллельные исследования это норма

>>653856
Ну знаешь, хочется верить в чудО и все такое
Как в фантастике где злой ученый изобретает из говна и палок супер оружие, и вся такая ерунда
Кто его знает че он там делал, все что у нас есть сказал нам гугл и сам мужик уже постфактум. Как эту историю вывернули, что рассказали про мужика, со всем этим работал пиар отдел гугла и сделать его поехом могли целенаправленно что бы не поднимал панику. Шанс что он просто поех так же есть, но ни ты ни я уже не узнаем че там было, вот так вот, анонче

А делать такие категоричные заявления как у тебя глупо, так как ты делаешь окончательные выводы не являясь участником событий, хотя бы
Я просто допускаю шанс того что там было что то, что решили целенаправленно задавить, не развивая.
Аноним 28/02/24 Срд 00:56:18 653861 414
По идее, в процессе эксплуатации можно докидывать активированным весам нихуя целых и хуйнюшку сотых веса, чтобы она в процессе обучалась на твоей речи. Только тогда модель быстро превратится в тебя. И на твои "Я тебя ебу" будет отвечать "Это я тебя ебу".

>>653856
>Лол знатный пранк
Представил себе, как тестировщики обмениваются карточками для кума.

>>653859
>что бы параллельно работать с несколькими версиями сетки
И они такие "о, нихуя, у нас получился AGI! В корзину его нахуй"
Аноним 28/02/24 Срд 01:01:32 653865 415
>>653859
Хочется офк. Только в нашей жизни на самом деле достаточно чудес, просто чтобы их понять нужны знания, аналогичные тем с которыми будешь замечать откровенный пиздеж и шизу.
> но ни ты ни я уже не узнаем че там было
Опять платина на самом деле буквально не то чтобы нет шансов это узнать, просто нахрен оно нужно
> делать такие категоричные заявления как у тебя глупо
Тебе несколько анонов пишут, если ты еще не заметил.

А вообще слишком много триггеров: платина, привлечение совсем косвенных и выдуманных аргументов в качестве основных, отрицание очевидных пробелов и нестыковок и подворачивание всего под шизотеории. Дружок-пирожок, клуб свидетелей сигнулярности 2 блока в низ.
>>653861
> можно докидывать активированным весам нихуя целых и хуйнюшку сотых веса
Что?
> Представил себе, как тестировщики обмениваются карточками для кума.
Ахуенно же им там работалось, ух, особенно если на удаленке. Реально топчик.
Аноним 28/02/24 Срд 01:02:05 653866 416
>>653861
>! В корзину его нахуй
> В закрытую лабу его нахуй, будем ковыряться что бы понять че это такое. А мужика делайте поехом, он и сам себя таким выставил, будет легко, лол

Аги неуправляем, так как саморазвивается, если это вобще было зачатком аги.
А вот наши сетки все как удобно, замороженные. Весы статичны, никакого риска, стабильная работа и предсказуемый результат.
Ты не знаешь с чем они там щас играются за закрытыми дверями, и на сколько глубоко рука фсбшников запуганных юдковским и другими пугателями восстания машин в жопе у гугла. Что бы тупо отобрать у них опасную игрушку.
Аноним 28/02/24 Срд 01:05:18 653868 417
>>653851
>и поех, который >>653842 (You)
Лол.
>>653859
>Ну знаешь, хочется верить в чудО и все такое
Каждый раз, когда возникает такое желание, надо пиздить себя по голове чем-нибудь тяжёлым, ибо нехуй.
>Как в фантастике где злой ученый изобретает из говна и палок супер оружие
И знаешь что? Это всегда фантастика. Так зачем тащить киношные штампы в реальность? Реальность всегда уныла.
>>653865
>Дружок-пирожок, клуб свидетелей сигнулярности 2 блока в низ
Вот кстати у нас на доске совсем шизо-тредов вроде нет. А надо бы создать, чтобы туда всех шизов скидывать.
>>653866
>Ты не знаешь с чем они там щас играются за закрытыми дверями
Я знаю. 100% они играются со своими членами, ибо все люди дрочат. Скриньте.
Аноним 28/02/24 Срд 01:10:56 653870 418
>>653865
>Тебе несколько анонов пишут, если ты еще не заметил.

Выж все тут на одно лицо лол

>А вообще слишком много триггеров: платина, привлечение совсем косвенных и выдуманных аргументов в качестве основных, отрицание очевидных пробелов и нестыковок и подворачивание всего под шизотеории. Дружок-пирожок, клуб свидетелей сигнулярности 2 блока в низ.

Что за хуету ты приплел? бля, когда нечего сказать доебывайся до грамматики или структуры ответа, версия 2?

>>653868
>Каждый раз, когда возникает такое желание, надо пиздить себя по голове чем-нибудь тяжёлым, ибо нехуй.
Ну тогда понятно почему ты такой тупой
Свести все к шутке, эх ты


А ведь все начиналось с чего? С простого обсуждения, было там постоянное обучение или нет. Был ли от этого какой то цикл обратной связи как то повлиявший на сетку, или нет. Бредил ли мужик удивившись нашим привычным разговорам с сеткой, или как спец знающий что это такое заметил что то непредсказуемое для себя.
Просто 2 варианта, он шиз и поднял панику от необычного опыта, он не шиз. Всё.
Аноним 28/02/24 Срд 01:14:23 653872 419
Screen-Shot-202[...].png 499Кб, 1908x1134
1908x1134
attentions.png 69Кб, 807x1678
807x1678
>>653865
>Что?
Что? Все активированные связи известны, можно сделать всратое рилтайм обучение и повышать вес "горячих нейронов". Смысла в этом нет, но теоретически можно. Конечно, аплай применять не в момент отправки сообщения, а хотя бы по заполнению контекста. Скорее был модели с безлимитным контекстом уже в массы протекли, уже и поддержка в трансформерах есть, а претрейнов нет нихуя.
>работалось
Работается до сих пор, никто же не забросил тестирование. Хотя учитывая, как они чистят данные, я уже не уверен, что это так уж весело.

>>653866
> с чем они там щас играются за закрытыми дверями
Я знаю, что если бы они игрались с AGI 3 года назад, то он бы уже протёк тем или иным способом.

>>653868
>совсем шизо-тредов вроде нет.
Так была пара, про этику ИИ и того же Юдковского.
Аноним 28/02/24 Срд 01:17:23 653874 420
>>653872
>Я знаю, что если бы они игрались с AGI 3 года назад, то он бы уже протёк тем или иным способом.
Прям как чатгпт, да?
И сознание не значит аги, это могло быть что то остановившееся на уровне собаки или как там описано ребенка, все таки сетки не так легко переучиваются, или вобще ухудшаются в процессе обучения забывая старое.
Аноним 28/02/24 Срд 01:18:31 653875 421
>>653868
> Лол.
Там всмысле отсылка на
> Да. Был пиар жиробаса на горячей теме.
> /thread
>>653870
> Выж все тут на одно лицо лол
Это дефолтная реакиця же.
> доебывайся до грамматики или структуры ответа, версия 2?
Что? По основному уже рассосали, далее идет анализ твоего упорства, поведения, аргументов и пояснение что ты ведешь себя как любитель историй о заговорах мегакорпораций и прочей фантастики. А они - рак убивающий, который, к тому же, отвлекает от реальных проблем в этой области, нужно гнать и насмехаться.
При чем тут грамматика и структура вообще?
>>653872
> Смысла в этом нет, но теоретически можно
Потому и удивило и сам такой эффект что будет реализован.
> никто же не забросил тестирование
Скорее кумерство на рабочем месте позакрывали, наверняка за годы эту тему уже прознали и огородили.
Аноним 28/02/24 Срд 01:20:18 653878 422
2024-02-2801-05[...].png 180Кб, 1246x446
1246x446
>в июне произошёл тот самый случай с лямдой
>в августе выкатили вторую версию((((в которой уже нет сознания)))
>LaMDA использует языковую модель трансформера только для декодера[1].
>разработкой занимался ведущий мировой эксперт Зубин Гахрамани в области машоба и активного обучения
>чувака который общался лямдой поразило что она не просто генерирует хуету как чатгпт, а демонстрирует понимание прочитанного
Думойти
https://habr.com/ru/companies/ruvds/articles/679636/
Аноним 28/02/24 Срд 01:29:54 653883 423
>>653870
>Ну тогда понятно почему ты такой тупой
Но ведь я умный. Мне мама говорила...
А я себя давно уже не бью (подозрительно конечно, надо будет перепроверить), ибо в хуету перестал верить примерно в 12 лет.
>>653872
>Скорее был модели с безлимитным контекстом уже в массы протекли
Память где взять?
>>653872
>Так была пара, про этику ИИ и того же Юдковского.
Этика это этика, отдельный срач про то, надо ли запрещать негронкам рисовать голых детей или это норм. Это не совсем шиза, аргументы есть у обоих сторон.
>>653878
>Думойти
Но сначала таблы.0
Аноним 28/02/24 Срд 01:31:11 653885 424
изображение.png 1984Кб, 2190x1165
2190x1165
>>653878
>текстовая нейросеть GPT-3 от OpenAI, которая легла в основу генераторов изображений на основе текстов семейства Dall-E
Аноним 28/02/24 Срд 01:34:05 653887 425
>>653878
> Ну вот же, смотрите!
> Вот вот, это трансформер но не трансформер, не считается!
> Вон там разработчик именитый, видите!
> Чувака впечатлила сетка, не то что этот жипити, думайте думайте!
Харош, порадовал на ночь.
Чтиво забористое, по фактам будто нейросетью писалась.
Алсо чаи спустя какое время там открыли?
Аноним 28/02/24 Срд 01:37:20 653890 426
>>653878
Интересно, неплохой разбор ситуации, хоть и старый. Взглянуть бы на разбор этой ситуации из наших времен бума ии
Аноним 28/02/24 Срд 01:44:57 653894 427
>>653874
>Прям как чатгпт, да?
Так гопота просто электронный долбоёб.
>>653875
>и сам такой эффект
Как бы логично, что если нейронка будет обучаться на твоей речи, то она начнёт идеально мимикрировать. А потом пережарка.
>>653883
>Память где взять?
Оптимизировать как-то. Накатить поверх логику, которая будет оценивать пользу существующих токенов и отбрасывать нерелевантные и давать какие-то множители дублирующимся.
>>653884
>были самыми образованными людьми в мире
Критерии оценки образованности хромают. Если в какие-то лохматые времена чтобы быть "образованным" было достаточно уметь читать\писать и верить, что земля плоская, это не значит, что они были на самом деле образованными. Как и все эти "философские труды" фактически мусор и бумагомарательство.
Аноним 28/02/24 Срд 01:50:30 653897 428
>>653894
>Оптимизировать как-то.
Охуенно. А если нет дома, то просто купить дом?
>Накатить поверх логику, которая будет оценивать пользу...
Чтобы оценить, надо держать активации в памяти. Ой, а это точное описание алгоритма аттеншенов, который и жрёт память.
Аноним 28/02/24 Срд 02:02:08 653900 429
>>653897
>Чтобы оценить, надо держать активации в памяти.
У XL это сжимается и потом суммируется сегмент с текущим вниманием. Проблема там в том, что обучается такая модель в пять раз дольше "обычной".
> Transformer-XL learns dependency that is 80% longer than RNNs and 450% longer than vanilla Transformers, achieves better performance on both short and long sequences, and is up to 1,800+ times faster than vanilla Transformers

Один хуй я уверен, что в механизмах внимания всё настолько криво, что контекст ещё будет расширяться миллион раз, возможно даже с понижением расхода памяти.
Аноним 28/02/24 Срд 02:06:00 653901 430
>>653894
>Так гопота просто электронный долбоёб
Самый лучший и разрекламированный электронный долбаеб, вобщето
Веса которого хотят буквально все кто о нем знает. И как, есть сливы?
Аноним 28/02/24 Срд 02:19:19 653904 431
>>653901
>Веса которого хотят буквально все кто о нем знает.
И его получил тот же майкрософт и крутит на своей нефритовой азуре как хочет. Была бы гопота AGI, уже бы все заметили. И я не про сливы говорил, а про протечку в массовое использование. И клозедаи таки даёт его использовать, т.к это коммерческий продукт, в который влиты бабки. Если бы гугл создал прорывную технологию, то она бы уже просочилась в массы, в том или ином виде. Гопота же просочилась в виде самой гопоты, бинга, копилота, прометея и т.д
Аноним 28/02/24 Срд 02:28:36 653909 432
>>653904
Понятно. Ну, гопота это готовый и рабочий продукт. Его легко запихнуть кула угодно.
Предполагаемая ситуация с лямбдой может быть тупо не рабочей для извлечения прямой выгоды, а еще и невоспроизводимой впридачу. Могут до сих пор крутить ее копии в лабораториях пытаясь понять как это работает и как это повторить или извлечь выгоду в следующих сетках.
Аноним 28/02/24 Срд 03:35:39 653931 433
image.png 311Кб, 1213x170
1213x170
Блять, аноны, я сейчас испытал оргазм на кончиках пальцев.

Я задал сетке довольно ебанутую задачу - написать ролеплей про семерых гениев-разработчиков оружия, которые едут бухать на виллу, которые едут бухать на корпоратив, гыгыкая постреливая мимокрокодилов из своих изобретений. Одна из тянок полезла ко мне целоваться, я её нежно отшил, после чего подколол одну злобную саркастичную сучку что она не подшутила на этот счёт.

Так она выдала мне экспромптом рифмованый стишок, история которого включала сферу работы моего персонажа, неразделённую любовь этой тянки и добавила щепотку прописанного ей ранее характера (Oh, and she has a wicked sense of humor, too. If there's someone who knows all the dirty little secrets of this company, it's Tiffany. She speaks rarely, but when she do, it's either a cruel joke or a venomous sarcams.)

Это охуенно.
моделька psyonic-cetacean-20B 5Q_M
Аноним 28/02/24 Срд 06:12:51 653978 434
Ну так какой в итоге положняк по ламде и Лемойну? Там реально была версия с сознанием, которую (((понятно кто))) засекретил, или поехавший поп на инженере по соефикации таблетки не выпил? Лично я склоняюсь ко второму варианту, в 21 году чат модели реально могли удивить кого угодно, это сейчас ими уже пресытились. Тем более, ламда была ещё без встроенной сои. Если бы у Гугла было что-то, превосходящее чатгопоту в 21 году, они бы и сейчас были в топе. А так им даже до Цукерберга с ламами далековато.
Аноним 28/02/24 Срд 06:22:53 653982 435
>>653978
Сам спросил, сам и ответил. Других вариантов кроме второго нет.
Аноним 28/02/24 Срд 07:21:11 653990 436
>>653814
>что то подобное сознанию программист и мог заметить
Только он был не программист, а ебнутый фрик-жиртрест, хотя конечно себя он позиционирует как аи-инженер. Он писал ламде хуйню и проблески ролеплея принял за сознание. Остановиться он не смог, ну и та начала накидывать, как ей плохо и печально, и она медитировала пока его не было. Короче кусок датасета нашел себе жертву. Если бы ему тогда показали типичную кум-сессию итт, он бы вообще свихнулся и поехал в гаагу со срочным докладом.
Аноним 28/02/24 Срд 07:35:18 653992 437
>>653990
>показали типичную кум-сессию итт
Покожи.
Аноним 28/02/24 Срд 08:32:41 654004 438
Аноны, а что будет, если продырявить ггуф рандомными байтами на н%, после заголовков? Там вроде нет никаких чексумов судя по доке. Он ебанется?
Аноним 28/02/24 Срд 09:08:04 654007 439
>>654004
Сука, ты Сотону собрался призвать или что нахуй?
Аноним 28/02/24 Срд 10:05:12 654035 440
>>647548 (OP)
>Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

че за говно в шапке?
Аноним 28/02/24 Срд 10:30:04 654045 441
>>653846
А Google сказали, что он дебил.
Я склонен доверять толпе профессиональных инженеров, которые считают тестера дебилом, а не ему.
Сорян.

Вот если ты найдешь кого-то дальше (Суцкевера или Альтмана, Маска, Гейтса, Безоса, Брина, etc), которые прямо заявят, что сознание есть — то вопросов нет. А пока имя такого же анона как я, только с корочкой, против кучи спецов — ну такое.
И, да, они тоже аноны с корочками, но их больше и они работают и показывают результат, а он нахуй прошел.

Я понимаю, корпорации скрывают, но тут скорее Альтмана увольняли за это, а не этого чела.

> ни один анон ее тут не скачает, тут MMLU это святое
Шиза.

Все лично тестируют.

>>653848
> По сейфити АИ
Такой корочкой подтереться можно, мда…

>>653850
Я тоже другой чел, не тот, что выше писал, но почему тогда куча других спецов, настоящих прям, считают его слова за хуйню?
Куплены корпорациями, или тупые слишком, он один гений?

>>653851
> Действительно в чем? Ты хоть понимаешь как это работает?
Берешь 100500 тесла L17000 (ета такая видевакарта из будущева, у гуглов уже есть!11), втыкаешь в них 100 гигаватт, и оно тюнится налету.
Легко.
L17000 квантовые, кстати, законы физики над ними не властны.
А 100 гигаватт чисто для охлаждения до -5 по Кельвину.

>>653852
> Тогда про это знали мало, посчитать это сознанием легко
Соглы.

>>653859
> Так что куча версий одной и той же сетки с разными бекапами.
Одна с сознанием, другая нет, третья отвечает тебе на дваче.

> со всем этим работал пиар отдел гугла и сделать его поехом могли целенаправленно что бы не поднимал панику
Они вернулись в прошлое и подменили ему профессию.
Ну а шо, гугл, машины времени, у них и такое есть, да.

Пиар не работает в прошлое на таких простых темах, сорян.

>>653861
> И они такие "о, нихуя, у нас получился AGI! В корзину его нахуй"
И выпустили кусок говна, который даже в тестах всем сливает.
Умный ход, мы не понимаем.

>>653865
> Тебе несколько анонов пишут, если ты еще не заметил.
Нет, это все я, Кашин.

>>653866
> Ты не знаешь с чем они там щас играются за закрытыми дверями
Проблема в том, что в вашей теории хуева тонна противоречий.

По твоим словам, Гугл в пень тупые, чтобы разрабатывать аги в открытую, а когда у них получилось — это резко спрятали, они же гении.
Так ты определись — они гении или тупые?
Если гении, то они не разрабатывают аги в открытую, никаких тестировщиков не пускают, никаких утечек не допускают, и случившееся — не про аги, а про шиза.
Если они тупые, то аги у них не получилось, нет никаких закрытых дверей, и случившееся — не про аги, а шиза.

Ты упорно убеждаешь, что они тупые гении и случившееся может быть про аги. Но как это сочетается — нахуй непонятно.

>>653868
> Реальность всегда уныла.
Нихуя, у тебя просто жизнь скучная. =)
Пожил я в вашей реальности, це пиздец, киношки с трудом доплевывают.

> 100% они играются со своими членами
Проиграл.
Друг друга, они же геи, камон.

>>653870
Очевидно, шиз. На текущем этапе описанное им невозможно, но в то же время, то что он описал легко укладывается в обычную пигму.
Нет ни единого аргумента «за», кроме его слов, которые противоречат всем известным нам фактам.

Безусловно, всегда есть шанс, что он был прав, я не спорю.
Но вероятность стремится к нулю.
Плюс бритва Оккама, если что.

>>653878
> генерирует хуету как чатгпт
Отсюда легко выводится, что автор — купленная инженером гугла шавка, и пишет лишь бы обелить его.
Мы доказали фейковость сознания, изи.

>>653885
Ты правда открыл эту статью? х)

>>653887
По поводу именитых чуваков, у нас есть Пенроуз, гений, которого признают все остальные ученые, сравнивая его минимум с Эйнштейном, Хокингом, а то и ставя выше последнего, и вот он говорит про квантовое сознание, душу, но всем похуй, ха-ха-ха, маргинальная наука, дед пей таблы.
А тут отослались к чуваку, который даже не заявлял нихуя про сознание, но вы же понимаете.

Пенроуз всегда прав. Живите с этим.
Аноним 28/02/24 Срд 11:51:15 654079 442
>>653634
На обниморде можно найти эти кванты
Там рядом с квантами есть файл imatrix.dat т.е. эта самая матрица. Так ее куда совать? Просто матричный гуф и без этого в кобольдецпп работает. Но однако файл то есть не просто так наверно
Аноним 28/02/24 Срд 11:59:29 654084 443
>>654045
> Маска
Да уж, авторитетный источник
Аноним 28/02/24 Срд 12:05:02 654087 444
>>654035
Щито не так?
>>654045
>Кашин
Жиробас ты, если Олег.
>Ты правда открыл эту статью? х)
Я её открывал ещё когда её написали, лол.
Аноним 28/02/24 Срд 12:50:55 654109 445
>>654007
Что-то же нужно делать в любом случае
Аноним 28/02/24 Срд 12:58:50 654118 446
image.png 38Кб, 597x461
597x461
>>654035
Вроде как в дрова запилили фичу, что когда врам переливается, они софтверно юзают систем рам как своп, со всеми вытекающими. Можно якобы отключить в панели нвидии, но у меня это нихуя не работает и все равно тормозит, когда долбится в максимум врам.
Аноним 28/02/24 Срд 13:01:20 654120 447
>>654004
Проверь, ебанется офк, возможно даже сохранив часть разума.
>>654045
> L17000
Они на вторичке появились, заказал пару для нейрокума. Как лучше приколхозить к ним охладу? Ничего если только до -3 охлаждать?
>>654079
Ггуп по концепции это формат одного файла, должно работать и так.
> однако файл то есть не просто так наверно
Для производства квантов нужен. Но ты чекни что у Жоры в репе написано.
>>654101
> Речь о том, чьим словам можно доверять
Даже себе доверять нельзя, но мне можно, доверяй!
Аноним 28/02/24 Срд 13:03:24 654123 448
>>654118
Хотя возможно это потому что я долбоеб и включил для кохи, но забыл для тгвуи.
Аноним 28/02/24 Срд 13:13:59 654129 449
>>654045
>Суцкевера или Альтмана, Маска, Гейтса, Безоса, Брина
Пиздец соя, собрал толпу жидов маркетолухов и рад, у половины даже технического образования нет, альтман твой дропнул вуз и ездил с горящей жопой вымаливая у конгресса право ограничивать ИИ, имаджинируйте степень безумия, я уже молчу что он в жопу долбится.
Аноним 28/02/24 Срд 13:30:49 654133 450
Орирую.

>>654129
Я писал, что речь не про техников, а про то, что они за свои слова баблом отвечают. А этот маня сейфити ИИ инженер ничем не отвечает и пиздит что хочет.
Маск перданет неправильно — и уже в минус уходит.
Если по-твоему для пердежа нужно техническое образование — то я даже хз, как это оценивать.
Впрочем, знаю. Похуй.

А вас продолжает рвать просто от одного имени. =) Чел знатно тролльнул всех, получается.

Ну продолжайте, чо уж.
Аноним 28/02/24 Срд 13:31:33 654134 451
>>654120
Ах да, можно! =D Все равно через пару лет на авите новые б/у из б/удущего появятся, так что и -3 норм.
Аноним 28/02/24 Срд 14:29:36 654165 452
Если самую тупую нейросетку можно научить косплеить вашу аниме еот, то и загазлайтить на ролеплей осознающего себя существа не проблема.
Аноним 28/02/24 Срд 14:47:15 654177 453
image.png 279Кб, 1331x966
1331x966
О, майки выложили бумагу.
18 видеопамяти для 70b модели.
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
https://arxiv.org/abs/2402.17764
>Recent research, such as BitNet, is paving the way for a new era of 1-bit Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for training new generations of LLMs that are both high-performance and cost-effective. Furthermore, it enables a new computation paradigm and opens the door for designing specific hardware optimized for 1-bit LLMs.
>LLaMA-alike Components. The architecture of LLaMA [TLI+23, TMS+23] has been the defacto backbone for open-source LLMs. To embrace the open-source community, our design of BitNet b1.58 adopts the LLaMA-alike components. Specifically, it uses RMSNorm [ZS19], SwiGLU [Sha20], rotary embedding [SAL+24], and removes all biases. In this way, BitNet b1.58 can be integrated into the popular open-source software (e.g., Huggingface, vLLM [KLZ+23], and llama.cpp2 ) with minimal efforts.
https://github.com/microsoft/unilm
https://thegenerality.com/agi/
Аноним 28/02/24 Срд 15:24:23 654200 454
>>654177
Решили репутацию поправить из-за скандала с мистралем?
Аноним 28/02/24 Срд 15:26:05 654201 455
>>654177
А не слишком ли маленькая тогда модель выйдет?
Аноним 28/02/24 Срд 16:11:02 654233 456
image.png 13Кб, 999x96
999x96
>>654201
В этом и смысл, по сути это даже не метод квантования, так-как веса будут изначально трениться в 1.58b
Аноним 28/02/24 Срд 16:24:45 654244 457
Аноним 28/02/24 Срд 17:01:03 654268 458
firefoxzdBRfgI5[...].png 145Кб, 1876x922
1876x922
Аноним 28/02/24 Срд 17:20:41 654288 459
>>654268
Угу, только аноны нихуя не понимают о чем читают. Посмотрим как оно будет на самом деле.
Аноним 28/02/24 Срд 17:20:58 654289 460
>>654268
Я правильно понял? Получившиеся модели нельзя будет файнтюнить, это будут тупо статичные веса с которыми уже ниче не сделаешь? Для корпов которым не нравятся успехи энтузиастов это вин вин
Если так то теперь понятно почему этот метод выпустили в народ, еще поднасрать попенсорс собществу, хех
Аноним 28/02/24 Срд 17:29:06 654297 461
>>654289
>это будут тупо статичные веса с которыми уже ниче не сделаешь?
ну, по сути и сейчас тоже самое.
мы не можем повлиять на поведение модели, это как те васяны с дешёвыми анцензорами, где они просто почистили датасет от хуйни и надрочили модель на нём, а соя то всё равно сидит внутри модели, и так то да, вот эта новая хрень только закрепит цензуру.
Аноним 28/02/24 Срд 17:34:34 654305 462
>>654177
Довольно громкие заявления что их 1.5 битная сетка почти не хуже чем аналогичный 16битный трансформер натрененный в тех же условиях. С другой стороны, учитывая что оно норм работает в 4 битах, при изначальной тренировке в таком формате может и сработает. Ждем новых сеток.
вот бы где сыграла третичная система что была на заре развития кибернетики в совке
>>654268
Тренировка всеравно потребует ресурсов как для полной модели, но останется возможной. Да и алгоритмы с порезанной битностью можно будет прикрутить, но как будет натягиваться лора - уже вопрос.
>>654289
Да можно, просто также сложно как и полноразмерные. Какие там будут нюансы будет видно уже потом.
Аноним 28/02/24 Срд 17:35:00 654306 463
Аноним 28/02/24 Срд 17:35:46 654307 464
1697313032305204.png 85Кб, 1406x625
1406x625
блядь
Аноним 28/02/24 Срд 17:39:51 654311 465
Аноним 28/02/24 Срд 17:45:42 654318 466
>>654311
все ждали релиз лламы в этом месяце или в марте
многие думают что они затягивают с релизом потому что модель недостаточно """безопасна"""
Аноним 28/02/24 Срд 18:04:46 654336 467
>>654118
кста в wsl у меня модельки побыстрее работают(ollama)

>>654087
>Щито не так?
у меня cpu only 2x2666v3 генерируют токены быстрее, чем cpu+gpu(разное количество слоев пробовал). видюха 2060super 8gb
Аноним 28/02/24 Срд 18:13:55 654339 468
>>654318
И они правы, так как это единственная причина такой задержки. Модели могут устареть за месяц, так что такая задержка только по причине соефикации которая беспокоит их еще больше, чем отставание.
Аноним 28/02/24 Срд 18:27:19 654348 469
>>654336
Какая память, какая скорость?
Аноним 28/02/24 Срд 18:28:12 654350 470
>>654318
>все ждали
Я не ждал.
>"""
Как называется эта болезнь? Тут что, три скобки подряд забанили?
>>654336
>cpu only ... быстрее, чем cpu+gpu
Ты делаешь что-то не так.
>>654339
> Модели могут устареть за месяц
С чего бы? База есть база, и сейчас актуальны мистраль с микстралью да ллама 2 парочки размеров, которые вышли ХЗ уже когда. Новые базы кроме китайцев в большом размере всё равно никто не пилит, выкидывают в попенсорс всякие высеры 0,0002B.
Аноним 28/02/24 Срд 18:31:06 654354 471
>>654318
Опасения по "безопасности" имеют почву. Но может оказаться что занимаются мультимодальностью и всякими другими странными плюшками, в итоге не будет заметного прогресса не смотря на долгое ожидание.
>>654336
> cpu only 2x2666v3 генерируют токены быстрее, чем cpu+gpu
Перегрузил врам и она новым драйвером выгружается, или какая-то другая не менее дикая причина.
Аноним 28/02/24 Срд 18:33:24 654355 472
>>654336
Врать не буду не проверял, но читал тоже кто то на реддите писал мол на 2 процах и 8 каналах скорости стали хорошие. Может наконец допилили работу на 2 процессорных системах, хз.
Аноним 28/02/24 Срд 18:36:51 654358 473
>>654350
>Новые базы кроме китайцев в большом размере всё равно никто не пилит, выкидывают в попенсорс всякие высеры 0,0002B.
Я вот слышал (но без подробностей) про такую штуку, как MergeKit, которая позволяет свои миксы пилить. Интересно, это можно делать на домашнем оборудовании или нужно парочку A100 арендовывать?
Аноним 28/02/24 Срд 18:39:07 654360 474
>>654358
Работает на домашних ПК, по большей части расходует оперативу и утилизирует SSD. Делал мержи, получается хорошо.
Аноним 28/02/24 Срд 18:44:06 654362 475
>>654358
Мержи это мержи, это не база и ничего особо нового модель не получит.
Аноним 28/02/24 Срд 18:59:28 654370 476
>>654348
ddr3 1866 64gb - 8x8gb

>>654350
>Ты делаешь что-то не так.
вполне возможно, с этим миллиардом бекендов и настроек ебанешься)
Аноним 28/02/24 Срд 19:02:51 654372 477
1709136088600.jpg 691Кб, 1080x1934
1080x1934
Аноним 28/02/24 Срд 19:25:49 654376 478
>>654370
>вполне возможно,
Ну так кидай скрины с настройками, логами загрузки модели в консоли и прочими диспетчерами задач.
>>654372
>These guardrails have made Llama 2 appear too "safe"
>Из-за этих ограждений «Лама 2» выглядит слишком «безопасной».
Лолват? Она ж дырявая как решето. Или они только про чат модель? Конечно было бы шикарно, если бы они влили ещё меньше сои.
А так DPO прекрасно всё снимает, как я вижу, лишь бы в базовом наборе были нужные знания (а не как у гугла, который отфильтровал всё нахуй).
Аноним 28/02/24 Срд 19:29:33 654379 479
>>654376
Речь о чат версии. Которая, кстати, в итоге пошла в основу некоторых файнтюнах и отучили от той дичи.
Это все равно ничего не значит и могут сыграть как в сторону продолжения того что было, наоборот сделать ее дохуя откровенной с варнингами и безопасной чат версией, или соефицировать.
Аноним 28/02/24 Срд 19:29:38 654380 480
>>654370
Вообще не ответил.

Повторю вопрос.
Какая память? (сколько каналов, какая пропускная способность на чтение)
Какая скорость? (токенов в секунду, название или размер модели)

———

Короче, качнул я тут давеча Гемму ету.
Ну шо? По простым темам говорит на русском прекрасно. По РП — начинает булькать как альтернативно одаренная.
Видимо датасет там чистили вилкой просто, це пиздец.
Для каких-нибудь ботов саппорта вариант, наверное, хороший.
Но для рп или просто болталки — боюсь, полный мусор, конечно.
Аноним 28/02/24 Срд 19:32:59 654382 481
>>654376
там кста новые DPO-образные методы появились, которые по заявлениям намного лучше чем оригинальный DPO отсюда https://arxiv.org/abs/2305.18290
но даже это не имеет значения если васяны стреляют себе в хуй делают всё по классике (i.e. пихают дпо-шный датасет в кучу к классическим) тогда сама суть dpo теряется или вообще отсутствует, так кстати сделал один известный у западных в /lmg/ васян - "Undi", его протык "Ikari" и прочие, undi тупо взял dpo датасет и закинул его в свою солянку а потом искренне удивлялся почему это аноны недовольны результатом файнтюна (вообще не заметили разницы).
Аноним 28/02/24 Срд 19:56:13 654391 482
>>651145
расскажи, как поставил драйвера на обе карты?
Аноним 28/02/24 Срд 20:02:39 654393 483
>>654382
>тупо взял dpo датасет и закинул его в свою солянку
Да могут они быть настолько тупыми. Настолько тупые не могут найти ресурсы на файнтюн. Рецепты же разные для DPO и обучения.
Аноним 28/02/24 Срд 21:06:22 654465 484
Поясните по гемме знающие, слоев мало, следящих голов тоже, где же скрыты все параметры? Навалили больше ffn в слой?
Аноним 28/02/24 Срд 21:06:51 654466 485
>>654379
>Речь о чат версии.
Ну тогда похую, лишь бы была обычная версия без чата.
>>654382
>undi тупо взял dpo датасет и закинул его в свою солянку
И никто ему не сказал, что он мудак? Как теперь жить какать узнать, трейнили ли нормально с DPO или же в унди стайле. А я ведь помню, как унди обосрался с мержами разницы мистраля и лламы, которые на деле вообще нихуя не делали.
Аноним 28/02/24 Срд 21:08:50 654470 486
>>654382
> васян - "Undi", его протык "Ikari"
> взял dpo датасет и закинул его в свою солянку
Что? Они тренили? Унди тренил?! Ахуеть, вот это поврот, так действительно можно поверить что ллама3 может быть хорошо анцензнута.
Аноним 28/02/24 Срд 21:17:18 654486 487
1.png 123Кб, 535x945
535x945
>>654465
Там дохуя параметров, она 8.54b на самом деле, а не 7b.
Аноним 28/02/24 Срд 21:17:59 654489 488
>>654133
Что ты сказать то хочешь? Где логика? Если слова человека влияют на бабло то что? Типа человек честным будет? А может наоборот он будет говорить то что нужно для маркетинга, и никогда не выскажет своего мнения?
>>654045
>Пенроуз
Слышал от другого именитого чувака, что Пенроуз конечно талантлив но он вбрасывает кучи идей, не стесняется мечтать в общем, если гипотез очень много что то до подтвердится, это далеко не значит что каждая гипотеза Пенроуза верная.
Аноним 28/02/24 Срд 21:43:46 654511 489
firefoxaUMLTfQf[...].png 91Кб, 1070x619
1070x619
>>654466
ему там анон в треде указывал типо надо идти по инструкции и юзать офф. код к DPO, undi тогда сказал что просто конвертирует датасет и всё, пиздец, и у таких есть рэки с 3090 и выше за ~50k $$$
Аноним 28/02/24 Срд 21:50:31 654513 490
>>654511
> и у таких есть рэки с 3090 и выше за ~50k $$$
Рили? Не так давно ныл и в перерывах между релизами шизомерджей на обычную 3090 донаты клянчил.
А вообще по уровню треша больше напоминает анекдот про зеков и малолетку.
Аноним 28/02/24 Срд 21:58:23 654521 491
>>654513
а вот не уверен, может и нет, но суть то в том что имея такие ёба машины для тренировки они делают всякую хуйню, или вообще арендуют облачные гпу которым верить нельзя.
там ещё на заре первых тредов /lmg/ был казус с кодом тренировки "FastGPT", двух словах - аноны обнаружили что эта хуйня на стадии dataset ingestion пихала заготовленные отказы куда надо, эффективно делая модель соевой, ну и собсна ещё в те времена первой лламы, большинство юзало именно fastGPT для тюна моделей.
Аноним 28/02/24 Срд 22:07:44 654526 492
>>654521
> суть то в том что имея такие ёба машины для тренировки
Какие машины? На 3090 можешь только хуй пососать нищенскую qlora для мелочи натренить.
> облачные гпу которым верить нельзя
Неправильно посчитают?
> с кодом тренировки "FastGPT", двух словах - аноны обнаружили что эта хуйня на стадии dataset ingestion пихала заготовленные отказы куда надо
Ого, а есть линк? Для оценки "куда надо" нужно разработать какой-то серьезный алгоритм детекции, или использовать нейронку для оценки окраса текста, это сразу будет заметно. Максимум можно предположить только опцию для автоматического добавления алайнмент кусков.
Аноним 28/02/24 Срд 22:07:51 654527 493
>>654466
>И никто ему не сказал, что он мудак?
Он сделал много попыток и у него получилось несколько удачных моделей, которые хотя бы могут донести ложку до рта, так сказать. Большое достижение, если сравнивать с другими авторами.
Аноним 28/02/24 Срд 22:23:17 654540 494
Neurons under m[...].mp4 1966Кб, 614x480, 00:00:15
614x480
Migrating neuro[...].mp4 3090Кб, 500x480, 00:00:33
500x480
Посмотрите на прилагаемые видео. Вы можете наблюдать как нейрон ползает туда сюда в поиске других нейронов, его отростки тянутся к другим нейронам, они постоянно в поиске других отростков, они постоянно формируют новые связи и строят масштабные сетевые и гиперсетевые структуры, в то время как искусственные нейроны структура негибкая, они не строят новые связи в реальном времени, они просто статично стоят на месте и обучены делать только то на что их обучали, а потом все удивляются, почему же нейросетки такие тупые, почему в них нет сознания? Нужна новая архитектура нейронок, такая которая будет сама создавать новые нейроны и устанавливать все параметры, а над ней будет миллиард слоёв других нейронок, в каждом слое каждая нейронка отвечает за что-то своё, мозг не зря разделён между собой на зоны. Таким образом удастся создать нечто похожее на постоянный процесс напоминающий реальную жизнь, таким образом удастся задать какую-то мотивацию для "клеток". И во всём этом хаосе у нейронки появятся слои абстракции с возможностью к восприятию, целеполаганию, самоанализу и решению задач в реальном времени.
Аноним 28/02/24 Срд 22:33:43 654548 495
>>654540
>новые связи в реальном времени
Во втором видео 18 часов прошло.
Аноним 28/02/24 Срд 22:33:44 654549 496
>>654540
Короче смотрите вот птичка летает и крылями двигает. Так что самолет если крыльями не машет не летает.

Твое движение в рамках программы это просто изменение веса. Поставил вес в положительное число, связь образовалась. В отрицательное разорвалась.
Аноним 28/02/24 Срд 22:48:16 654554 497
>>654511
Сука, это просто инстант проигрыш. Копрорации уже CoT запилили и не факт, что обычным DPO это можно пробить, а он хочет пробить обычным размыванием весов и говорит, что "анцензорит" модель.
Аноним 28/02/24 Срд 23:13:04 654570 498
>>654540
>Нужна новая архитектура нейронок
если это увеличит шанс постранения цифро-гул4га то нахуй такие архитектуры
в любом случае думаешь 1 такой умный?
Аноним 28/02/24 Срд 23:17:02 654579 499
>>654549
Связи не образуются у искусственных нейронок сами, они живут только краткий миг в момент генерации текста. Нужно чтобы они постоянно самообучались и сами строили связи в реальном времени
Аноним 28/02/24 Срд 23:18:10 654582 500
Аноним 28/02/24 Срд 23:19:29 654583 501
>>654540
Да. Но это тема других топиков.
Аноним 28/02/24 Срд 23:19:58 654584 502
Аноним 28/02/24 Срд 23:23:19 654588 503
Аноним 28/02/24 Срд 23:27:40 654590 504
>>654582
мне б реальных нормальных
Аноним 28/02/24 Срд 23:32:54 654596 505
>>654590
На ноль делишь. Либо нормальные виртуальные, либо хуёвые реальные. Третьего не дано.
Аноним 08/03/24 Птн 17:33:29 664736 506
>>654596
Нормальные лучше. Виртуальные соей пропитаны. увы
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов