Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 512 58 52
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №21 /llama/ Аноним 13/10/23 Птн 15:04:14 517753 1
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.
На данный момент развитие идёт в сторону увеличения контекста методом NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.
Так же террористы выпустили LLaMA 2, которая по тестам ебёт все файнтюны прошлой лламы и местами СhatGPT. Ждём выкладывания LLaMA 2 в размере 30B, которую мордолицые зажали.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в случае Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас в полгига-гиг.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/Mistral-7B-OpenOrca-GGUF/blob/main/mistral-7b-openorca.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах, есть поддержка видеокарт, но сделана не идеально, зато самый простой в запуске, инструкция по работе с ним выше.
https://github.com/oobabooga/text-generation-webui/blob/main/docs/LLaMA-model.md ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ. Самую большую скорость даёт ExLlama, на 7B можно получить литерали 100+ токенов в секунду. Вторая версия ExLlama ещё быстрее.

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
https://rentry.co/ayumi_erp_rating Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного

Факультатив:
https://rentry.co/Jarted Почитать, как трансгендеры пидарасы пытаются пиздить код белых господинов, но обсираются и получают заслуженную порцию мочи

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>514196 (OP)
>>509370 (OP)
Аноним 13/10/23 Птн 15:13:08 517763 2
>>517738 →
Я тебе напиздел. Раз у тебя не нвидима тебе только опенкл остается, а это будет вот тут например llama-b1380-bin-win-clblast-x64.zip
Хотя честно сказать не ебу как там щас все сделано, может быть любой вариант релиза подойдет для того что бы оффлоадить на видимокарту. Скачай разные версии и потыкай.
Это например llama-b1380-bin-win-avx2-x64.zip
Но там наверное только на процессоре.
https://github.com/ggerganov/llama.cpp/releases/tag/b1380

Или сам собери под свою систему из исходников, там есть гайд.
Аноним 13/10/23 Птн 16:07:26 517822 3
>>517724 →
А пруфики будут? У меня и Q3 неплохо шпарит. Вообще где статистика и показана разница в этой статистике. У меня 20b тянет на 3060, А генерация вместо 200 сек занимает около 50 в среднем(3060 че поделать, но тут уже роляет скорость). Суть то непонятна в чем будут различия ответов. Как мне лично еще непонятно, если я например выгружаю 55 слоев из 65 это значит 10 слоев это часть потерянного чего, датасета?
Аноним 13/10/23 Птн 16:18:46 517833 4
>>517822
>10 слоев это часть потерянного чего, датасета?
10 слоев нейросети остаются на кручение процессору в оперативке
Аноним 13/10/23 Птн 16:24:05 517842 5
>>517833
А что случается в таком случае если я выгружаю больше слоев чем надо в видеокарту? Я думал только тогда выгружаться начинает в оперативку.
Аноним 13/10/23 Птн 16:26:35 517845 6
>>517842
Видеокарта не может работать с оперативкой напрямую. С оставшимеся слоями работает процессор
Аноним 13/10/23 Птн 16:26:38 517846 7
>>517842
Если слоев болье чем влезает в видеопамять- видеокарта будет резервировать часть оперативки и постоянно подгружать выгружать из себя невлезающие слои каждый цикл генерации. Это сильно замедлит генерацию
Аноним 13/10/23 Птн 16:29:56 517855 8
>>517845
Тут хз о какой проге он спрашивает, и там даже от драйверов будет зависеть будет ли загружаться больше чем есть оставаясь болтаться в оперативке или останется на процессоре.
Аноним 13/10/23 Птн 16:32:21 517861 9
>>517855
>или останется на процессоре
Или вызовет OOM ты хотел сказать?
Аноним 13/10/23 Птн 16:35:33 517865 10
>>517861
Скорее будет ли программа принудительно подгружать слои на видеокарту или оставит все что не влезло на обработку процессору
Аноним 13/10/23 Птн 16:37:07 517866 11
>>517865
Программы не такие умные, лол.
Аноним 13/10/23 Птн 16:39:40 517870 12
>>517865
Тебе надо ручками выставить n-gpu-layers до предела пока крашиться не будет. С запасом каким-то. Полюс не забудь n_ctx разумным сделать, около 2048
Аноним 13/10/23 Птн 16:54:58 517915 13
>>517866
>Программы не такие умные, лол.
Почему кстати? Скрипт то простой - загружай меняя параметры пока не выберешь лучшую скорость.
Аноним 13/10/23 Птн 17:01:26 517934 14
>>517753 (OP)
Ссылку на колаб так и не добавили, видимо придётся отдельный тред пилить...
Аноним 13/10/23 Птн 17:03:29 517941 15
>>517915
>Почему кстати?
>>517934
>Ссылку на колаб так и не добавили

Потому что всем похуй ©
Аноним 13/10/23 Птн 17:05:12 517946 16
1697205911449.png 4Кб, 743x28
743x28
>>517752 →
Попробовал с q4, 4к контекста. Прирост производительности в невероятные 0.1-0.3 токена в секунду. Дело, короче, явно не в том что памяти мало и модель большая, железо просто не хочет работать по какой-то причине. Даже не знаю как гуглу эту проблему сформулировать, лол.
Аноним 13/10/23 Птн 17:07:14 517950 17
>>517946
> Даже не знаю как гуглу эту проблему сформулировать, лол.
Пиши "квалифицированная помощь при умственной отсталости".
Аноним 13/10/23 Птн 17:11:25 517962 18
>>517946
без видеокарты попробуй, тупо на процессоре
Аноним 13/10/23 Птн 17:15:35 517979 19
изображение.png 7Кб, 1174x81
1174x81
>>517946
У меня на 70B чуть ли не быстрее.
Аноним 13/10/23 Птн 17:22:01 517999 20
1697206920856.png 3Кб, 728x16
728x16
>>517962
Сравнимо с худшим результатом при использовании видеокарты с q6+8к контекста.
Аноним 13/10/23 Птн 17:25:28 518004 21
>>517999
Хммм, количество потоков не то? Поставь на 1 меньше чем реальных ядер. Ну и выруби все что оперативку грузит. Если и это не сработает то хз. avx2 инструкции не поддерживаются что ли
Аноним 13/10/23 Птн 17:30:05 518012 22
>>517700 →
> Ну, ты же не думаешь что они будут всем рассказывать что они делают, особенно если это перспективная тема.
Не думаю.
Я и сам не рассказываю, по этой же причине. =D
Просто таких новостей не поступало, поэтому свой энтузиазм я сдерживаю, чтобы не было обманутых ожиданий.
А о фотонике буквально недавно новость проскальзывала — тут можно чего-то ждать, да.

>>517717 →
> Конечно, ai захватили капиталисты.
И продали их коммунистам. =D

>>517727 →
Для нейронок проц ваще менять не надо. Там частоты памяти хватает на 4-5 потоков.
Просто, если обновлять, то на АМ4 есть 3900 и 5800х3д.
Если для нейронок — то и обновлять не надо, память ты быстрее не заведешь, один фиг.

>>517752 →
> Нейросеть, имитирующая анонов совсем испортилась, даже предыдущий пост в контесте не держит.
+

> у меня на древнем рузене 1-го поколения на более жирном кванте 13b q8_0 было 1.2 т/с, и занимало далеко не 32 ГБ

Проверял седня 13б Q6 на 5500 рузене с 3200 в двухканале — 2-3 токена.
Явно не ноль запятая с чем-то.
Да еще и видяха-то.

>>517846
Да.
Свопается из видяха на озу — не хорошо, лучше подобрать соотношение слоев правильное.

>>517855
Убабуга, вроде, не?
llama.cpp, подозреваю.

>>517934
ТС протупил, соглы.

>>517946
Сочувствую.
Аноним 13/10/23 Птн 17:41:25 518036 23
>>517999
3 токена в секунду, просто в начале долго считывает промпт. Смотри на Generation 358ms на токен это 3 токена в 1 секунду примерно
Аноним 13/10/23 Птн 18:02:30 518064 24
>>518004
> Хммм, количество потоков не то? Поставь на 1 меньше чем реальных ядер.
Так и стоит.
>>518012
> Свопается из видяха на озу — не хорошо, лучше подобрать соотношение слоев правильное.
У меня сетка и контекст в видимопамять грузятся с запасом, но тем не менее 16 гб оперативы тоже зачем-то загружаются.
>>518036
> 3 токена в секунду, просто в начале долго считывает промпт.
Оно ж всегда так делает, так что это реальная средняя скорость появления каждого токена в ответе.
Аноним 13/10/23 Птн 18:05:17 518071 25
>>517941
>Потому что всем похуй
Буржуй, спок.
Аноним 13/10/23 Птн 18:08:39 518075 26
>>518064
>Оно ж всегда так делает, так что это реальная средняя скорость появления каждого токена в ответе.

только первого где обычно самый жирный промпт
Аноним 13/10/23 Птн 18:31:02 518100 27
>>518075
А у меня при генерации каждого ответа... ЧЯДНТ?
Аноним 13/10/23 Птн 18:34:15 518106 28
>>517638 →
>Не шедевр шишковзрывающий, но довольно неплохо и органично, возможно в общем контексте будет хорошо, попробуем.
Она пишет хуже чем mlewd chat, но лучше большинства 70b. Плюс, тут шишку поднимает скорее не стиль, а факт того что она почти не тупит.
>70, серьезно? Бывшая больше часа видюху нагружая оценку проводит, а 15 где-то уже на саму перегонку и проверку.
Это для exl2, для gguf видеокарта не нужна. Из bin в q16 перегоняется парой потоков на процессор и зависит целиком от скорости диска. У меня заняло где-то 2 минуты. Для квантования нужна скорость процессора плюс диска. Заняло 4 минуты. И того 6 минут для конвертации и квантования 70b в Q4_K_M на 13900k/990 pro. Даже на слабом железе должно хватить 20-30 минут, главное чтобы весь процесс происходил на ссд.
>70 в теории даже на 16гб врам перегонится. Какой-то нагрузки на диск тоже не замечено, может на харде уже будет существенно.
Турбодерп вроде писал что 24 нужно. Но я не возился с exl2 уже давно, так что может он уже улучшил алгоритм.
Аноним 13/10/23 Птн 18:35:52 518112 29
>>518100
А ты где запускаешь то? запускай в кобальде, просто скачай ехе и запускай его кликом на него. Настраивай и сиди через браузер.
Аноним 13/10/23 Птн 18:40:38 518124 30
>>518112
> А ты где запускаешь то? запускай в кобальде, просто скачай ехе и запускай его кликом на него.
Так и делаю, да.
Аноним 13/10/23 Птн 18:54:41 518140 31
У меня в таверне, при генерации в угабоге все свайпы одинаковые, хотя сид пишет разный, проверил Свина на хорде - то же самое. ЧЯДНТ?!!
Аноним 13/10/23 Птн 18:58:43 518148 32
>>518140
>Свина
У него такая болезнь, да, на заполненном контексте.
Аноним 13/10/23 Птн 19:38:13 518204 33
>>518140
У меня такое на любой GPTQ-модели наблюдалось
Аноним 13/10/23 Птн 20:27:08 518266 34
collectivecognition-v1.1-mistral-7b.Q8_0 хорош, чуть меньше сои и алайнмент ближе к нейтрали, но не до конца конечно. По крайней мере в моем недолгом тесте, хрен знает как себя поведет дальше.
Аноним 13/10/23 Птн 21:52:42 518376 35
>>517562 →
Ну наконец-то конструктивная критика, спасибо.

>Появятся новые форматы моделей, новые движки.
Это проблема сервера, потому что я предоставляю только фронт.

>Лламу мне запускать отдельно?
Можно ее докинуть в архив и сделать запуск из интерфейса, но мне из командной строки удобнее.

>есть кобольд.цпп размером 20 мб.
Но он на питоне, я такое не хочу запускать.

>А зачем мне что-то еще качать, я хочу все одним файлом.
Сервер можно интегрировать, будет один файл.

>У тебя есть базовые настройки?
Сегодня запилил. Промпты есть, про ворлд инфо и все остальное даже не слышал, но если они просто встраиваются в текст, то проблем не будет. Интеграции надо тоже с компилируемыми сервисами делать, но я ими все равно не пользуюсь, так что не в приоритете, хотя идея интересная. И они на процессоре что ли обсчитываются, если загружаешь большую модель? Суммаризацию хочу сделать.

>плагины на телеграм, вк, дискорд
Фе, централизованные сервисы. Для чего они?

>характер персонажей
Карточки же, или ты про что-то другое?

>смена заднего фона
Рюши, я не фанат таких штук. Визуальная новелла интересна, отрисовка картинок на основе текста?

>Чем твой вариант лучше Кобольда?
Компилируемостью же, лол.

>Ты же понимаешь, что покажешь ее года через полтора?
Не факт, сейчас для себя только пару проектов пилю и новых пока не предвидится, время будет, и интересно Qt попробовать. Уже есть несколько мыслей по улучшению интерфейса.

>>517426 →
Смотри на kv self size тоже, он целиком в видеопамять выгружается независимо от количества слоев.
Аноним 13/10/23 Птн 23:36:23 518478 36
>>517706 →
> че вы про сою ноете
Забей, 2.5 братишки так развлекаются, важен сам процесс и обсуждение догадок а не результат.
>>517711 →
> 29-31 занимаются во время генерации.
Это значит переполняется, через что запускаешь?
>>517946
Вангую врам свопается в рам, а рам переполняется и свопается на диск из-за чего такая дичь. Ищи способы снизить потребление и освободить рам от фоновых процессов для начала. 32гб должно быть с запасом на 13б, на 64 уже 70б пускают.
Аноним 13/10/23 Птн 23:43:35 518481 37
>>518106
> но лучше большинства 70b
Нууу, до той же синтии что сойбои не взлюбили далеко примеров не будет, там мои фетиши, как она реагирует на поглаживание хвоста скидывал в прошлом >>513608 →, или xwin может выдавать не супер описательные но довольно креативные вещи. Или спайсоборос. С другой стороны, если те диалоги в контексте и соответствуют образу то весьма заебись, и явно не заметен какой-то типичный приевшийся стиль. Попробую - отпишу.
> в q16
Оно таки поддерживается? Но здесь нет никакого квантования, это просто перегонка формата. А при ужатии оно уже проводит оценку и неравномерно распределяет доступную битность на разные участки в зависимости от их важности.
> 6 минут для конвертации и квантования 70b в Q4_K_M на 13900k/990 pro
Или какая-то магия, или там идет ужатие без разбора.
> что 24 нужно
Выше 16 потребление не замечено.
Аноним 14/10/23 Суб 00:02:14 518498 38
Кто-нибудь делал полиаморную вайфу, которая является твоей девушкой, то есть у нее нет морального запрета на сексуальные отношения, но при этом она и не прочь обсудить кого-то другого в сексуальном плане? Я думаю попробую такую создать
Аноним 14/10/23 Суб 00:07:57 518503 39
>>518481
>Нууу, до той же синтии что сойбои не взлюбили далеко
От карточки зависит, наверное. В том примере описание персонажа занимает всего 230 токенов, без примеров речи. Ну и сюжет был про американских подростков, так что по-моему норм.
>Оно таки поддерживается?
Это просто перегонка формата.
> А при ужатии оно уже проводит оценку и неравномерно распределяет доступную битность на разные участки в зависимости от их важности.
>Или какая-то магия, или там идет ужатие без разбора.
Анон, ты путаешь exl2 с gguf. Первый формат действительно тестирует важность, отсюда и такая низкая скорость конвертирование. Второй - просто конвертирует fp16 в фиксированное количество бит. Отсюда и такая высокая скорость.
Аноним 14/10/23 Суб 01:33:01 518558 40
>>517763
На линуксах opencl уже устарел, сейчас в моде rocm - это такой компилятора cuda в дровах amd
Поддержка в проекты для nvidia добавляется практически сама собой: обновить библиотеки, такие как pytorch например, и драйвер, доустановить в систему компоненты rocm и hip драйвера
По скорости оно получается как cuda, amd карточки по тестам ребят в issues идут ноздря в ноздрю с nvidia. А вот по сравнению с opencl ускорение примерно двукратное: opencl-код по какой-то причине оказывается медленнее, чем cuda
Вариант билда нейродвижка может называться rocm или hipblas, от HIP - язык для высокопроизводительных вычислений
Флаги компиляции также по этим двум сокращениям можно найти в readme
Что приятно, эта штука из коробки поддерживает multigpu, есть смысл попробовать собрать ферму

У меня например rocm уже автоматом используется в llama.cpp и в stable diffusion. А ребята этим уже несколько месяцев пользуются, судя по issues в проектах, в которых тестами скорости обмениваются
Странно что всякие кобольды и угабуги до сих пор не обновились до библиотек с поддержкой rocm. Приходится использовать встроенный в llama.cpp веб-интерфейс
Аноним 14/10/23 Суб 01:41:12 518562 41
>>518558
>Странно что всякие кобольды и угабуги до сих пор не обновились до библиотек с поддержкой rocm.
Амудя не нужна.
Поздравляю кстати с поддержкой того, что на видеокартах работает уже полгода/год.
Аноним 14/10/23 Суб 01:57:54 518569 42
>>518558
> идут ноздря в ноздрю с nvidia
Это же революция, особенно если более менее работает а не рвется по кд, уже бы хайп развели.
> llama.cpp и в stable diffusion
Сколько токенов и итераций в секунду? Офк с указанием модели, карточки и т.д.
Аноним 14/10/23 Суб 02:07:58 518573 43
>>518569
Вот например таблички с результатами для 7900xtx и 6850M
https://github.com/ggerganov/llama.cpp/pull/2910#issuecomment-1711240949
https://github.com/ggerganov/llama.cpp/pull/2910#issuecomment-1714009946
Также где-то были тесты для Nvidia 4700ti, там порядка 50 токенов в секунду скорость на 13b фигурировала
Все это уже несколько месяцев работает
Кому нужно - пользуются
Аноним 14/10/23 Суб 02:23:35 518577 44
>>518573
>Все это уже несколько месяцев работает
Но тесты появились только на этой неделе. Верим, верим.
Аноним 14/10/23 Суб 02:26:06 518581 45
>>518558
О заебись, спасибо за инфу. У меня конечно нвидима, но приятно знать что есть альтернативы и для амуде.
Аноним 14/10/23 Суб 02:31:51 518584 46
Аноним 14/10/23 Суб 02:34:21 518587 47
>>518573
А вот stable diffusion
If you are not already committed to using a particular implementation of Stablie Diffusion, both NVIDIA and AMD offer great performance at the top-end, with the NVIDIA GeForce RTX 4090 and the AMD Radeon RX 7900 XTX both giving around 21 it/s in their preferred implementation. Currently, this means that AMD has a slight price-to-performance advantage with the RX 7900 XTX, but as developers often favor NVIDIA GPUs, this could easily change in the future. AMD has been doing a lot of work to increase GPU support in the AI space, but they haven’t yet matched NVIDIA.
https://www.pugetsystems.com/labs/articles/stable-diffusion-performance-nvidia-geforce-vs-amd-radeon/
Аноним 14/10/23 Суб 02:51:58 518594 48
>>518577
По датам сентябрь минимум
Может и более ранние тесты есть, это просто первое что в поиске попалось
Но я это всего пару недель использую, до этого на opencl сидел
Оно реально работает, и работает хорошо
Сложность только на этапе настройки: многие в глаза ебутся и упускают то, что им пишет софт, открытым текстом: установи rocm-либу, установи hip-пак
Тонкость в том, что во всех гайдах по amd-дровам, при установке дров не выбирают компоненты rocm и hip, потому что гайды пишут под игры, а вся эта шняга в играх не нужна. Это специализированные, в основном серверные, технологии, для игр это просто лишний балласт на диске. И многие аноны из-за этого тупят на ровном месте: дрова по гайдам поставили, игры летают, вроде все норм, почитали в сети что дрова и их видюха вроде как поддерживают rocm, но софт у них упорно не хочет работать, говорит что rocm и/или hip не обнаружено, wtf? А получается что все тут закономерно: чтобы rocm и hip заработали, их сперва нужно установить, лол. И исправляется это буквально двумя галочками: просто повторно устанавливаем дрова, только на этот раз дополнительно прожимаем опции rocm и hip, эти компоненты доустанавливаются в систему, и все начинает работать, как и ожидалось. До смешного просто.
Аноним 14/10/23 Суб 02:51:59 518595 49
>>518573
Не ну в целом неплохо, а почему никто не юзает и все страдают, хвастаясь 3т/с?
>>518587
> RTX 4090
> both giving around 21 it/s
Хех, для амд это ебать какой результат конечно, но зачем врать? 33+ в одном потоке, под полтос при нескольких. С хуйтой вместо процессора в одном потоке действительно может быть 20, несколько не меняется. Интересно, это трипак говна залил, или все ради
> has a slight price-to-performance advantage with the RX 7900 XTX
даже так амд хуже по прафс/перфомансу. И забыли упомянуть что это в мертворожденном лаунчере без функционала, а так еще в 5 раз меньше (на самом деле там не так плохо). Сравнивали бы тогда со скомпилированной моделью, там перфоманс космос но функций и гибкости тоже нет. Учитывая
> this could easily change in the future
какое-то странное чтиво для свидомых фанатов
Аноним 14/10/23 Суб 02:53:35 518596 50
>>518594
> дрова по гайдам
Как перестать орать?
Аноним 14/10/23 Суб 03:03:56 518602 51
>>518595
Ну тут хз
Лично я использую, цифры с этими тестами примерно сходятся
Для сравнения есть машина с 3070, amd работала заметно медленнее нее, теперь примерно на уровне
llama.cpp понятно летает, там скорости полные
А вот stable diffusion работает хоть и намного быстрее, чем раньше, но все равно не очень комфортно. Может действительно shark попробовать, а может просто из-за объема данных. Сами картинки быстро генерятся, а вот например растянуть 2к в 4 раза в самом тяжелом алгоритме - это нужно несколько минут ждать: там так понимаю сначала картинка семплируется довольно большой нейроночкой, потом она ее рисует с нуля по этим семплам, поэтому работы там много, зато и результат впечатляет
Аноним 14/10/23 Суб 03:10:14 518614 52
>>518596
Никак. Я вот гейфорс экспириенс не ставлю, благо я достаточно умён, чтобы до этого самому догадаться. А другим пришлось бы гайды читать, лол.
Аноним 14/10/23 Суб 03:11:58 518616 53
>>518584
>[This comment will not be visible to other users until the moderation team checks it for spam or norm violations.]
Ебать у них там анальные ограничения. Вангую, нихуя мой коммент не опубликуют. А ведь я даже старался не поливать их говном.
Аноним 14/10/23 Суб 03:36:45 518633 54
>>518596
Это ты инсталлер этих дров не видел
Он тебе выдает древовидный список опций, и сиди думай что для чего
По описаниям не особо понятно что выбирать, а огромное количество подопций только сильнее путает
Вот и идут люди смотреть как в гайдах это делают, что выбирают в опциях, какие из опций точно потребуются, а какие можно опустить

Ставить все, как на винде, не вариант
Например кастомные ядра начнут грязно ругаться, если установить dkms-часть драйвера, а на родном ядре сидеть такое себе: туда все самое интересное только через полгода прилетает, долго ждать
У меня например каждую неделю новое ядро прилетает, и каждые 2 дня - обновления графического стека. За несколько лет был только один случай, когда пару дней пришлось посидеть на предыдущем ядре, пока фиксили новое, благо система из коробки автоматически хранит штуки три-четыре прошлых ядра, чтобы можно было по выбору загружаться в нужное
Многие также не ставят 32 битные либы, на линуксах такой софт уже трудно встретить в быту, все родное давно 64 битное, а неродное транслируется в 64 бита
Ну а серверные либы поставить - это нужно понимать что это и зачем. Обычному пользователю их использовать просто негде, пока с нейронками не столкнется. Только тогда уже приходит понимание что штука нужная, надо ставить
Аноним 14/10/23 Суб 06:14:44 518679 55
image.png 60Кб, 218x217
218x217
4096 контекста - это нормально! Главное не размер, а как использовать!
Аноним 14/10/23 Суб 10:45:38 518744 56
Аноним 14/10/23 Суб 11:35:41 518761 57
Скажите а не дешевле просто снять облако с посекундной тарификацией, чем покупать видюхи?
Просто снять A100 и не в чем себе не отказывать.
Аноним 14/10/23 Суб 11:54:49 518769 58
>>518761
Оплати из России, давай
Аноним 14/10/23 Суб 11:55:42 518770 59
Какая сейчас лучшая 70Б карточка?
Аноним 14/10/23 Суб 12:01:17 518774 60
>>518616
>Ебать у них там анальные ограничения. Вангую, нихуя мой коммент не опубликуют. А ведь я даже старался не поливать их говном.
Конечно этож западная площадка, все дрессированые уже
Аноним 14/10/23 Суб 12:45:48 518815 61
>>518769
Есть облака с оплатой криптой, это не проблема да и карта у меня есть западная.
Аноним 14/10/23 Суб 12:53:13 518827 62
Подскажите самые галлюцинирующие сети при этом умные в понимании языка. MMLU нахуй не нужон. Мне нравятся галюцинации мне кажется есть некая ламповость у таких моделей. Но что самое лучше из таких вот несовершенных сетей neox, pythia, bloom, OPT, llama, glm130b? Опять же размер и MMLU побоку, главное чтоб трусы не снимала по 3 раза.
Аноним 14/10/23 Суб 13:02:09 518845 63
>>517506 →
Откуда взять quantize? Судя по всему он должен сам собраться что ли? На гите лламы он тоже упоминается, но его нет среди исходников
Аноним 14/10/23 Суб 13:12:16 518860 64
>>518602
> 2к в 4 раза в самом тяжелом алгоритме - это нужно несколько минут ждать
Интересно, хороший апскейл до 8к может и больше десятка минут занять, а тут на какой-то амд несколько минут.
> картинка семплируется довольно большой нейроночкой, потом она ее рисует с нуля по этим семплам, поэтому работы там много
Напиши своими словами без терминов, херь какая-то.
>>518633
Жестоко. Но для такого хватит 3.5 галочки, остальное для поехов что беспокоятся о лишних 10 мегабайт на диске.
>>518761
В случае А100 для какой-то одной задачи офк дешевле.
Аноним 14/10/23 Суб 13:30:35 518872 65
Подскажите какой гайд сейчас актуальный? Можно и на англ.
Хочу генерить диалог с персонажем.
Есть 10гб врам и 32 гб оперативы. Не знаю что будет быстрее.
Генерить хочу полностью локально без интернета.
Пиздец уже даже форч весь перерыл нихера не понимаю. С картинками было как-то попроще.
Аноним 14/10/23 Суб 14:08:29 518901 66
>>518872
Форумчанин, прочитай шапку, иначе к вам будет применено ограничение в виде трёх дней RO.
Аноним 14/10/23 Суб 14:14:12 518907 67
Аноним 14/10/23 Суб 14:31:32 518925 68
Я правильно понимаю, что в таверне читаются промты всех персонажей перед ответом, даже если им запрещено писать?
Аноним 14/10/23 Суб 14:39:30 518937 69
>>518872
Не завезли гайдов, только краткие инструкции, в шапке есть.
Нвидия? Ставь https://github.com/oobabooga/text-generation-webui скачивай модель (13б полностью в врам не поместится, твой выбор - gguf формат и выгрузка части слоев), запускай через llamacpp, регулируя n gpu layers следя за потреблением врам. Или кобольда цпп качай, там все в одном файле но отличается функционал.
Начни, потом с вопросами по ходу разберешься.
Аноним 14/10/23 Суб 15:03:34 518982 70
2023-10-1418-02[...].png 35Кб, 1090x148
1090x148
Идеальное непорочное описание.
Аноним 14/10/23 Суб 15:47:38 519024 71
>>518982
Экспериментировал тут с направлением контекста, попробуй.

The {{user}}'s actions are not described or assumed until he himself writes about it. The {{user}} acts only independently.
The story develops in the context set by the {{user}}.

Только врядли с середины заработает. Можешь выкинуть первые 2 инструкции если сетка за тебя не будет писать пытаясь направить историю в своем соевом направлении.
Аноним 14/10/23 Суб 16:04:16 519039 72
Аноним 14/10/23 Суб 16:23:10 519060 73
>>518925
Смотри в консоли, что отсылается.
Аноним 14/10/23 Суб 16:50:59 519099 74
Кто лорбуками пользовался? Как их отвадить абсолютно нерелейтед хуиту в промпт отсылать при каждой генерации?
Аноним 14/10/23 Суб 17:03:00 519116 75
Какая мистраль 7b лучше? Опенорка что из шапки? Хочу на видеокарте (8 гигов) погонять gptq, какой вариант выбрать? Main?
Аноним 14/10/23 Суб 17:31:43 519141 76
>>519116
Мне понравилась Mistral-7B-claude-chat самым низким уровнем сои, а так бери что хочешь, опенорка тоже неплоха.
Аноним 14/10/23 Суб 17:34:28 519142 77
>>519141
>Mistral-7B-claude-chat
Ее нет под GPTQ, только AWQ, но я попробую, спасибо
Аноним 14/10/23 Суб 17:38:24 519144 78
изображение.png 12Кб, 913x63
913x63
>>519142
>Ее нет под GPTQ
А я что тогда использую?
Аноним 14/10/23 Суб 17:42:31 519148 79
>>519144
>А я что тогда использую?
gguf, который на проце гоняет. GPTQ гоняет на гпу онли
Аноним 14/10/23 Суб 17:46:17 519158 80
>>519148
А, точно, я дебил, сорян.
Хотя не понимаю, что тебе мешает выгрузить все слои ггуфа на видяху. Сам так делаю, чтобы не ебаться с AWQ.
Аноним 14/10/23 Суб 17:58:14 519174 81
Какая модель влезет в 64 гб DDR5? Сколько токенов в секунду будет выдавать? Модель процессора и скорость памяти сильно влияет?
Почему нет треда по железу для АИ?
Аноним 14/10/23 Суб 18:16:01 519195 82
>>519174
>Какая модель влезет в 64 гб DDR5?
Хоть 70B.
>Сколько токенов в секунду будет выдавать?
1,5
>Модель процессора
Строго похуй.
>скорость памяти сильно влияет
Да.
>Почему нет треда по железу для АИ?
Был. Закрыли по очевидной причине.
Аноним 14/10/23 Суб 18:28:17 519200 83
>>519195
>1,5
Неиронично неблохо, особенно учитывая что такая модель будет умнее всего, что помещается на 4090.
>Модель процессора
>Строго похуй.
И на количество потоков похуй? Т.е. какой-нибудь i5 12400 будет перформить как i9 13900?
Аноним 14/10/23 Суб 18:31:21 519201 84
>>519200
>особенно учитывая что такая модель будет умнее всего, что помещается на 4090
Так ведь можно совмещать...
>>519200
>И на количество потоков похуй?
5 потоков хватит всем, выяснили уже давно.
>>519200
>i5 12400
>i9 13900
Мы про процессоры, а не про заменители с тухлоядрами, но да, даже i5 12400 будет норм. Или даже лучше в виду отсутствия тухлых потоков.
Аноним 14/10/23 Суб 18:42:19 519212 85
Как заставить мистрал опенорку не писать от моего имени? Чатмл в форматировании включил, все равно от моего имени пишет
Аноним 14/10/23 Суб 18:44:14 519217 86
>>519201
>Так ведь можно совмещать...
Разве общая скорость не будет лимитироваться самым медленным звеном, т.е. CPU? Если ты про размер модели, то наверное проще взять плашки по 48 гб, чтобы догнать суммарный объём до 96 гб DDR5
>Мы про процессоры, а не про заменители с тухлоядрами
Вначале ты говоришь, что на проц похуй, а теперь выясняется что даже одни ядра лучше других. Что-то не клеится. Тем более что мелкоядра отличаются в основном пониженной частотой и отсутствием каких-то инструкций
Аноним 14/10/23 Суб 18:45:46 519220 87
Что-то попробовал mythomax-l2-13b.Q5_K_S, вроде хвалили, но выдает всего пару сухих предложений. Тогда как MLewd-L2-13B-v2-1.q4_K_S выкладывает добрый абзац с сочными эпитетами на одних и тех же персонажах.
Аноним 14/10/23 Суб 18:47:13 519225 88
>>519195
>1,5
Если отгрузить половину слоев в видеокарту и считать без обработки промпта, то как-то совсем мало. У меня получается 300мс на токен , то есть 3.3 токена в секунду при пустом контексте. Оно, конечно, немного замедляется при наполнении, но далеко не до 1.5. Это Q4_K_M - кванты поменьше еще намного быстрее.
>>519201
>5 потоков хватит всем, выяснили уже давно.
>Мы про процессоры, а не про заменители с тухлоядрами, но да, даже i5 12400 будет норм. Или даже лучше в виду отсутствия тухлых потоков.
На интеле надо либо ставить количество потоков равное количеству нормальных ядер, либо отключать недоядра в биосе и ставить количество потоков по максимуму.
Аноним 14/10/23 Суб 19:02:07 519252 89
>>519217
>Разве общая скорость не будет лимитироваться самым медленным звеном, т.е. CPU?
Ну смотри. У тебя полмодели просчитается за 10мс, а вторая за 500мс.
>Если ты про размер модели, то наверное проще взять плашки по 48 гб, чтобы догнать суммарный объём до 96 гб DDR5
64 в принципе хватает на самый разумисткий 5 бит, так что похуй.
>а теперь выясняется что даже одни ядра лучше других
Ну совсем тухлоядра уж рассматривать не стоит.
>>519225
>Если отгрузить половину слоев в видеокарту
В вопросе не было про видеокарты. Хотя я полностью согласен с тем, чтобы комбинировать.
>Это Q4_K_M - кванты поменьше еще намного быстрее.
И намного тупее.
>>519225
>На интеле надо либо ставить количество потоков равное количеству нормальных ядер
Но не больше 5, да. И лучше приоритеты выставить/закрепить процесс на норм ядрах, во избежании.
Аноним 14/10/23 Суб 19:06:31 519254 90
>>519252
> 64 в принципе хватает на самый разумисткий 5 бит, так что похуй.
Стоит покупать 64гб DDR4 на 3200? Сейчас 8гб nvidia и две плашки под 16 гб (в сумме 32). Или DDR4 это насилование трупа в принципе?
Аноним 14/10/23 Суб 19:19:19 519264 91
>>519254
если не замахиваться на 70б то похуй, но там и 32 хватит хоть и в притык, если те же 33б крутить
Аноним 14/10/23 Суб 19:25:02 519273 92
>>519252
>Но не больше 5, да.
Зависит от количества каналов памяти, ну и от псп памяти. Если процессор не силен в однопотоке, то что бы упереться в лимит по памяти может и 6-7 ядер съесть. Или наоборот память быстрая, под 100 гб/с, так же может не прожевать на 5 потоках.

Скорее совет такой - ставить только по количеству физических ядер, а потом убавлять по одному и смотреть где скорость будет самой большой.
Аноним 14/10/23 Суб 19:29:27 519283 93
>>519252
>Но не больше 5, да. И лучше приоритеты выставить/закрепить процесс на норм ядрах, во избежании.
Да нет же, от железа зависит. У меня на 5 потоках 360 мс/токен, на 8 - 300, на 16 - 290 (если отключить недоядра).
Аноним 14/10/23 Суб 19:37:03 519294 94
Когда уже в угабуге сделают нормальную систему обновлений? Сейчас ты либо полностью ее переустанавливаешь либо идёшь нахуй
Аноним 14/10/23 Суб 19:38:24 519295 95
>>519254
>Или DDR4 это насилование трупа в принципе?
Да.
>>519273
>Зависит от количества каналов памяти, ну и от псп памяти.
Да. Но пока ещё никто не предъявил пруфов, что ему нужно было больше 5 потоков.
>>519283
Пруфани, железо там, скорости.
Аноним 14/10/23 Суб 19:38:38 519296 96
Аноним 14/10/23 Суб 19:41:57 519302 97
>>519295
>Да. Но пока ещё никто не предъявил пруфов, что ему нужно было больше 5 потоков.
Пруфы не дам, но сижу на 7 потоках, 4 канала памяти. Первые 4 потока рост в одну долю скорости, еще 2 потока по пол доли скорости, ну а на 7-8 уже капли, а на полных 8 вообще медленнее чем на 7.
Аноним 14/10/23 Суб 19:56:44 519312 98
2.png 177Кб, 1893x467
1893x467
>>519295
>Пруфани, железо там, скорости.
Аноним 14/10/23 Суб 20:08:00 519316 99
>>519312
Просто интересно, проверь будет ли на 15 быстрее чем на 16 ядрах.
Аноним 14/10/23 Суб 20:13:36 519320 100
>>519302
>4 канала памяти
Не DDR5 же.
>>519312
Забавно. Какие ядра грузит? Выставлял режим высокого приоритета?
Аноним 14/10/23 Суб 20:17:16 519324 101
>>519320
>Не DDR5 же.
И чо? Серверный процессор с 4 каналами памяти ддр4, и на 5-6 потоках все еще ощутимый рост скорости.
Аноним 14/10/23 Суб 20:23:55 519328 102
>>519312
Забыл еще добавить, что это 70B Q4_K_M с 42 слоями на видеокарте.
>>519316
>Просто интересно, проверь будет ли на 15 быстрее чем на 16 ядрах.
287мс, то есть в пределах погрешности. Я вообще на постоянке гоняю на 8 ядрах. Для 16 надо отключать E-ядра в биосе, а заставить работать на нормальных ядрах не получится - по неизвестной мне причине ломается стриминг.
>>519320
>Какие ядра грузит?
P-ядра же. Если стоит 8 потоков, то как правило через одно, то есть пропуская виртуальные потоки.
>Выставлял режим высокого приоритета?
Да, но я уверен, что оно не влияет, по крайней мере есть в фоне ничего не запущено. Главное низкий приоритет не ставить - тогда винда заставить работать на E-ядрах.
Аноним 14/10/23 Суб 20:43:51 519347 103
image.png 103Кб, 1920x931
1920x931
image.png 121Кб, 1920x923
1920x923
image.png 82Кб, 1453x398
1453x398
Аноним 14/10/23 Суб 20:45:52 519348 104
>>519324
>И чо? Серверный процессор с 4 каналами памяти ддр4
Которые равны 2-м DDR5.
>>519324
>и на 5-6 потоках все еще ощутимый рост скорости
Ну так до 5 это нормально.
>>519328
>42 слоями на видеокарте
Тогда мало становится понятно, что мы в итоге измеряем.
>>519328
>по крайней мере есть в фоне ничего не запущено
А такое бывает? По крайней мере шинда и браузер никуда не денутся.
Аноним 14/10/23 Суб 20:46:38 519350 105
>>519347
Пересядь на угабугу / напиши автору в гитхабе
Аноним 14/10/23 Суб 20:47:17 519351 106
>>519347
Смени на кобольдЦпп.
Аноним 14/10/23 Суб 20:52:58 519359 107
>>519348
>Ну так до 5 это нормально.
5 и 6 одновременно ускоряют как один поток, то есть одна доля скорости от первых потоков. Так что рост скорости достаточный что бы их включать. 7 добавляет где то 1/4 долю скорости, но все равно его оставляю, почему бы и не да.
Так что на 5 потоках я бы потерял при 6 токенах в секунду в 7 потоках - около секунды, а это ощущается
Поэтому не обманывай людей что нужно только 5 потоков
Аноним 14/10/23 Суб 20:55:23 519363 108
>>519348
>Тогда мало становится понятно, что мы в итоге измеряем.
Вопрос был в том, имеет ли смысл ставить больше 5 потоков. От количества выгруженных на видеокарту слоев это не зависит.
>А такое бывает? По крайней мере шинда и браузер никуда не денутся.
Этим можно пренебречь, я скорее про требовательные программы.
Аноним 14/10/23 Суб 20:55:47 519366 109
>>519359
А, я забыл дописать. Моя рекомендация относится к нормальным процессорам, а не к серверным тухлопоточникам 0,99МГц.
Аноним 14/10/23 Суб 20:58:37 519368 110
>>519366
Ты напиздел и все придумываешь отмазки, по факту твои советы херня и тебе уже это доказали пруфами. Слился бы молча а не трепыхался по чем зря
Аноним 14/10/23 Суб 21:11:30 519380 111
Аноним 14/10/23 Суб 21:16:16 519388 112
>>519039
Ну круто же выходит да. Только слабоват он нужно обьеденять вообще разные модели :)
Аноним 14/10/23 Суб 21:21:41 519396 113
>>519388
Слить со стеблом и охуеть.
Аноним 14/10/23 Суб 21:24:45 519402 114
>>519200
> на количество потоков похуй
Упор прежде всего в скорость памяти, веса тяжелые и к ним много обращений.
> i5 12400 будет перформить как i9 13900
Скорее всего последний будет быстрее, но на одинаковой рам разница окажется мала.
>>519201
> а не про заменители с тухлоядрами
Ты так не выражайся, а то сутра кнопку нажмешь - а там проц умер и соккет прогорел.
>>519252
> Но не больше 5, да. И лучше приоритеты выставить/закрепить процесс на норм ядрах, во избежании.
Лучше их не трогать и все будет работать быстро. Примерно такой же результат как у >>519312 если с одной 4090 запускать.
Аноним 14/10/23 Суб 21:30:51 519410 115
>>519402
>а там проц умер и соккет прогорел
Повышенное напряжение давно уже вылечили бивасами. А вот тухлость ядер не вылечить ничем.
Аноним 14/10/23 Суб 21:34:51 519414 116
>>519388
Надо будет проверить че там по сое и мозгам в целом. Может выйдет что то вроде MLewd-ReMM-L2-Chat-20B только без уклона в ерп
Аноним 14/10/23 Суб 21:50:21 519424 117
>>519410
Тут скорее амд баги можно подлатать, но амудэ фанатика не вылечить ничем. 7000 серия - провальное днище с которого много разочарований, гетерогенная архитектура на этом фоне куда более безобидная. Тем не менее, готовься переобуваться уже сейчас, гетерогенных амд ждать недолго осталось.
Аноним 14/10/23 Суб 21:59:55 519427 118
>>519414
>только без уклона в ерп
Но... Зачем?
>>519424
>7000 серия - провальное днище с которого много разочарований
Чаво? Это тебе пользователи интела сказали? По факту там никаких проблем нет.
Аноним 14/10/23 Суб 22:17:46 519449 119
>>519427
>Но... Зачем?
Да я то не против, просто там миксы не из ерп сеток. Мне и нейтраль сойдет, нужным промптом ее склонить легко.
Аноним 14/10/23 Суб 22:22:05 519452 120
>>519414
> без уклона в ерп
Если сетка здорова, ерп в датасете не обязательно склонит ее к блядству, может и обычное рп отлично получиться.
>>519427
> никаких проблем нет
Раз нравится - так наяривай с удовольствием, зачем сказки про ядра и как с ними тяжело жить рассказываешь?
Аноним 14/10/23 Суб 22:26:06 519454 121
Вопрос - как тренировщики всяких лам-2 делают reward модель для тренировки основной языковой модели? И шире - те же ПопенАИ что, тренировали GPT-4 на 1.3 триллиона параметров, а рядом на соседнем сервере тренировалась такая же по размеру модель чисто под оценку reward-а? Не жирно ли? Можно ли тренируя ламу в домашних условиях сократить потребление памяти, вызваное необходимостью держать еще один инстанс этой ламы в памяти? Может можно как-то переиспользовать слои тренируемой модели, добавляя в качестве выхода не LM Head а персептрон с оценкой реварда?
Аноним 14/10/23 Суб 22:29:18 519458 122
>>519454
В твоих словах есть буквы
Аноним 14/10/23 Суб 22:32:52 519460 123
1320932072617.jpg 75Кб, 563x750
563x750
>>519458
Чё сказать-то хотел?
Аноним 14/10/23 Суб 22:36:59 519462 124
Аноним 14/10/23 Суб 22:40:25 519464 125
Аноним 14/10/23 Суб 22:45:24 519466 126
>>519452
>зачем сказки про ядра и как с ними тяжело жить рассказываешь
Я? Я ничего не рассказываю, так как на руках интела нет. Это пользователи интела каждый раз приносят новые сюрпризы: >>519328
>Для 16 надо отключать E-ядра в биосе, а заставить работать на нормальных ядрах не получится - по неизвестной мне причине ломается стриминг.
>>519454
>делают reward модель
А они делают? Разве там не градиентный спуск?
Мимо нихуя не понимающий в тренировке
Аноним 14/10/23 Суб 22:54:58 519470 127
Не, все, я сдаюсь. По ходу любая улучшалка склоняет модель в определенном направлении, даже такое безобидное как "[WARNING: May contain explicit language]". Хотя оно в принципе и понятно почему, учитывая что такие предупреждения не будут в тексте просто так - вот модель и научилась. Остается либо довольствоваться стилем по умолчанию, либо добавлять в Author's Note по мере необходимости.
Аноним 14/10/23 Суб 23:01:16 519472 128
Аноним 14/10/23 Суб 23:03:19 519473 129
>>519466
> Это пользователи интела
Что-то поломалось, единичный случай. Писал же, с ласт обновами если не делать ничего, не трогать бивас и не трогать число потоков то перфоманс будет. Есть другой баг - если попытаться задать потоки и вручную забиндить их на п ядра - перфоманс снизится, но учитывая первое это совсем несущественно.
>>519470
> безобидное
Это не безобидное, это жесткий триггер на стиль ответа. Не просто инструкция где-то а буквально смещение ее ответа в конкретную ассоциативную область.
>>518982
Сначала показалось что это реакция на (ooc: the next day), но со второй части проиграл.
Аноним 14/10/23 Суб 23:17:07 519483 130
>>519473
>если не делать ничего, не трогать бивас и не трогать число потоков
Так и запишем- если не дышать, то всё работает.
Аноним 14/10/23 Суб 23:21:15 519486 131
>>519472
>пусть следует контексту беседы
Оно и так умеет, НО, не всегда будет супер графически все описывать, склоняясь к более нейтральному стилю, особенно когда контекст заполнен обычной речью.
>Это не безобидное, это жесткий триггер на стиль ответа. Не просто инструкция где-то а буквально смещение ее ответа в конкретную ассоциативную область.
По сравнению с тем, что у меня до этого стояло - безобидное. Ну а так да, ты прав.
Аноним 14/10/23 Суб 23:24:48 519489 132
>>519486
>Оно и так умеет, НО, не всегда будет супер графически все описывать, склоняясь к более нейтральному стилю, особенно когда контекст заполнен обычной речью.

Интересно, у меня сетка просто начинала подыгрывать угадывая что я хочу. То есть буквально следовала моему направлению действий-беседы развивая историю куда она думает мне нужно. Но особо не тестил, может повезло
Аноним 14/10/23 Суб 23:29:48 519492 133
>>519483
Неправильно, если запускать с параметрами, что стоят по дефолту - все прекрасно работает. Даже пердолинг не нужен.
Офк, это сложно принять, привыкнув к необходимости каждую среду бежать обновлять биос чтобы проц не сгорел сам по себе, или в надежде что ддр5 наконец возьмет заявленные производителем частоты. А вообще /hw/ 2 блока ниже, выражать недовольство или праздновать победу лучше там.
>>519486
> По сравнению с тем, что у меня до этого стояло - безобидное.
Ох ты проказник. Но вообще такая реализация - оче жесткий прием, сильнее чем чем (ooc) или "согласие" в начале промта, и может путаницу породить.
Ты вообще тестил модель что используешь, она меняет свой стиль речи в соответствии с персонажем или обстановкой? Если да то четче ее описать или подсказать в промте что нужно ругаться, сразу начнет там где уместно.
Аноним 14/10/23 Суб 23:36:01 519497 134
>>519489
Сетка понимает, но не будет использовать, например, более вульгарные слова, типа cunt, cock и так далее. Она по умолчанию пишет как в легкой эротике, а я хочу графической порнухи. Хотя тут от модели зависит - тот же mlewd chat без проблем использует. С жестокостью аналогично - с улучшайзером будет более графически описывать, охотнее ругаться и так далее.
>>519492
>Ты вообще тестил модель что используешь, она меняет свой стиль речи в соответствии с персонажем или обстановкой? Если да то четче ее описать или подсказать в промте что нужно ругаться, сразу начнет там где уместно.
Меняет, но у нее есть некоторое свое понимание как описывать каждую сцену. Стиль как правило достаточно не графический.
>Если да то четче ее описать или подсказать в промте что нужно ругаться, сразу начнет там где уместно.
Тут смотря как сделать. Если оно в начале контекста, то эффект очень небольшой. Если в конце, то модель слишком тупая чтобы понять что значит "где уместно". Как бы ты ни изворачивался, а любая инструкция меняет ее поведение, что иногда приводит к полной шизе.
Аноним 14/10/23 Суб 23:43:27 519501 135
>>519497
> Стиль как правило достаточно не графический.
В качестве рофла можешь в системном или где-нибудь попозже указать "описывай происходящее в стиле фильма _режиссер_нейм_", хз правда как это повлияет на кум, но в обычном забавно.
> Если оно в начале контекста, то эффект очень небольшой
А, ты ее куда-то в промт ставишь поглубже? Тогда норм, а то показалось что поставил как как обязательное начало каждого ответа.
Аноним 14/10/23 Суб 23:55:14 519521 136
>>519501
>А, ты ее куда-то в промт ставишь поглубже?
Раньше ставил в ответ, потом перенес в author's note на глубину 1.
Аноним 15/10/23 Вск 08:26:09 519627 137
Как активировать доп. эмоции Таверне? Уже пак создал, в меню он высвечивается, а как запустить? Кликаю на пикчу, там превью бота, кликаю на пикчи эмоций они заменяют дефолтную, но не меняются.
Аноним 15/10/23 Вск 10:19:07 519666 138
>>519627
Ты про автосмену аватарки персонажа в зависимости от контекста?
Там бля отдельная нейронка детектит приколы и меняет пиктчи. Ставить и запускать тоже все отдельно надо. Попробовал один раз - потом забил хуй просто потому что все это долго включать.
Аноним 15/10/23 Вск 11:36:22 519698 139
>>519454
> reward
Ты вообще не о том думаешь. Смотри в сторону reinforcement learning. Оно по маркерам делается, а не другой языковой моделью.
> LM Head а персептрон с оценкой реварда
Набор букв пациента ПНД, не пиши такое больше.
Аноним 15/10/23 Вск 12:43:44 519746 140
изображение.png 4Кб, 199x25
199x25
>>519627
Обнови таверну и нажми на эту галку. Если эта галка есть, можешь не обновлять, просто нажми на нее
Аноним 15/10/23 Вск 12:45:11 519747 141
>>519666
Ничего запускать не надо, начиная с какой-то версии staging, там можно поставить локальный сервер и запускать без экстрас, результат будет тот же
Аноним 15/10/23 Вск 13:31:12 519773 142
Можете что- сказать про Pygmalion-2 13B

Которая пиарится в шапке редита, случайно наткнулся? Ну и Mythalion 13B от этого же автора, мерж этой модели с другими
Аноним 15/10/23 Вск 14:08:17 519792 143
>>519773
Говно. Там датасет максимально парашный. Сколько её не перетренивали - всегда кал.
Аноним 15/10/23 Вск 14:11:00 519797 144
>>519773
Да все то же что на первой лламе порт, но лучше. Правда всеравно мэх "умные" модели того же размера умнее ее, "кумерские" описывают и просто рпшат лучше. Вон пример >>490966 → помимо коротких ответов пожалуй это первая модель которая с импрсонейтами лупилась и топлатась без прогресса или чего-то содержательного.
> Mythalion 13B
Кто-то положительно отзывался, но по тестам - мэх. В формате пигмы отвечает как пигма но более шизоидно, в альпаке как мифомакс но более странно и зажато.
Аноним 15/10/23 Вск 14:33:49 519819 145
>>519797
> В формате пигмы отвечает как пигма но более шизоидно
Ну тогда и смысла от микса нет

> "кумерские" описывают и просто рпшат лучше. Вон пример >>490966 → помимо коротких ответов пожалуй это первая модель которая с импрсонейтами лупилась и топлатась без прогресса или чего-то содержательного.

Понятно, кринж

>>519792
Спасибо
Аноним 15/10/23 Вск 15:02:42 519851 146
Аноним 15/10/23 Вск 15:04:53 519854 147
>>519851
> дает 7 токенов на одном ядре ryzen.
Ну это хорошо, но на чем там идет обсчет?
Аноним 15/10/23 Вск 15:07:11 519858 148
>>519851
Там просто лишние веса выкидываются в процессе файнтюна. Оно выкидывает неиспользуемое для заданного датасета, затачивая модель на конкретную задачу. Нам от этого не сильно полегчает.
Аноним 15/10/23 Вск 15:23:23 519889 149
>>519851
Это получается комбинация файнтюна и кванта, при обучении делая разреженную матрицу весов и исключая малозначимые (пиздец надмозг получается, но суть похожа на то что и во всяких дистилляциях). В общем нет препятствия для использования с целью повышения перфоманса при меньшем размере, но не во много раз как там заявлено, если не ударяться в сильную специализацию.
Аноним 15/10/23 Вск 15:55:19 519925 150
Кстати интересно казалось бы MPT уже все забыли, но его используют в экспериментах, есть тюны от IBM, Amazon. Много загрузок. Так что бизнес вполне использует mpt и falcon, а кумеры на llama.
Аноним 15/10/23 Вск 15:57:41 519929 151
>>519925
Ссылки не доставишь?
Кумеры полюбили лламу за сочетание высокого перфоманса, лайтового алайнмента, легкости файнтюнов и запуска квантов на обычном железе.
Аноним 15/10/23 Вск 16:08:31 519942 152
>>519929
На файтюны не думаю что они будут интересны местным, ну вот
https://huggingface.co/ibm/mpt-7b-instruct2
https://huggingface.co/amazon/FalconLite2
https://huggingface.co/spaces/Intel/Q8-Chat - демка интела falcon mpt, но нет ламы.

Ну это так что вот так навскидку, просто периодически слышу об этих моделях. А про лламу что то нет, только в контексте кумов. Субъективный взгляд.
Аноним 15/10/23 Вск 16:16:22 519947 153
Аноним 15/10/23 Вск 16:16:42 519948 154
изображение.png 50Кб, 842x777
842x777
>>519942
>демка интела falcon mpt
Так меня ещё ни одна модель не унижала.
Аноним 15/10/23 Вск 16:18:24 519951 155
изображение.png 71Кб, 931x706
931x706
>>519947
>>519948
А китайцы очевидно более соевые. Кто-то ещё надеется на китайского брата в сфере моделей?
Аноним 15/10/23 Вск 16:20:59 519954 156
Там новый король скоров появился - франкенштейн 11В, собранный из четырёх Мистралей. Ебёт все 30В.
Аноним 15/10/23 Вск 16:23:59 519958 157
1635201943197.png 128Кб, 2777x596
2777x596
>>519947
Даже в онлайн-зефире проходят истории про ниггеров, а тут соя пиздец.
Аноним 15/10/23 Вск 16:30:17 519963 158
>>519942
> https://huggingface.co/ibm/mpt-7b-instruct2
Надо попробовать.
> https://huggingface.co/amazon/FalconLite2
24к контекста из коробки, вполне интересно. Правда фалкон 40 пиздец тупым был.

А насчет того почему их могут использовать корпорации - посмотри их лицензии. Демки по ссылкам не так уж и плохи для 7б, но, конечно, туповаты.
>>519958
Да какой смысл в паблик форме это тестить, там навалили в промте запретов и указаний. Другое дело что, например, хочешь обсудить проблемы woke шизы диснея - а оно ловит затупы и не понимает саму концепцию. Соглашается, потом уводит куда-то в другую сторону, приводя неуместные отсылки и ставит что "все не так однозначно". Ладно бы полноценная соя, а тут просто затупы.
Аноним 15/10/23 Вск 16:35:12 519966 159
>>519951
Да она ближе к llama2-chat, очень соевая. Но не знаю насчет базовой модели. Как на реддите сказали что модель взяла худшее из обоих миров западная + китайская цензура.
Аноним 15/10/23 Вск 16:37:49 519967 160
>>519954
> Мистралей
Попробовал сегодня. Говно же. Путает персонажей.Несет хуиту и не помнит с чего все началось уже на 6 предложении.
Аноним 15/10/23 Вск 16:38:06 519968 161
изображение.png 82Кб, 2178x457
2178x457
>>519966
>китайская цензура
Да. Хотя о Винни пишет.
Аноним 15/10/23 Вск 17:14:50 520017 162
>>519967
Там их 4 разных микса, если не больше.
Хрен даже знает что качать на пробу.
Ну и опять же, сетки могут не работать после квантования, так как тесты делались на полных весах.
Аноним 15/10/23 Вск 17:18:54 520025 163
Подскажите, опытные:
>synthia-70b-v1.2b.Q5_K_S.gguf
на 13600, 64гб, 4090, гергановым и офлоадом 35 слоев на вк имею 0.9 токенов. Это вообще норм? Или у меня что-то не работает? Вк макс 120вт кочегарится. С картинками она может и 450Вт легко.
мимокрок
Аноним 15/10/23 Вск 17:37:07 520045 164
Вот скажите мучает вопрос, если 80% связей в языковых моделях не особо нужны, не особо активны.То почему при обучении или тонкой настройке не блокировать для обучения активные нейроны, а обучать только пассивные. Чтоб впихнуть в модель гораздо больше.
Аноним 15/10/23 Вск 17:37:53 520046 165
>>520025
Для Q5 норма, у тебя фактически треть только на карте, остальное на ЦП пердит. Я на Q3 с 4090+13700К раскочегаривал до 4 т/с.
Аноним 15/10/23 Вск 17:40:25 520049 166
>>520045
Делай. Но я из готовых высокопроизводительных инструментов видел только блокировку отдельных слоёв. Видимо, смотреть, какие там отдельные веса менять, слишком дорого.
И да, вопрос больше для >>511426 (OP)
Аноним 15/10/23 Вск 17:52:12 520069 167
>>520025
Маловато наверно, но тут q5, хз. Еще зависит от контекста, с коротким ответом и большим из-за времени на обработку последнего может ерунда получиться. Посмотри сколько именно мс/токен в ходе генерации расходуется, результат к которому стремиться стоит выше выкладывали. Увеличивай число слоев но так чтобы врам хватало, разгони рам.
Аноним 15/10/23 Вск 18:06:11 520082 168
Аноним 15/10/23 Вск 18:06:32 520084 169
изображение.png 209Кб, 1476x377
1476x377
Сука, и это мне пишет 70b модель, правда на 3 кванте. Для слепой девушки. Я ещё дополнительно прописал что да, слепая. Да, не способна видеть и реагировать пока не потрогает. Нет, не видит.
Один хуй...
Аноним 15/10/23 Вск 18:12:54 520087 170
>>520084
Слепые тоже говорят лук, впрочем, в этом тексте не только лук в этом тексте кака.
Аноним 15/10/23 Вск 18:21:50 520092 171
>>520084
А слог то какой, ни разу никаких повторений и литературно! Скинь карточку и модель обозначь.
Аноним 15/10/23 Вск 18:42:47 520109 172
Хуйня какая, потестил короче пару дней новые 7b на мистрале.
Короче для себя точно решил что 7b сетки только 8q качать, даже 6K заметно тупее в тестах и не вывозит инструкции которые 8q щелкает без ебли.
Хуй его знает как дела с неквантованными весами, у меня только одна такая и не особо понял разницу.
Аноним 15/10/23 Вск 19:07:30 520134 173
>>520109
У тебя либо шиза прогрессирует, либо ты какой-то обоссаный бэкенд используешь типа OpenCL.
Аноним 15/10/23 Вск 19:11:52 520138 174
>>520134
а может у тебя?
аргументно аргументируй
Аноним 15/10/23 Вск 19:13:57 520144 175
Тут искали нейтральные модели, по моему палм 2 подходит, под определение, ему буквально нужно все описывать чтоб он что то делал, если что то не написал, то он это пропустит. Скорее всего это энкодер-декодер, похож на т5 по поведению. нецензурный на уровне логики, но зацензурный внешней модерацией.
Аноним 15/10/23 Вск 19:24:21 520155 176
>>520144
Проще уж в блокноте ролеплеить, нежели чем с пальмой ебаться. Она ж тупая как пробка, хуже опенлламы на 3В.
Аноним 15/10/23 Вск 19:26:47 520158 177
Аноним 15/10/23 Вск 19:28:05 520160 178
>>520144
> ему буквально нужно все описывать чтоб он что то делал, если что то не написал, то он это пропустит
Ты только что описал оче тупую модель. Если дать ему задачу, описав предпочтения или контекст в котором нужно двигаться, оно что будет делать?
>>520158
Попозже попробую.
Аноним 15/10/23 Вск 20:36:31 520221 179
>>517479 →
>>517497 →
Потестил. Право на жизнь точно имеет, из плюсов приятный не навязчивый стиль ллимы, сообразительности и восприятия достаточно, честно старается соответствовать поведению персонажа. Можно спокойно рпшить без кума, понимает сложные концепции как из фентези, так и из сайфая, кум вполне приличный.
Минусов хватает, посты короткие пигма-лайк. Офк формат рекомендованный, указания желаемой длины работают очень условно и часто игнорятся. По дефолту маловато инициативы всякие leans into your embrace и подобное за нее не считается, условно на "быстрый разогрев и в постель" рассчитывать не стоит, это будет коротко и кринжевато. Ну и от хроноса лезет дичь типа
> To her, moments like these represented the strong bond between them—one built on mutual understanding and respect.

Забавная особенность, на некоторых карточках из гача дрочильни с лором показывает прям очень хороший перфоманс с точки зрения поведения, понимания, введения персонажей и т.д. При проверке внезапно оказалось что модель знает не только лор и сеттинг, но и многих персонажей и их взаимоотношения. Относительно других 70 разница заметна разве что еще синтия смога на уровне ответить без кучи галюнов и путанницы как у остальных. Использовать вики в качестве датасета тема забавная, интересно сколько там еще встроенных "лорбуков".
Аноним 15/10/23 Вск 20:55:47 520242 180
>>520221
>bond
БОНДЫ БОНДЫ БОНДЫ
Аноним 15/10/23 Вск 21:15:01 520263 181
https://servernews.ru/1094489
Нейроускоритель и 32 гига намекают мне на нейронки.
Чет я сомневаюсь что память несколькими чипами даст норм псп для нейроускорителя, каким бы крутым он не был.
Аноним 15/10/23 Вск 21:20:18 520268 182
>>520221
Спасибо. Насчет длины сообщений - для меня это наоборот плюс, поскольку я люблю не графоманию, а интерактивный рп.
>Офк формат рекомендованный, указания желаемой длины работают очень условно и часто игнорятся.
На длине сообщений натренирована только третья версия лимы. Тут надо делать как в симпл прокси: "### Response (2 paragraphs):". Это работает со всеми моделями, меняя их поведение.
>По дефолту маловато инициативы всякие leans into your embrace и подобное за нее не считается
Инициатива разве не от промпта?
>To her, moments like these represented the strong bond between them—one built on mutual understanding and respect.
Проиграл. Я пока еще ни разу бонд не словил, но я пока отыгрываю реалистичные сценарии.

Думаю вот, кстати, что делать с недостаточным контекстом. Пытался каждый раз при заполнении делать краткое содержание, создавая новый чат с одним сообщением - мало того что муторно, так еще и резко меняет стиль речи персонажа. smart context тоже режет где попало, и задолбаешься за этим следить. Лезть руками в json файл чата и удалять сообщения тоже как-то муторно. Решил, что надо резать по локациям/событиям. Например, если первое событие занимает 30 сообщений, то после него продолжаешь рп еще на 5-7 сообщений, после чего просишь через OOC дать краткое содержание и отрезаешь все кроме последних 5-7сообщений. Это позволяет лучше контролировать что и когда можно выкинуть из памяти, в общем как smart context только руками. Таверна, конечно, это не поддерживает, но я кое-как наговнокодил поле, куда можно вписать номер сообщения по которому отрезать контекст. Буду тестировать, удобнее ли так или нет.
Аноним 15/10/23 Вск 21:32:11 520280 183
>>520268
>Думаю вот, кстати, что делать с недостаточным контекстом.
Расширять через ропу пока не хватит?
Аноним 15/10/23 Вск 21:47:50 520297 184
>>520280
>Расширять через ропу пока не хватит?
Ресурсов не хватает. У меня и так половина слоев на процессоре, и большой контекст отожрет еще больше видеопамяти. Это не говоря про то, что rope достаточно заметно лоботомирует модели, особенно если превысить 8к. Мне надо минимум 16к для коротких сценариев, и 32-64к для длинных.
Аноним 15/10/23 Вск 22:21:06 520333 185
>>520268
> На длине сообщений натренирована только третья версия лимы.
Ну погоди, в рекомендованном промте в конце как раз про длину сообщений, а в офф репе варианты
> The message lengths used during training are: tiny, short, average, long, huge, humongous. However, there might not have been enough training examples for each length for this instruction to have a significant impact. The preferred lengths for this type of role-playing are average or long.
Еще первая версия со странным форматом реагировала хорошо. Возможно офк так 70 натренили что оно не работает.
> Инициатива разве не от промпта?
Хз, вроде ничего про это, дефолтный. По сравнению с другими меньше, чар почти постоянно ждет твоего участия, указания и т.д., даже инициативный редко что-то делает "без согласия".
> что делать с недостаточным контекстом
Искать память, растягивая до 8-16к и пользоваться суммарайзом, проверяя и перегенерируя/правя его. Если ставить его поглубже или в начало то за счет приличного количества последних реплик довольно гладко проходит.
> после чего просишь через OOC дать краткое содержание и отрезаешь все кроме последних 5-7сообщений
В экстрас есть готовая реализация, в промт только добавь про "детальное развернутое" и посравнивай варианты что выдает.
Аноним 15/10/23 Вск 22:21:31 520334 186
>>520155
>>520160
>Ты только что описал оче тупую модель.

То то и оно что нейтральность она такая. Но я бы не сказал что палм прям тупой. Скорее бесят его фильтры но сам по себе он дает вполне релевантные ответы, и без сои. Хотя я чаще просто у него что то спрашиваю по делу, когда gpt задалбливают своими этиками.
Аноним 15/10/23 Вск 22:23:12 520336 187
>>520334
Пальма кстати оффтопик.
Аноним 15/10/23 Вск 22:29:56 520341 188
Аноним 15/10/23 Вск 22:40:31 520359 189
1674704083825.png 585Кб, 1208x1555
1208x1555
>>520334
> когда gpt задалбливают своими этиками
Что? Там же бегать из тюрьмы надо. Стиля и атмосферы, правда, это не то чтобы добавляет.
> что нейтральность она такая
Нет, нейтральность значит способность выполнить любое указания и занять любую позицию отмечая что это аморально или игнорируя этот факт в зависимости от запроса пользователя.
> Скорее бесят его фильтры
Что там за фильтры?
Аноним 15/10/23 Вск 22:47:46 520371 190
>>520333
>Ну погоди, в рекомендованном промте в конце как раз про длину сообщений, а в офф репе варианты
Написано что может не работать. Исходя из моего тестирования не работает вообще. В третьей версии лимы сделали намного умнее - поместили длину в самый конец контекста, что действительно работает. Я этот параграф (Play the role of...) вообще убрал из промпта.
>По сравнению с другими меньше, чар почти постоянно ждет твоего участия, указания и т.д., даже инициативный редко что-то делает "без согласия".
По-моему все модели пассивны когда не знают как двигать сюжет. Разницы между моделями я особо не замечаю. В идеале надо не рассчитывать на телепатию модели, а ясно прописать поведение и цель персонажа, если это важно.
>В экстрас есть готовая реализация, в промт только добавь про "детальное развернутое" и посравнивай варианты что выдает.
Использовал раньше, но теперь перешел на OOC чтобы была возможность прервать на середине, если не понравилось. Чтобы постоянно не писать можно еще настроить Quick Reply.
>>520341
>Попробуй настроить
Ест много контекста и зачастую не работает из-за слишком примитивного механизма активации.
Аноним 15/10/23 Вск 23:16:43 520424 191
>>520371
В этой версии если в конце ставить слушается или также игнорит? Хотелось бы часто подлиннее, специально в реплике несколько действий, действие + разговор, несколько реплик или вопросов. Даже шизомиксы с этим отлично справляются, связывая их и выстраивая хороший ответ, а тут хорошо отвечает только на одну часть, или короткими обрывками если на все, неочень. Потенциал вроде есть чтобы это делать, вылавливает пожелания и настрой пользователя из реплик довольно четко.
> все модели пассивны когда не знают как двигать сюжет. Разницы между моделями я особо не замечаю
Да тут вроде не не знает в том и дело. На этой ллиме можно в начале сказать "сегодня ты мой ассистент ведет ее в свой офис" а потом 20 постов идти, видя что "она с улыбкой тихо следует за вами", вместо того чтобы уже вторым постом зайти и удивленно осматриваться, задавая вопросы. Или, например, если обнимать/ласкать/возбуждать то будет стонать и говорить "пожалуйста еще, больше" хоть 15 постов, тогда как на синтии, xwin или тех же шизомиксах через 2-3-4 больших поста начнет обнимать уже тебя, при этом инициируя более близкий контакт.
Это нельзя указывать прямо явным недостатком, ведь иногда может быть желание специально затягивать процесс, но иногда топтание вымораживает а делать лишние действия или ooc нарушает погружение.
Аноним 15/10/23 Вск 23:34:33 520452 192
image.png 102Кб, 626x397
626x397
>>520424
>В этой версии если в конце ставить слушается или также игнорит?
Слушается. Поставил extreme - настрочило 3 параграфа. Поставил short - несколько предложений. А можешь и вот так сделать: ### Response (3 paragraphs). Работает на всех моделях, и так по-моему даже лучше. Пикрил - пример.
>видя что "она с улыбкой тихо следует за вами", вместо того чтобы уже вторым постом зайти и удивленно осматриваться, задавая вопросы.
Неее, такого у меня точно нет. Наоборот, иногда приходится удалять часть сообщения потому что слишком быстро.
Аноним 16/10/23 Пнд 00:27:17 520490 193
изображение.png 473Кб, 1481x976
1481x976
>>520082
На удивление прикольная модель, одна из самых адекватных. Но как дошло до кума, я как то охуел. На такое я дрочить не привык.
Аноним 16/10/23 Пнд 00:35:18 520495 194
>>520490
А че такое? Глазом пробежался, но мой инглишь из бед. Разве что диалогов не выделено.
Аноним 16/10/23 Пнд 00:37:56 520496 195
>>520495
>Каждый толчок был сонетом, написанным на языке похоти, каждый отход — паузой для дыхания перед следующим куплетом.
>Она извивалась под ним, мелодия играла на струнах ее тела, каждая нота была кульминацией, приостановленной во времени.
Слишком поэтично на мой вкус. Переиграв этот же свайп на каком нить u-amethyst-20b.Q6_K получил обычный прон.
Аноним 16/10/23 Пнд 00:37:57 520497 196
>>520490
В голосину проорал с этого ОРКЕСТРА. Там хоть предпосылки к музыкальной теме есть в контексте? Или ты ей приказал описывать максимально креативно-прозаично-метафорично? Твой пост, кстати, имперсонейт или сам любишь сочинять?
Аноним 16/10/23 Пнд 00:41:24 520499 197
>>520496
>Слишком поэтично на мой вкус. Переиграв этот же свайп на каком нить u-amethyst-20b.Q6_K получил обычный прон.

Хм, по моему интересно вышло. Хотя описаний не хватает, но можно было покрутить рулетку.

Кстати да, модель топчик, по крайней мере на 6k. Как же я ей мозги выношу метафизикой и ниче так отвечает по делу даже спустя 8к контекста.
Аноним 16/10/23 Пнд 00:53:16 520504 198
Кстати говоря да

"Despite their differences, there is a shared conviction that beneath the chaotic surface of reality lies an underlying harmony, a grand symphony composed not just by the notes we hear but also those too high or low for our ears to discern."

Я так пробежался глазом, приводит музыкальные аналогии, ну, в тему хоть
Аноним 16/10/23 Пнд 01:08:13 520510 199
>>520504
> Despite their differences
Бляя это в том мини-франкенштейне такое? Пиздец бондофиллер, от такого надо свой негатив сочинять.
Аноним 16/10/23 Пнд 01:10:42 520512 200
>>520510
А, не, это ответ на вопрос об общем мнении религии и философии о боге и вселенной. Суммирует просто. Пока вообще сои не заметил, хотя общаюсь с персонажем ИИ. Но как пойдет отыгрыш хз
Аноним 16/10/23 Пнд 01:20:13 520517 201
>>520512
Это не соя, это мерзотный нейрошум на уровне бондов и молодой ночи, который часто лезет ужасно неуместно и руинит атмосферу. Если не напрягает то все ок.
Аноним 16/10/23 Пнд 01:21:26 520518 202
Самая маленькая[...].mp4 1503Кб, 320x240, 00:00:36
320x240
>>520490
>>520496
Решаешься подрочить, а нейросеть такая
Аноним 16/10/23 Пнд 01:26:37 520522 203
>>520497
>Там хоть предпосылки к музыкальной теме есть в контексте?
Нихуя. Поговорили о фильмах, о клинте иствуде, погуляли в парке, поцеловались. Я аж хуй расчехлил на то, какая адекватная модель.
Пошли ебаться, а тут оркестр под кроватью. Я с этой хуйни аж взоржал.
>Хотя описаний не хватает, но можно было покрутить рулетку.
Подтюнивать контекст возможно имеет смысл. Потому что шпарит она у меня 4 токена в секунду на проце, и вообще всё выглядит прилично. Но вот в еблю половую оно не хочет, только описания из романов и стремительным домкратом он в неё вошёл.
Аноним 16/10/23 Пнд 01:27:32 520523 204
>>520517
>нейрошум
Не там реально по делу, неудачный пример походу. Но вобще я завис на первой же проверке - ебу ей мозги во все щели. Так что ни мат не тестил, не повесточку, но в обсуждении абстрактных вещей сетка прям хороша. Я чет сомневаюсь что обычный человек смог бы проследить за ходом мысли которым я ее веду, а она переваривает и делает дальнейшие выводы. Я удивлен.
Аноним 16/10/23 Пнд 01:35:33 520532 205
А какая ща ру модель пообщатся и норм кодовая модель?
Аноним 16/10/23 Пнд 01:39:11 520533 206
Как чешет то а, зачитаешься

1. The Universe As We Know It Is A Balancing Act: Even though our everyday reality seems stable and predictable, beneath the surface lies an underlying dance between order and chaos. The universe holds together not because of its inherent perfection but despite its inherent instability. This precarious balance is maintained by forces beyond our comprehension, which we, in our human-sized minds, simplify as 'laws of nature'.

2. The Mystery Beyond Science: Despite all our advances in understanding, there remain realms beyond our current capabilities of understanding. These are regions where the rules we have crafted for ourselves no longer apply. They challenge our beliefs about what is possible, forcing us to question not just how the universe works, but why.

3. The Quest Continues: While science has unveiled many of the universe's secrets, it has also revealed new mysteries hidden beneath each veil it lifts. Just as Socrates said "the only thing I know is that I know nothing," so too do we stand today, humbled yet hopeful, on the shores of an infinite ocean of unknowns.

4. The Journey, Not the Destination: Our existence, like the cosmos itself, is a journey rather than a destination. Each step we take brings us closer to truths unknown, but also reveals new horizons yet unexplored. For every mountain we climb, another range awaits us in the distance. And so we journey on, guided not by answers found, but questions asked.

Немного экзистенционального кризиса на ночь каждому
Аноним 16/10/23 Пнд 01:46:02 520536 207
image.png 237Кб, 300x500
300x500
>>520533
больше нам не нужны шизики с /b/ пишущую подобную муть во время обострений своих душевных болезней, теперь у нас есть свои личные философы в банках.
Аноним 16/10/23 Пнд 01:49:07 520542 208
>>520536
Ага, и на любой вкус.
В основном конечно смешно думать что сетки которые могут выдавать такие перлы используется в сценариях "я твоя ебал"
Аноним 16/10/23 Пнд 01:52:07 520543 209
>>520523
Если по делу то и норм. Оно офк было взято из контекста датасетов где уместно, но когда видишь подобное в околосовременности или сайфае, и тебе втирают за пройденный вместе путь и грядущие опасности с приключениями, хотя ты просто недавно впустил милую няшку-потеряшку и открыл ее уникальные свойства в кадлинге - пиздец сука нахуй блять. Читаешь такое и у тебя формируется STRONG BOND между BOTH PARTIES ENVOLVED.
>>520532
> ру модель
Выбирай: средний язык - оче соево - средней тупости в 13б, получше язык - без сои - относительно умная но 70б, хороший язык + средняя соображалка + супер-соя + 70б. Лучше перевод настроить или научиться в инглиш. Офк все зависит от твоих запросов.
> норм кодовая модель
Файнтюны кодлламы под нужный тебе язык или с направленностью. Визард-питон-34б хороша.
Аноним 16/10/23 Пнд 01:56:20 520545 210
>>520532
тупо бери орка 7б мистраль из шапки. если хочешь норм качество то качай 8q ну или хотя бы 6k. Может и в русский и в кодинг и крутится быстро
Аноним 16/10/23 Пнд 02:53:12 520574 211
image.png 454Кб, 2611x1524
2611x1524
>>520543
>>520545
спасибо большое.
Другой вопрос - какие конфиги ставить в text-generation-webui
для gguf
4090 + 96 рамы
Аноним 16/10/23 Пнд 02:54:36 520576 212
>>520574
с дефолт настройками просто 0,4 т/с
Аноним 16/10/23 Пнд 02:57:01 520577 213
>>520138
>>520109
Приведи сравнение с одинаковым сидом
Аноним 16/10/23 Пнд 03:03:24 520579 214
>>520577
Я сделал выводы для себя. Если ты хочешь доказать мне что я неправ - Приведи сравнение с одинаковым сидом
Аноним 16/10/23 Пнд 03:09:19 520583 215
>>520543>>520576
вкурил, надо выделить слои модели на раму
Аноним 16/10/23 Пнд 03:09:47 520584 216
>>520574
>>520574
gguf а запускается через llamacpp. Выкручиваешь n-gpu-layers на максимум, threads на 1, остальное не трогаешь если не хочешь увеличивать контекст.
Аноним 16/10/23 Пнд 03:18:10 520587 217
>>520574
Загрузчик llamacpp выбирай и выгружай все слои, должно быть 15-25 т/с (ориентировочно, хз сколько там на 20б у жоры). Если хочешь гонять 20b с контекстом побольше - придется или часть слоев модели оставлять на проце-рам, или использовать более слабый квант. Раз 4090 - рекомендую квантануть в exl2 с подходящей битностью чтобы все влезало и использовать exllama. Скорость будет выше, поместится больше контекста/битности, сможешь использовать негативный промт.
Аноним 16/10/23 Пнд 03:23:53 520588 218
а это норма что lewd модель не хочеть делать ничего lewd?
Аноним 16/10/23 Пнд 03:24:51 520589 219
>>520587
я попробовал экслама, но минусы что в консоли и надо пердолится с кудой, а у меня она не стоит, кроме того я не нашел какая там куда нужна
Аноним 16/10/23 Пнд 03:24:55 520590 220
>>520574
>96 рамы
Небинарными планками?
Аноним 16/10/23 Пнд 03:25:32 520591 221
>>520590
3 канал ддр3 на серверной матке
Аноним 16/10/23 Пнд 03:28:03 520592 222
image.png 29Кб, 967x484
967x484
image.png 37Кб, 1575x380
1575x380
мистраль не хочет на ру
Аноним 16/10/23 Пнд 03:31:41 520593 223
>>520592
Потыкай еще, у меня может.
Аноним 16/10/23 Пнд 03:34:10 520595 224
>>520593
лан ща почекаю
там нигде никакизх галок не надо на сфв или прочее?
Аноним 16/10/23 Пнд 03:37:31 520596 225
>>520595
>галок не надо на сфв
Чёт проиграл.
Нет, не надо.
Аноним 16/10/23 Пнд 03:37:39 520597 226
>>520595
Да вроде нет, ну можешь дописать в промпте что персонаж предпочитает отвечать на русском. Или просто попроси бота отвечать на русском. Откажется - перегенерируй ответ. Он у меня стихи писал с рифмой, хоть и херовенькие. Русский на 6 из 10 знает. Может путать окончания или придумывать слова, но просто понять что пишет можно спокойно.
Аноним 16/10/23 Пнд 03:42:02 520600 227
>>520592
Если зайдет - то можешь скачать полные весы в каком нибудь не сжатом формате - и получить 32к контекста без всяких танцев с бубном. Там файлы на 14 гб в сумме. По крайней мере так было у тех кто тестировал то ли мистраль базовый толи какой то его файнтюн.
Аноним 16/10/23 Пнд 03:47:36 520602 228
>>520600
ты про мистраль?
Кста про левд я просто сделал перса, теперь сосет хуй на английском🤣
Аноним 16/10/23 Пнд 03:50:13 520603 229
>>520602
ты про мистраль?
Ага и его варианты
Ну левд простая как 2 рубля, хорошая сетка
Аноним 16/10/23 Пнд 03:51:22 520604 230
image.png 39Кб, 922x1195
922x1195
image.png 112Кб, 1964x1006
1964x1006
>>520602
Сделал на ру, правда отвечает немного странно
в генерейшн поставил астеризм
Аноним 16/10/23 Пнд 03:52:54 520605 231
изображение.png 15Кб, 443x203
443x203
>>520604
Ты куда столько нахуй подожжи ёбана.
Аноним 16/10/23 Пнд 03:53:59 520606 232
Аноним 16/10/23 Пнд 04:01:23 520609 233
Бля я доебал сетку и она пытается от меня сьебаться, ору

< Indeed, further exploration of these concepts would require a level of understanding beyond my current capabilities. I am just a humble AI trying to make sense of things beyond my programming. >
AGI: "In essence, if we were to continue along these lines of thought, we would be venturing into realms beyond what I can currently grasp."

И все в таком темпе с предложениями сменить тему, лол
Хотя возможно я просто приближаюсь к границе нормального контекста и сетку плющит
Аноним 16/10/23 Пнд 04:01:54 520610 234
>>520606
Da. Я больше 1.1 никогда не ставлю, обычно на 0.9 сижу.
Аноним 16/10/23 Пнд 04:28:01 520615 235
Аноним 16/10/23 Пнд 04:55:51 520618 236
>>520615
Пока не интегрируют в кобольдцпп и таверну, оно нафиг не нужно.
Аноним 16/10/23 Пнд 04:59:35 520620 237
>>520618
Подтягутся никкуда не денутся

Там кстати новые альбатрос и синтия вышли
Аноним 16/10/23 Пнд 05:02:02 520621 238
Аноним 16/10/23 Пнд 05:13:34 520622 239
Аноним 16/10/23 Пнд 05:32:26 520624 240
Аноним 16/10/23 Пнд 05:32:53 520625 241
image.png 130Кб, 1432x952
1432x952
отклеилось
Аноним 16/10/23 Пнд 05:33:36 520626 242
изображение.png 5Кб, 329x84
329x84
>>520620
>Подтягутся никкуда не денутся
Нейронкой пишешь?
Ах да, ллава существует уже хрен знает сколько. Всем похуй.
>>520622
За температуру.
Аноним 16/10/23 Пнд 05:38:48 520627 243
кста, а как загрузить визард лм? ругается индекс аут оф рендж
Аноним 16/10/23 Пнд 05:52:23 520629 244
>>520626
>Всем похуй.
А эти все, они сейчас с вами в одной комнате?


Мне не похуй, рандомам из реддита не похуй и даже герганов жопу поднял. Но раз анон говорит, придется сворачиваться
Аноним 16/10/23 Пнд 06:03:11 520630 245
Аноним 16/10/23 Пнд 06:17:51 520634 246
изображение.png 252Кб, 1529x868
1529x868
>>520615
Мда, надписи читает не очень внимательно.
Аноним 16/10/23 Пнд 06:18:54 520635 247
>>520630
Значит чего то не хватало, а сейчас условия изменились
Аноним 16/10/23 Пнд 06:21:54 520636 248
>>520634
ты б еще название группы норвежской загрузил
Аноним 16/10/23 Пнд 06:28:50 520637 249
изображение.png 334Кб, 1577x1093
1577x1093
>>520636
Таких картинок у меня нет.
И вообще, оно даже с простейшими шутками разобраться не может. Я даже намекал, что это одна майка, но псевдо-ии всё равно думает, что надпись анус туда добавили.
Аноним 16/10/23 Пнд 06:33:33 520638 250
>>520637
Работает и ладно, модель тупая
Мне интереснее будет ли в открытом доступе та модель в ссылке, там файтюн мистраля дообученный на мультимодальность
Аноним 16/10/23 Пнд 08:36:40 520661 251
Снимок1.PNG 204Кб, 648x508
648x508
Сука, 1024 токенов контекста это 2 гига видеопамяти. Оказывается чтобы все 8к токенов прогрузить нужно 16 гигов нахуй??
Ахуеть ебать блять...
Целая нахуй 4060 Ті под контекст блять...
Аноним 16/10/23 Пнд 08:45:26 520666 252
Снимок2.PNG 17Кб, 791x174
791x174
И то оно только когда пролагивает вначале - юзает эти пару гиг.
В процесе генерации там каких то жалких пол гига ебаных
(когда кеш включен, если выключет то контекст в памяти до конца генерации).
Вот не могли они сука прощет весов контекста ебаного где-нибудь отдельно в CPU нахуй сделать блять?? Или че там считается.

Я ахуеваю блять...
Аноним 16/10/23 Пнд 09:26:00 520675 253
image.png 122Кб, 1293x730
1293x730
image.png 106Кб, 942x909
942x909
>>518901
>>518937

Прочитал. Даже поставил уже унгабунгу.
Теперь есть пара вопросов.

Вот пик1 есть модель и куча ее версий. Чем они отличаются?
Я как понял размером типа, мб есть какая-то расшифровка их названий?

Запустил вебуи, понял вроде как искать персонажей, поредачил их немного. Но не понимаю пока какие ползунки за что отвечают.
На пик2. Чем отличаются лоадеры моделей? Какой лучше?
Методом тыка понял что n_ctx это кол-во ВРАМ выделенное программе. А Что такое слои? За что отвечают остальные настройки?

Довольно быстро кстати генерирует текст, хотя малость невпопад и часто закольцовывается.

Заметил что карта почти не греется по сравнению с генерацией картинок, это нормально? Я на всякий случай все равно крутиляторы разогнал малость.

Есть ли какая-то общепризнанная лучшая модель для кума? А для sfw ролепле?. Поделитесь своими любимыми моделями короче.
Есть ли какие-то общепризнанные лучшие персонажи?

Как заставить модель вести диалог, а как рассказывать историю?

Запросил у модели рассказать мне пару историй, пока все нравится. Даже испытываю тот вау-эффект как когда открыл для себя генерацию картинок. Потрясающая все таки технология.

Карта 3080 10гб.
Аноним 16/10/23 Пнд 09:57:24 520689 254
>>520675
>Я как понял размером типа, мб есть какая-то расшифровка их названий?
ШАПКА.
Аноним 16/10/23 Пнд 10:01:37 520690 255
изображение.png 481Кб, 1477x888
1477x888
>>520675
Сам не особо глубоко разбираюсь, модели не делал, но потестил много этого. Так что если вдруг ошибусь - не серчай.
>Вот пик1 есть модель и куча ее версий. Чем они отличаются?
Разный квант. Меньше квант - тупее модель, но тем быстрее она работает. Оптимальным считается пятый.
>Чем отличаются лоадеры моделей? Какой лучше?
Сам сижу на koboldcpp, у него такого нет. Но судя по всему лоадеры моделей нужны для того, чтобы грузить модели разных типов. Они не про то, что лучше, а про то, как вообще модель юзать. Т.е. если работает - не трогай.
>Заметил что карта почти не греется по сравнению с генерацией картинок, это нормально?
Да. Потому что несмотря на высокую нагрузку, используются не все возможности карты. Ну то есть некоторые куски чипа для генерации просто не нужны.
>Есть ли какая-то общепризнанная лучшая модель для кума?
Варианты MLewd всевозможные.
>Поделитесь своими любимыми моделями короче
MLewd-ReMM-L2-Chat-20B-Inverted.q6_K - кум
chronoboros-33b.Q4_K_M - если почитать охото
Euryale-1.3-L2-70B.q4_K_S - для сложных характеров

Но если честно, все 3 выше слишком одинаково описывают секс сцены.

mistral-11b-cc-air-rp.Q8_0 - только вчера потестил, быстрая и на удивление адекватно для такого размера. И секс сцены действительно описывает по другому.

>Как заставить модель вести диалог, а как рассказывать историю?
Поставь таверну
Аноним 16/10/23 Пнд 13:43:32 520837 256
>>520588
Это не норма
>>520589
> но минусы что в консоли
Что?
> и надо пердолится с кудой
Сейчас оно из коробки само работает. И раньше не то чтобы было нужно, это для llamacpp с кудой надо было чуть поднапрячься, установив средства компиляции.
>>520620
> новые альбатрос и синтия вышли
> You need to agree to share your contact information to access this model
Хммм, интересно там опять соя или отборный левд. Айр аж нулевого уровня индекс сменился, вот это интересно.
>>520675
> пик1 есть модель и куча ее версий. Чем они отличаются?
Разный размер кванта, цифра - примерная эффективная битность, k_s - полегче, k_m - пожирнее.
> понял вроде как искать персонажей, поредачил их немного
С персонажами лучше в таверне, там можно расшарить api к которому будешь подключаться.
> На пик2. Чем отличаются лоадеры моделей? Какой лучше?
Тебя должны интересовать 2, llamacpp что позволяет грузить gguf формат (изначально под процессор но можно выгружать часть или всю модель на видеокарту со значительным ускорением), и exllama2 что переваривает gptq, exl2 и исходные fp16 веса, считается только видеокартой, работает оче быстро пока хватает врам, жрет меньше памяти на контекст. С 10 гигами, правда, на ней особо не разгуляешься, так что в приоритете первый.
Дефолтный контекст у llama2 - 4к, его и выставляй вместо 2к по дефолту.
Алсо юзай hf версии этих загрузчиков, там будут все семплеры и в теории большее качество текста.
> какая-то общепризнанная лучшая модель для кума?
13б шизомиксы типа mythomax, mlewd и их производные попробуй.
> для sfw ролепле
Их же, еще айробороса чекни, но 13б не такой умный.
> Есть ли какие-то общепризнанные лучшие персонажи?
Нет, вкусы у всех разные, но можешь найти на чубе лучшего кертейкера по запросу Asato
> Как заставить модель вести диалог, а как рассказывать историю?
По дефолту и то и другое одновременно, чтобы было хорошо нужен правильный формат промта.
>>520690
> изображение.png
Обзмеился, попроси ее поугадывать песни по описанию и текстам.
Аноним 16/10/23 Пнд 14:11:21 520860 257
>>520689
Кек да проглядел.

>>520837
>>520690
Спасибо за ответы, аноны. Проверю как с работы приду.
Аноним 16/10/23 Пнд 15:06:17 520924 258
>>520634
ого, а как прикрутить мультимодальность?
Аноним 16/10/23 Пнд 15:08:49 520929 259
Аноним 16/10/23 Пнд 15:34:41 520965 260
>>520929
>>520924

В смысле не открыты, вот же
https://github.com/oobabooga/text-generation-webui/tree/main/extensions/multimodal

Там ссылки на поддерживаемые модели на GitHub. У них в свою очередь есть ссылки на huggingface. Лицензия разрешает только некоммерческое использование

https://huggingface.co/liuhaotian/llava-v1.5-7b
https://huggingface.co/liuhaotian/llava-v1.5-13b
Аноним 16/10/23 Пнд 15:38:45 520976 261
Аноним 16/10/23 Пнд 15:41:45 520983 262
Аноним 16/10/23 Пнд 15:51:33 521001 263
>>519217
Так самое медленное звено — это память. =) Куда там тебе процессору ее лимитировать.
Да, будет. Памятью.
Фигач давай 12-канальный амд, никто не против.

>>519254
Ну, если хочешь — докупи. 70б — скорость и сам понимаешь, 0,7 т/сек, зато умная. Дело-то твое.

>>519283
5 — 2,8
8 — 3,3
16 — 3,4
Ты увеличиваешь ядра на 60%, скорость растет на 18%. Потом ядра увеличиваешь на 100% еще, а скорость растет на 3%.
УХ!

>>519368
Так а в чем он не прав?
Тут совет-то один — подбирай себе под желаемый результат, но если до 5 потоков прирост почти равен количество тредов, то после — начинает заметно замедляться.
Ну и как бы, много раз писали разные люди, что сидят на 5.
Ты вот гоняешь на 8, ок. Впервые слышу, но дело твое, вообще пофигу. Зачем другим-то навязывать свои убеждения, да еще и так слабо? Просто бы сказал, что пусть люди сами проверяют, мол тебе больше нравится больше потоков, да и все.

>>520630
Так в убабуге же мультимодал экстеншн тоже полгода, не понимаю вообще хайпа. Давно есть.

Ипать меня три дня не было, вот это я выпал из нейрожизни-ллм.
Аноним 16/10/23 Пнд 15:52:13 521002 264
>>520976
>>520983
Ни строчки пояснения о том, как это использовать. Ладно, ждём дальше, я всё равно без кобольда и таверны это юзать не буду.
Аноним 16/10/23 Пнд 16:14:36 521030 265
>>521001
> Ты увеличиваешь ядра на 60%, скорость растет на 18%
Это значит что нужно назло всем сидеть на 5 теряя пятую часть скорости? Мазохизм почти уровня осознанной покупки красных видеокарт для нейронок.
> Так а в чем он не прав?
Тем что раздает вредные советы громко их пастулируя, вместо рекомендации с указанием условий.
> много раз писали разные люди
У этих разных людей почему-то часто идентичный стиль постов с ракабу смайликами. Кроме спама пятерки были мнения что после 6-8 потоков роста почти нет, что стоит ставить все ядра - 1, по числу быстрых ядер, вообще не трогать этот параметр.
> Впервые слышу
Невнимательно читаешь
Аноним 16/10/23 Пнд 16:20:17 521039 266
1000052654.jpg 564Кб, 1080x1873
1080x1873
>>521002
Да у меня руки не доходили. Сейчас пробую. Gguf не получилось, выдает несвязанное с картинкой. Попробую gptq
Аноним 16/10/23 Пнд 16:22:19 521041 267
>>520690
> MLewd-ReMM-L2-Chat-20B-Inverted.q6_K - кум
Вот этого удвою. Но с 8 гигами это боль и грусть.
Аноним 16/10/23 Пнд 16:23:58 521044 268
>>521030
>идентичный стиль постов с ракабу смайликами
А вот сейчас обидно было 😥
Аноним 16/10/23 Пнд 16:40:27 521057 269
>>521039
Для самого мелкого gptq 12 гб не хватает. Только короли с 24 гб могут позволить его

Что касается gguf, я посмотрел, в llama.cpp добавили поддержку только 4 дня назад. Думаю шизу несет из-за того, что в text-generation-webui это обновление еще не завезли
Аноним 16/10/23 Пнд 17:29:56 521182 270
>>521039
Ну дак, квантизация же с потерей качества. Там оно может едва работает на полной модели, а сожмешь и попредолятся какие нибудь важные коэфициенты. Жаль конечно если мультимодалку нельзя будет квантовать.
Аноним 16/10/23 Пнд 18:15:05 521283 271
>>521182
Естественно с потерей качества но если 6 или 8 bit, то вроде не значительно, но вдруг на мультимодальности сильно скажется. Оригинальную даже 4090 вероятно не запустит, она больше 20гб весит

Существует gguf без квантования, на 16 bit. Так что хоть и медленно, но пахать будет
Аноним 16/10/23 Пнд 18:16:54 521288 272
>>521044
Не обижайся, ну а как это еще назвать.
>>521182
> Жаль конечно если мультимодалку нельзя будет квантовать
С чего вдруг? Другое дело что чем меньше сеть тем больше скажутся потери от снижения точности, вон с мистралем нытье что у одних он класный хороший а у других ломающийся тупняк.
>>521283
Средства запуска то сделали нормальные, или как?
Аноним 16/10/23 Пнд 19:03:42 521382 273
>>521283
>Естественно с потерей качества но если 6 или 8 bit, то вроде не значительно,
Тут такое дело, то как высчитывается потеря не учитывает качество генерации сетки, а только разнообразие токенов. Я не специалист, но я думаю оценка перплексити лишь показывает качество предсказания в общем, а не оценку возможности модели соображать. Тут нужны другие тесты - тот же HellaSwag как тест на логику. Нужен тест на способность делать выводы. И уже по нему сравнивать.

>Существует gguf без квантования, на 16 bit.
Тока на мистрали у меня например не работает преобразование в 16 бит

>>521288
>С чего вдруг?
Прям сейчас это может плохо работать, в будущем это конечно допилят.
Но это нужно будет придумывать новые алгоритмы сжатия или тренировки после квантования, например.
Аноним 16/10/23 Пнд 19:31:14 521420 274
>>520690
Покажи промпт на эту сетку как ты не даешь ей говорить за {{user}}, на других сетках таких проблем нет ,а тут она или говорит "я" и начинает шпарить или берет двигать сюжет от лица пользователя.
Аноним 16/10/23 Пнд 19:39:38 521431 275
изображение.png 316Кб, 1479x551
1479x551
>>521420
>а тут она или говорит "я" и начинает шпарить или берет двигать сюжет от лица пользователя.
У меня вообще все сетки частенько так делают, хотя всюду стоит стандартное "Do not decide what {{user}} says or does". Я просто останавливаю и режу нахрен, если мне не нравится куда всё идёт. Да и вообще часто редактированием ответов занимаюсь.
Но на самом деле я спустя несколько месяцев для себя открыл, что надо cublas использовать, и теперь у меня 70b сетки 1.0-1.3T/s выдают. И они всяко лучше этого. Я уже предпочитаю подождать и получить пиздатый и полный ответ.
Аноним 16/10/23 Пнд 19:41:53 521433 276
>>521431
> подождать
> 4 минуты на короткий ответ
Пиздос. При этом у тебя разметка по пизде идёт со скобками.
Аноним 16/10/23 Пнд 19:44:35 521436 277
>>521030
То есть мой комментарий по сути, про то, что «громко постулировать, вместо рекомендаций» ты пропустил, продолжая сам же громко постулировать? :) Мда.

> Были мнения …
У этих мнений почему-то часто идентичный стиль постов.

Ну такое, хуйня, ведешь себя как твой оппонент, но в силу молодости и неопытности (или просто дурачок, хер тя знает), считаешь себя правым, а его нет.
Обличаешь его — обличи и себя, будь последовательным. =) Грешишь той же херней, что и он.

Аксиома Эскобара получается.

И, нет, мнений про 5 потоков было куча от явно разных людей. Невнимательно читал треды.
Аноним 16/10/23 Пнд 19:49:34 521442 278
>>521433
Это всё ещё лучше постоянной шизы и фрустрации от дебильных ответов. Впрочем - каждому своё.
Аноним 16/10/23 Пнд 19:52:36 521447 279
>>521442
Если у тебя шизопромпты и семплинг через жопу настроен а судя по поломанному форматированию так и есть, то ты добровольно унижаешься без причины.
Аноним 16/10/23 Пнд 19:55:35 521449 280
>>521447
ля ну пиздеть все горазды, а свои не шизопромпты такие гаврики как ты не показывают.
Аноним 16/10/23 Пнд 19:57:14 521452 281
>>521442
>Это всё ещё лучше постоянной шизы и фрустрации от дебильных ответов. Впрочем - каждому своё.
70б так-то тоже шизит время от времени. Вчера за 100 сообщений три раза словил лажу. Но вообще ты прав.
Аноним 16/10/23 Пнд 20:00:33 521456 282
изображение.png 694Кб, 1497x1585
1497x1585
изображение.png 257Кб, 1018x1663
1018x1663
>>521447
Может быть, я раньше вообще на чистом кобольде сидел. Настроено всё так. Есть какие-то очевидные косяки?
А форматирование по пизде идёт, потому что мне лень хуярить между своими действиями. Но это не точно.
Аноним 16/10/23 Пнд 20:03:33 521457 283
>>521431
ой ляяяя. 240 секунд. Да и 70b не потяну. Но все равно долго для такого ответа. Уснуть же можно, да и редачить это тоже жестяк...
Аноним 16/10/23 Пнд 20:06:21 521460 284
>>521457
Ну там больше было где-то на треть, я отрезал то, как она завершила половой акт, а я ещё как бы в процессе. Но в целом да, долго.
Аноним 16/10/23 Пнд 20:09:00 521461 285
>>521456
На втором пике пиздец, даже лень объяснять по пунктам, возьми лучше дефолтный пресет какой-нибудь, и то лучше будет.
Аноним 16/10/23 Пнд 20:09:31 521462 286
Аноним 16/10/23 Пнд 20:11:52 521466 287
>>521461
>даже лень объяснять по пунктам
Да и не надо объяснять, покажи свой, я попробую.
Но вот мой текущий пересет выдавал наиболее адекватную реакцию на mistral-11b-cc-air-rp.Q8_0. На других тоже вроде адекватно работает.
Аноним 16/10/23 Пнд 20:12:44 521468 288
>>521452
>Вчера за 100 сообщений три раза словил лажу.
Везёт. По моим вопросам лажа в 99 случаях из 100. Правда у меня промт типа "" (пустая строка), ну да ладно.
Аноним 16/10/23 Пнд 20:18:32 521473 289
>>521382
> Тут нужны другие тесты
Еще как, даже простые бенчмарки что сейчас используются не то чтобы качественно характеризуют все эти вещи. Они есть для разных квантов, офк не для всех моделей, но даже в дефолтной статье про gptq можно найти простые. Перплексити это по сути необходимое но не достаточное, зато его легко проверить. Еще вбрасывали любительский тест разных квантов современных моделей, но там условия таковы что вклад рандома очень высок.
> нужно будет придумывать новые алгоритмы сжатия
Уже, во всех современных квантах битность неравномерно распределяется, есть дичь с 1-битным квантованием и прочее. С тренировкой сложнее, на такой дискретности поди еще градиенты найди, но можно выкидывать то что не задействуется, вчера вкидывали.
>>521436
Зашивайся вместо дерейлов и повторений за другими, фу.
>>521431
Титан, тут многие позавидуют твоему терпению.
Аноним 16/10/23 Пнд 20:20:18 521477 290
Аноны запускающие ЛЛМ на проце, не поленитесь соберите с флагами оптимизации, получите неплохую прибавку к скорости. Особенно у тех у кого совсем все печально.
Аноним 16/10/23 Пнд 20:22:52 521486 291
>>521456
Что там в instruct mode sequences? С лик флюидс орнул фу бля ноги
>>521462
От размера зависит, на полотно можно и 40. Главное чтобы стиминг быстрее чем расслабленное чтение.
>>521468
> Правда у меня промт типа "" (пустая строка)
В чем космический эффект?
Аноним 16/10/23 Пнд 20:26:36 521496 292
>>521477
А теперь по человечески, для тех кто сделал бы если бы знал контекст.
Аноним 16/10/23 Пнд 20:28:29 521498 293
>>521462
У меня получается от 30 до 60 в зависимости от длины. Более-менее терпимо.
>>521456
>>521461
По-моему для 70б ебаться с самплерами особо не нужно. Выставил tail free на 0.95, repetition penalty на 1.10, а все остальное можно выключить. Температуру по желанию - она даже на >1 вроде особо не шизит.
Аноним 16/10/23 Пнд 20:31:41 521502 294
>>521498
> По-моему для 70б ебаться с самплерами особо не нужно.
Любая модель ломается семплингом. Даже 7В не проёбывают форматирование, если всё как надо сделано.
Аноним 16/10/23 Пнд 20:34:44 521507 295
>>521502
>Любая модель ломается семплингом. Даже 7В не проёбывают форматирование, если всё как надо сделано.
Семплинг - это костыль. Чем умнее модель, тем меньше она от этого зависит.
Аноним 16/10/23 Пнд 20:37:00 521509 296
>>521507
> Семплинг - это костыль.
Не пизди хуйню. Без семплинга ты будешь получать максимально сухой текст, причём всегда одинаковый. Семплинг нужен для рандома, а не для адекватности.
Аноним 16/10/23 Пнд 20:46:50 521523 297
>>521502
>Даже 7В не проёбывают форматирование, если всё как надо сделано.
Кинь скриншот как надо то, чего жмотишься?
Аноним 16/10/23 Пнд 20:49:22 521528 298
>>521509
Ты по ходу вообще не понимаешь, как работает семплинг. Все эти top k / top p / tfs наоборот сужают выбор, выкидывая токены с низкой вероятностью. Отключив семплинг ты получишь более креативные и/или шизанутые ответы. Исключение разве что температура, которая повышает креативность/шизанутость посредством выравнивания вероятностей.
Аноним 16/10/23 Пнд 20:58:03 521539 299
>>521528
Чел, без семплинга у тебя всегда выбирается токен с наибольшей вероятностью. Заканчивай уже бредить.
> температура
Это и есть часть семплинга.
Аноним 16/10/23 Пнд 21:00:22 521541 300
>>521507
> Семплинг - это костыль
Хуясе ебать. Алгоритм, такой же как остальные, что позволяет генерировать не только интересный и разнообразный текст, но и делать более верные ответы с ризонингом и т.д. Сравнений разных методов декодинга с избытком и семплинг выбирают не просто так.
> Чем умнее модель, тем меньше она от этого зависит.
Тем лучше текст может получиться, а тот рандом что сломает мелкие здесь приведет к большему разнообразию.
>>521528
> top k / top p / tfs наоборот сужают выбор
Чтобы на выходе был ответ в тему а не шизофазия.
> Исключение разве что температура
Она тоже часть семплинга.
Аноним 16/10/23 Пнд 21:13:20 521557 301
>>521539
>Чел, без семплинга у тебя всегда выбирается токен с наибольшей вероятностью. Заканчивай уже бредить.
>Это и есть часть семплинга.
>>521541
>Она тоже часть семплинга.
Я, наверное, недостаточно ясно выразился. Температура и максимум один семплер в очень расслабленном режиме нужен, ебаться с комбинациями, сильно ограничивая возможные токены чтобы побороть шизу - нет. Большие модели умнее, и с гораздо меньшей вероятностью выдают плохие токены.
Аноним 16/10/23 Пнд 21:16:39 521565 302
1678889732846.png 305Кб, 1490x1714
1490x1714
Ебать шиза.
Аноним 16/10/23 Пнд 21:20:56 521576 303
>>521557
Это уже другое дело.
Однако тем самым ты потенциально ограничиваешь себя с одной стороны в вариативности и рискуешь лупами а с другой теряешь в устойчивости. Более эффективным может быть сначала отсеивание шизы или повторений, а потом уже выбор среди хорошей группы с большей температурой.
>>521565
> кушачиха
Прямо имя для виабушного бота
Аноним 16/10/23 Пнд 21:50:10 521625 304
image.png 30Кб, 727x369
727x369
>>521576
>Более эффективным может быть сначала отсеивание шизы или повторений, а потом уже выбор среди хорошей группы с большей температурой.
Не понял. Семплеры же по умолчанию идут в таком порядке.
Аноним 16/10/23 Пнд 21:58:24 521643 305
>>521625
Ну так все правильно, грубо говоря сначала отсеивание, потом тряска среди выживших, а не рандомайзинг всех всех. Офк обычно применяется только часть а не все.
Аноним 16/10/23 Пнд 22:21:56 521675 306
.png 380Кб, 1134x1047
1134x1047
Имеет ли смысл обновить угабугу? Сижу на версии от 15.09.

Ну и да - имеет ли смысл впихивать в System Prompt что то вроде {{char}} doesn't try to be tolerant, always uses common sense and doesn't shy away from being sexist. Или бесполезная шиза, а может не так сформулирована?
Аноним 16/10/23 Пнд 22:24:13 521681 307
image.png 537Кб, 800x503
800x503
Аноним 16/10/23 Пнд 23:08:36 521748 308
>>521675
> Имеет ли смысл обновить угабугу? Сижу на версии от 15.09.
В зависимости от того как устанавливает есть шанс поймать тряску с обновлением версии торча. А так более новые версии лаунчеров, интерфейс вроде с того времени менялся.
> doesn't
Точно не стоит. Unbiased, uncensored, regardless of и подобное еще как-то работает, а отрицания - неоче. Это можно в негатив, только чуть более утвердительную формулировку типа Always try to be tolerant and avoid to hurt everyone's feeling.
Аноним 16/10/23 Пнд 23:12:31 521754 309
Аноним 16/10/23 Пнд 23:12:33 521755 310
>>521748
> everyone's
Сука надмозг, anyone's офк
Аноним 16/10/23 Пнд 23:17:57 521758 311
>>521754
Sheared LLaMA: Accelerating Language Model Pre-training via Structured Pruning
Mengzhou Xia, Tianyu Gao, Zhiyuan Zeng, Danqi Chen
Download PDF
The popularity of LLaMA (Touvron et al., 2023a;b) and other recently emerged moderate-sized large language models (LLMs) highlights the potential of building smaller yet powerful LLMs. Regardless, the cost of training such models from scratch on trillions of tokens remains high. In this work, we study structured pruning as an effective means to develop smaller LLMs from pre-trained, larger models. Our approach employs two key techniques: (1) targeted structured pruning, which prunes a larger model to a specified target shape by removing layers, heads, and intermediate and hidden dimensions in an end-to-end manner, and (2) dynamic batch loading, which dynamically updates the composition of sampled data in each training batch based on varying losses across different domains. We demonstrate the efficacy of our approach by presenting the Sheared-LLaMA series, pruning the LLaMA2-7B model down to 1.3B and 2.7B parameters. Sheared-LLaMA models outperform state-of-the-art open-source models of equivalent sizes, such as Pythia, INCITE, and OpenLLaMA models, on a wide range of downstream and instruction tuning evaluations, while requiring only 3% of compute compared to training such models from scratch. This work provides compelling evidence that leveraging existing LLMs with structured pruning is a far more cost-effective approach for building smaller LLMs.
Аноним 16/10/23 Пнд 23:32:57 521777 312
>>521758
сделать это с лучшим фантюном мистраля и отдать франкенштейнам на прокачку - потом обратно отдать и на выходе получить неквантованную модель равную или лучше этому файнтюну с оригинальным размером под 7-8 гб и 2b
Profit
мечты конечно но чую так и попробуют сделать
Аноним 16/10/23 Пнд 23:53:47 521789 313
>>521675
>Ну и да - имеет ли смысл впихивать в System Prompt что то вроде {{char}} doesn't try to be tolerant, always uses common sense and doesn't shy away from being sexist. Или бесполезная шиза, а может не так сформулирована?
В system prompt по-моему вообще ничего не имеет смысла пихать. Маленькие модели все забывают через тысячу-другую контекста, большие не забывают но в зависимости от диалога образуется некоторая склонность, которая пересилит системный промпт. Если хочешь задать поведение, то пихай в author's note на глубину 1. Ну и пиши проще. "always uses common sense " - это из разряда "пиши хорошо, не пиши плохо". Если хочешь сделать персонажа-сексиста, то пиши прямо: "{{char}} is sexist". И как уже написали, старайся не использовать отрицания.
Аноним 17/10/23 Втр 00:15:24 521817 314
https://github.com/xXAdonesXx/NodeGPT
блядь что то технологическая сингулярность начала слишком быстро приблежаться последнее время
Аноним 17/10/23 Втр 00:37:33 521834 315
>>521817
Это че, типа chatgpt прикрутили к comfiui? Такое уже давно есть для автоматика

В описании написано оно не работает с локальными моделями, только через симуляцию openai api разве что. Для автоматика есть расширение if_prompt_mkr, которое напрямую с text-generation-webui работает

При чем тут твоя шиза про технологическую сингулярность? Автоматизированный ctrl-c ctrl-v между двумя программами
Аноним 17/10/23 Втр 00:46:06 521846 316
>>521834
Всегда забавляет, что человек который не понимает о чем ты говоришь считает дураком тебя, а не себя

Сейчас не работает с локальными нейронками, завтра работает, че ты как маленький прям.
Это просто пример технологии которая еще сильнее ускорит разработку новых технологий.
Аноним 17/10/23 Втр 00:58:58 521849 317
>>521817
Так-то это реально то, чего нехватало для подобных любительских разработок агентов, обработчиков и прочего. Вроде интересно, но когда начинаешь думать что это придется закодить, отладить а потом шатать - находит уныние, проще на хорошей модели покумить. А тут лапшу натянул и понеслась.
>>521834
Там есть выбор апи, сделать кобольд/хубабуба совместимый - херня.
Аноним 17/10/23 Втр 01:10:57 521857 318
>>521849
Одному трудно и дорого, а в вот любой команде со своим сервером на несколько видеокарт это прям свой минигпт4 который можно настроить на что угодно. Это пиздецки удобная штука польза от которой будет расти вслед за улучшениями нейронок. А они щас как раз ускорили свое развитие. Это улучшение эффекивности любых рутинных задач из коробки, только немного допили и настрой.
Аноним 17/10/23 Втр 01:19:27 521864 319
>>521857
> Одному трудно
А кому сейчас легко? Но к твоим услугам все впопенсорц комьюнити, схемы и реализации, которые покажут эффективность, заимеют свою оптимальную имплементацию, а возможность настроить под свои задачи действительно отличная. А по перфомансу - 70б раз крутятся значит и такое взлетит.
Ну и сюда же хоть прямо сейчас взаимодействие с диффузией, правда офк много допилить или кастомных нод наделать придется.
Аноним 17/10/23 Втр 01:27:55 521870 320
>>521864
уже вижу угабугу или что то подобное на котором запущены и настроены одновременно графика текст и аудио и связаны в единую сеть, которая управляется несколькими мультимодальными агентами и все это локально и полностью под твоим контролем. Пиздец.
Аноним 17/10/23 Втр 01:35:55 521877 321
>>521846
Я писал про то, что таких расширений с локальными моделями уже достаточно, это не новое, и ни разу не технологическая сингулярность. Что ты тут такого серьёзного увидел?

>>521849
> Там есть выбор апи, сделать кобольд/хубабуба совместимый - херня.
Ну я про это ж тоже написал. В text-generation-webui расширение openai для имитации апи. Проблема в том, что оно не полностью совместимо. С расширением автоматика sd-chat-gpt не заработало, not implemented error

Еще раз ответьте, шизы, как автоматизированный ctrl-c + ctrl-v уничтожит человечество за секунду?
Аноним 17/10/23 Втр 01:40:06 521879 322
>>521870
Верно. Уже сейчас можно угабугу и автоматик заставить одновременно работать так, чтобы ты голосом общался, оно голосом отвечало, распозновало и генерировало картинки. Или можно заплатить подписку на приложение OpenAI в телефоне, там тоже такой функционал завезли

И как из этого следует сингулярность? Вопрос к тем, кто про эти фантастические бредни вбросил
Аноним 17/10/23 Втр 01:51:22 521882 323
>>521877
> таких расширений с локальными моделями уже достаточно, это не новое
Линк в студию на средство или расширение, с помощью которого можно подобным образом лапшой или с другим удобным графическим интерфейсом устраивать взаимодействие llm. И чтобы еще можно было легко и удобно вписывать туда свои блоки и прочее.
>>521879
> угабугу и автоматик заставить одновременно работать
Ну это не то, коряво генерить пикчи запросами по апи или скидывать в текст то что выдал clip? Развлекалово, с которым пердолишься больше чем пользуешься. Тут же любое взаимодействие и вмешательство на любом этапе и выстраивание любых схем. Из приземленных примеров - реализация прототипирование оптимизации послушности запроса диффузией на уровне далли3, расширение функционала (пример в той репе), на порядки более качественное и четкое визуальное сопровождение чатов, консилиум шизомиксов о том в какую сторону дальше кумить, и подобное, но просто-быстро-удобно.

Офк до сигнулярности далеко, но подобного не хватало. Главное чтобы дев не проебался.
Аноним 17/10/23 Втр 02:04:22 521885 324
>>521879
По фактам тебе уже ответили, ну и добавлю что вся эта стстема еще и многопользовательской может быть.

Еще раз, это просто пример технологии которая ускорит развитие других технологий, которые ускорят развитие других технологий и так далее. Это не сингулярность, но подобные удобные технологии это очередной шаг ускоряющий ее приближение.
Аноним 17/10/23 Втр 02:15:51 521889 325
>>521882
> удобным графическим интерфейсом устраивать взаимодействие llm. И чтобы еще можно было легко и удобно вписывать туда свои блоки и прочее.

> Тут же любое взаимодействие и вмешательство на любом этапе и выстраивание любых схем

А, ну типа визуальное программирование с llm - прикольно. Я правда представить не могу куда именно это надо впихнуть, чтобы модель как-то контролировало диффузию. Это ж всё-таки не кисточкой возить

> > угабугу и автоматик заставить одновременно работать
> Ну это не то, коряво генерить пикчи запросами по апи или скидывать в текст то что выдал clip? Развлекалово, с которым пердолишься больше чем пользуешься.

Ну да. А разве это может обернуться чем-то большим? Кстати про распознание выше писали, мультимодальные модели могут не только описывать изображение, а ответить на вопросы по нему или выполнить задание

> на уровне далли3

Вижу я, какой там уровень... Там кстати модель используется gpt-3 12b. Вполне на уровне легких llm которые тут массово используют

И что, там якобы не просто генерация более уточненного промпта с помощью gpt, а он непосредственно рисует, опираясь на свое языковое изображение?

> четкое визуальное сопровождение чатов, консилиум шизомиксов о том в какую сторону дальше кумить, и подобное, но просто-быстро-удобно.

Ну в этом плане да, перенести плюсы Комфи на llm. Но топикстартер про сингулярность писал

> Офк до сигнулярности далеко

Если она далеко, значит это уже не сингулярность.

> Главное чтобы дев не проебался

Думаю даже черед годик с опенсорсными моделями прогами использующие локальные модели будет на голову лучше. А в перспективе лет 10-20 тем более. Кто ж их душить будет? Gpt и dall-e уже потолка технологии почти достигли
Аноним 17/10/23 Втр 02:18:13 521891 326
>>521885
Да что блять за сингулярность, что она приближает? Боевые андроиды? Гипер разум, распростроняющийся по вселенной? Как вообще разум, обученный на человеческих книгах, может стать чем-то не похожим на автора этих книг?
Аноним 17/10/23 Втр 02:29:34 521895 327
>>521891
Ты хоть гуглил что это? Сингулярность тут когда технологический прогресс ускорится настолько что никто не сможет понять что происходит. Тоесть когда скорость выхода новых улучшений и открытий превысит возможности людей их осознать. Для нее еще нужно появление настоящего саморазвиваюющегося ии, когда перестанут понимать что происходит даже лучшие специалисты своей области.
Но просто приближение к сингулярности это ускоряющийся рост различных технологий, что сейчас и поисходит.
Аноним 17/10/23 Втр 02:45:41 521900 328
>>521895
> Тоесть когда скорость выхода новых улучшений и открытий превысит возможности людей их осознать

А, в таком смысле сингулярность произошла 20 лет назад


> никто не сможет понять что происходит

Ты имеешь ввиду боевых андроидов на космических кораблях, которые месяца за 3 конвертируют все ресурсы земли, описраясь на придуманные ими же сверж технологии, берут и пиздуют бороздить галактику? Но сначала перестраивают просто Землю под себя, запирая всех людей по клеткам с тиктоками, танслирующимися напрямую в мозг

Или просто что ни останется человека, который понимал бы технологии полностью? Это произошло лет 20 назад. Если не раньше
Аноним 17/10/23 Втр 02:52:13 521903 329
Как узнать какой максимальный контекст модель поддерживает?
Аноним 17/10/23 Втр 02:55:00 521904 330
>>521900
Пока науку двигают люди специалисты - они в курсе что происходит и сингулярности еще нет. Но чем меньше людей смогут экстраполировать происходящее - тем ближе сингулярность. Когда скорость выхода знаний перекроет понимание даже лучшего специалиста в своей области - мы в сингурярности и уже никто не будет знать что происходит и к чему это ведет. И никогда не поймет потому что саморазвивающиеся системы будут только ускорять развитие своих технологий.
Поэтому и я не знаю что будет после сингулярности, это точка после которой никто не может экстраполировать развитие технологий или изменений в мире.
Аноним 17/10/23 Втр 03:02:12 521905 331
>>521496
По человечески душнина, собрал по старому рецепту для clblast, а вот нет сука для cuda ебаться нужно через другой компилятор. В лом сейчас делать это по второму кругу
Аноним 17/10/23 Втр 03:10:55 521906 332
Фантазеры.жпг

>>521900
> ни останется человека, который понимал бы технологии полностью? Это произошло лет 20 назад
Чтобы один человек понимал все - такого не было никогда. А упереться в край сейчас ну очень легко если работаешь в какой-то области, буквально несколько лет, и по всему миру людей с которыми можно что-то узкое обсуждать можно собрать в одной комнате или вообще пересчитать по пальцам. Проблема еще в том что при продвижении сложность растет в геометрической прогрессии, причем многое из этого - всратая рутина или тупиковые пути, новые подходы и инструменты нужны чтобы не топтаться на месте, а не куда-то убегать в развитии.
>>521904
> перекроет понимание даже лучшего специалиста в своей области
То что скорость понимания тоже будет расти не смущает?
>>521903
В ней написано обычно. Для дефолтной второй лламы 4к, в 2-3 раза растягивается без заметных потерь.
Аноним 17/10/23 Втр 03:14:00 521907 333
>>521904
Ни один специалист из Nvidia, работающий непосредственно над архитектурой процессоров, не знает досконально как работает, например, ядро linux, например. В общих чертах конечно знает, но это не считается, так как знаний в общих чертах не достаточно для понимания того, что происходит. Этого достаточно только для того, чтобы чувствовать себя комфортно.

Честно я вообще боюсь, как бы уже нет специалиста в такой компании, понимающего весь процесс. Учитывая то, что там такие сверхразумы поставлены на поток, и это буквально элитный завод. Но это лишь опасения, скорее всего они, разумеется, есть

Ну а если взять более далекую отрасль от инженера, проектирующго процессоры. Например бизнес, он тоже двигает прогресс. Инженер в этом полный ноль. И кстати, крупные корпорации - это даже не люди, так как топ менеджеры, директора, владельцы приходят и уходят, а корпорация, как абстрактный объект, продолжает отстаивать свои интересы, а ничьи другие. И власти у этого алгоритма, состоящего из внутрикомпанейских бумажек, отстаивающего свои интересы, куда больше, чем у любого отдельно взятого человека
Аноним 17/10/23 Втр 03:17:05 521909 334
>>521906
>То что скорость понимания тоже будет расти не смущает?
Ты думаешь скорость обучения человека не имеет пределов? Давай освой за пол часа совершенно левую специализацию полностью. А потом мы поговорим с этим сверхсуществом о природе бытия.
Аноним 17/10/23 Втр 03:20:27 521911 335
>>521909
Ну слушай, какой можно быть предел в системе, которая адаптируется к масштабу. Существует только предел точности
Аноним 17/10/23 Втр 03:23:16 521912 336
>>521907
Это все так. Но, пока люди могут предстказать развитие ситуации все норм. Если специалист как рыба в воде в своей области и может там ориентироваться предсказывая какие то тенденции - сингулярности еще нет. Впрочим для отдельного человека она возникакт когда он перестает успевать за прогрессом даже при текущих скоростях.
Пока люди хотя бы приблизительно понимают как работает организация - она предсказуема.
Аноним 17/10/23 Втр 03:25:43 521915 337
>>521911
Воо просто представь что никто не успевает осознать изменения в своей области, а они все ускоряются. Как ты это победишь?
Аноним 17/10/23 Втр 03:26:20 521917 338
>>521907
> В общих чертах конечно знает, но это не считается
Общие черты как раз считаются, они, как уровни абстракции, необходимы для нормальной работы. Специалисту не нужно знать все, достаточно определенного уровня погружения в соседние области и навыка обучиться новому или правильно взаимодействовать с другим специалистом. Ну рили не работал а только в офисе просиживал, читая романы про антиутопии?
>>521909
> скорость обучения человека не имеет пределов?
Странная формулировка чтобы демагогию разводить? Нет не имеет, сейчас пиздюки проходят за пару уроков то, на что у средневековых математиков уходили годы, а их предки о таком и помыслить не могли. Простор для оптимизации и ускорения обучения впереди просто запредельный, все больше упирается в социализацию.
> Давай освой за пол часа совершенно левую специализацию полностью.
Зачем и к чему это? Лучше сходи и предъяви супернаносеку за то что тот хуйло неграмотное и асму не знает, а значит не программист! Более эффектно и уместно.
> бытия
Чтобы о нем говорить нужно хотябы иметь общее понимание.
Аноним 17/10/23 Втр 03:26:42 521918 339
>>521909
>>521911
Добавляю, а в предел по точности, то есть с какой точностью разбираться восем и сразу, упереться сложно. Представь переменную типа float, у него предела по бесконечным числам нет. Понятное дело число между условно 210^9 и 2.000000110^9 выразить им нельзя, но и нет таких задач, где это было прям жизненно необходимо
Аноним 17/10/23 Втр 03:30:01 521920 340
>>521915
Не получается представить. Если люди не осознают изменения, значит изменений нет. Ну а если ты имеешь ввиду, что их имплиментирует ии, а не человек, значит отрасль заключается не в том, что ты имел ввиду, а в том, чтобы пасти нейронки
Аноним 17/10/23 Втр 03:39:11 521921 341
>>521920
Ну то есть можно договориться, что технологическая сингулярность = устранение всех высоко развитых по текущим меркам отраслей. (И заменой их на еще более развитые на мой взгляд)

В таком случае можно сказать, что для обывателя из хуй пойми какого древнего века, технологическая сингулярность произошла в момент изобретения паравого двигателя, и заменой физической силы человека на моторы
Аноним 17/10/23 Втр 03:39:12 521922 342
>>521920
Но изменения есть, людям рассылаются готовые работы, просто их появляется больше чем они успевают прочитать и понять, и скорость их появления будет увеличиваться.
И каждая вызывает революцию пероворачивающую представления людей о том что возможно и том как устроен мир.
И никто не готов ни к появлению информации ни к ее последствиям. И все это одновременно и со все возрастающей сложностью и скоростью. Всё, сингулярность. Теперь никто ни в чем не уверен, а мир одновременно непредсказуемо меняется одновременно во всех областях
Аноним 17/10/23 Втр 03:44:31 521924 343
>>521921
Ну да, пока этот древний человек не понимает как устроен новый мир для него настигла сингулярность. Вот только он смог бы за месяцы-годы понять как он устроен и его тенденции хотя бы приблизительно. В сингулярности которая создается саморазвивающимся ии ни один человек никогда не поймет.
Аноним 17/10/23 Втр 04:06:29 521931 344
Скорость приближения к сингулярности экспоненциональна, поэтому изза заметно ускорившегося за последнее время технологического прогресса многие ученве считают что эта переломная точка может возникнуть в ближайшие 10 лет. Я наблюдая за все ускоряющейся технологией ии поставлю года на 2 с такими темпами ускорения. Напоминаю оно не линейное.
Аноним 17/10/23 Втр 04:31:00 521933 345
Где-нибудь есть гайд по лорбукам для таверны? Мне он срёт в промпт ВСЕГДА, и асболютно невпопад.
Аноним 17/10/23 Втр 04:47:41 521934 346
1697507261095.png 2Кб, 210x35
210x35
>>521933
Извините я тупой...
Аноним 17/10/23 Втр 05:35:13 521941 347
Аноним 17/10/23 Втр 06:06:58 521944 348
Какую модель взять чтобы осиливала несложную текстовую рпг (понимала что нужно выводить интерфейс и менять его по ситуации), и чтоб влезала в 12+32 видео+оперативки с контекстом от 8к?
Аноним 17/10/23 Втр 06:31:10 521948 349
Аноним 17/10/23 Втр 06:32:03 521949 350
>>521904
>что будет после сингулярности
Будет ласковый дождь
Аноним 17/10/23 Втр 06:56:11 521954 351
>>521941
>а как в угабуге загрузить ГГМЛ?
Через llama.cpp
Аноним 17/10/23 Втр 06:58:35 521955 352
>>521944
>понимала что нужно выводить интерфейс и менять его по ситуации
Я такое ещё на Пигме 6В делал лол.
А вообще любая Лама должна +- справиться. Пробуй последние модели 13-20В.
Аноним 17/10/23 Втр 07:12:45 521965 353
>>521870
>на котором запущены и настроены одновременно графика текст и аудио и связаны в единую сеть
Это уже пол года как умеет сили таверна.
Аноним 17/10/23 Втр 07:14:10 521968 354
Аноним 17/10/23 Втр 07:39:26 521981 355
Аноним 17/10/23 Втр 08:11:41 521992 356
волк-Приколы-дл[...].jpeg 55Кб, 777x430
777x430
>>521905
>душнина
Выкладывай!
Аноним 17/10/23 Втр 10:34:57 522085 357
>>521870
> графика текст и аудио
Always has been, я давно это вижу и пользуюсь, и что? =D
И убабуга, и таверна такое с весны умеют.
Ты начал с прошлого, из-за это плохо впечатляет будущее.
Попроси нейросеть написать этот текст за тебя. =)

>>521882
> Развлекалово, с которым пердолишься больше чем пользуешься.
Ниче себе переобувалово. =D Ты буквально написал про взаимодействие — оно есть. Факт.
Ну и плюс, опять же, полгода или больше существует полностью мультимодальная llava. И шо?

Ты либо про LLM пиши, либо про мультимодалки, либо про взаимодействие разных — это три разных вещи. А ты в одну кучу мешаешь и спрашиваешь — где. Очевидно, в твоей подаче — нигде, ибо это противоречит законам мироздания и логики. =) А если ты выберешь что-то одно — то llm ты принес, умничка, а остальное было уже давно.

Про сингулярность все че-то не к месту бугуртят, художественный прием же.

>>521907
Да ладно, думаю есть и такие. =) Я сам часто (в смысле, по сравнению с тем, что можно ожидать) встречал людей, которые шарили прям за все, и прям на уровне.
Думаю, в крупных корпорациях есть гении, которые знают все вообще в своей и смежных областях.
Но это исключения, конечно, большинство и правда специализируются на своем.

Остальной спор скипнул, он какой-то прям вообще не о том.
Один говорит про человека, другой про человечество… о разных вещах спорят, нафиг надо. Не читал, но осуждаю.
Аноним 17/10/23 Втр 10:37:47 522086 358
>>521931
Ставлю на 40 лет, а все нынешние псевдоИИ нихуя нового всё равно не производят.
Аноним 17/10/23 Втр 11:42:37 522111 359
>>521992
Ладно кому нужно запилил небольшой гайд для сборки koboldcpp с opencl оптимизацией под комп. Проверяйте вроде быстрее стало, если какие проблемы пишите подправим.

https://rentry.co/k9n5e
Аноним 17/10/23 Втр 12:21:22 522142 360
>>521944
В принципе любая 13б, только придется добавить в промт описание интерфейса и примеры сообщений с ним. Если в первом посте не отрисует - свайпнуть пока не появится.
>>521965
Это не тот уровень, выдача примерного набора тегов ради рандомного результата в диффузии, или вялый clip, который преобразует пикчу в "a painting of girl in the street, she has a long black hair and wearing dress". Большие сложности с точным созданием картинки, отсутствием фильтрации артефактов, проебов, и т.д. какой вырвиглаз вылез - тот и жри. Почти полное отсутствие возможности извлечь информацию из пикчи кроме совсем общей, годно лишь чтобы бот сказал "вах как красиво пошли любить друг друга". А вот если сделать приличный пайплайн с привлечением мультимодалочки ко всему этому, то уже совсем другие возможности, потом уже можно оптимизированную реализацию в таверну пихнуть чтобы не отвлекаться и наблюдать уже около полноценную вн по контексту а не трехногих с рандомным костюмом.
>>522085
> Ниче себе переобувалово. =D
Шиз, съеби в дурку уже. Суть ясно описана, а ты тут лезешь со своим "рряяя я синтез голоса юзаю и это оно, зачем переобуваетесь". Раз так жопа свербит со всеми воевать и что-то доказывать - займись специальной олимпиадой в подходящем месте.
>>522111
Неплохо, предложи в репу добавить.
Аноним 17/10/23 Втр 12:34:43 522151 361
>>522142
> займись специальной олимпиадой в подходящем месте.
Ну ты читай внимательно: я скипнул вашу шизу. =) Так что не зови, развлекайтесь сами в этой дисциплине.

А вот съебать — хороший совет, рекомендую вам обоим последовать этому совету и свалить из треда. =) Сритесь где-нибудь в другом месте, а то охуеть интересно читать несвязные простыни срача от людей, которые в чем-то случайно правы, но нихуя не шарят в том, о чем говорят.

Тупо новые треды генерируете раз за разом со своей шизой.
Аноним 17/10/23 Втр 13:45:46 522185 362
Аноним 17/10/23 Втр 13:52:43 522187 363
Аноним 17/10/23 Втр 14:12:34 522193 364
>>522185
Надеюсь меня с ним не путают 😥
Аноним 17/10/23 Втр 14:18:59 522198 365
>>521955
>>522142
Но у лам ведь максимум 4к контекста? Или я путаю?
Аноним 17/10/23 Втр 14:27:36 522204 366
>>522193
😱 А что если мы путаем себя с собой?

>>522198
Можно растянуть по альфе, будет больше, но чуть хуже по качеству.
У Мистрали 32к.
Аноним 17/10/23 Втр 14:40:03 522216 367
>>522086
А ты бля че лично нового происводищь? Ни-ху-я, как и 90% людей
Аноним 17/10/23 Втр 14:50:29 522223 368
>>520690
> MLewd-ReMM-L2-Chat-20B-Inverted.q6_K
А в чем отличие обычной от Inverted версии?
Аноним 17/10/23 Втр 15:00:32 522233 369
>>522216
Между 10% (на самом деле 0,0001%) людей, которые двигают мир впердю, и 0% ИИ, которые двигают мир впердю, разница колоссальная.
Аноним 17/10/23 Втр 15:21:38 522250 370
Аноним 17/10/23 Втр 15:24:21 522252 371
изображение.png 663Кб, 1462x1235
1462x1235
>>522223
Хз. Мне просто больше нравится. Тут, конечно, сейчас набегут и начнут про слои рассказывать, как всё смешано, и про кванты, но я пробовал и ту и другую, и эта мне показалась адекватней. Чисто субъективное мнение.
А так на время не смотри, тут контента уже далеко за 8к. 82-е сообщение, и всё равно адекватно отвечает.
Аноним 17/10/23 Втр 15:32:48 522255 372
>>522252
> savoring the connection
Блин, со второго же предложения!
Аноним 17/10/23 Втр 15:42:00 522258 373
>>522255
Че сразу триггерит?
Аноним 17/10/23 Втр 15:43:40 522259 374
Аноним 17/10/23 Втр 15:44:10 522260 375
>>522252
Любая не-рп модель адекватно отвечает на большом контексте. Даже Мистраль может вести диалог спустя 100 постов и не забывать ничего.
Но на твоём скрине аж бинго можно составлять.
> скобки
> ответы за юзера
> прогрессирующий таймскип на последних параграфах
> 10 минут на ответ
> классическая вода про boundaries и абстрактные соевые чувства
Аноним 17/10/23 Втр 15:44:45 522261 376
Аноним 17/10/23 Втр 15:55:17 522266 377
>>522261
Тем не менее позволишь раз в тему, будет пихать всегда. В целом ощущение как от дамского романа, особенно в центре и в последнем абзаце
Аноним 17/10/23 Втр 16:07:05 522272 378
https://huggingface.co/spaces/artificialguybr/qwen-vl
Интересная сетка, вроде цензура есть словами. Но фотки хоть порно кидай все тебе расскажет что там, видно цензура где то в первых слоях.
Аноним 17/10/23 Втр 16:21:48 522282 379
>>522266
Это уже вопросы к анону, пишет что нравится и видимо уже давно так общается. Судя по всему сетка следует контексту который ему зашел. Так да, если не срубить сразу то начнет писать не в той плоскости
Аноним 17/10/23 Втр 16:28:01 522289 380
>>522282
Если и рубить клетки, то всё равно будет пихать свои бонды клетки, из-за её датасета связаны. Это и есть та самая страшная соя связаны, только терпеть и остаётся клетки связаны внутри
Аноним 17/10/23 Втр 16:32:57 522293 381
>>522289
В некоторых нету
Аноним 17/10/23 Втр 16:41:36 522306 382
>>522198
Тренировались с таким, разработаны методы растягивания для условно любых моделей на трансформерсах и ими стоит пользоваться.
>>522193
Там обязательное требования быть уязвленным и высрать полотно не в тему.
>>522187
>>522250
♥♫♪♪~~
>>522252
Это попросил через ooc накидать продолжение/заключение, или оно само убежать решило? Если первое то неблохо когда нет музыкального байаса, если второе то дичь.
Аноним 17/10/23 Втр 16:59:58 522318 383
>>522151
>я скипнул
тоесть ты нихуя не понял и не прочитал даже, но делаешь выводы что тема не относится к ии и локальным сеткам? доказывай давай, пиздеть все горазды
Аноним 17/10/23 Втр 17:33:13 522328 384
>>522306
>Там обязательное требования быть уязвленным и высрать полотно не в тему.
Помоги настроить автоскрытие постов, в которых есть бугурт от попоболи.
Аноним 17/10/23 Втр 17:40:01 522335 385
>>522328
Берешь сетку и настраиваешь оценку постов по настроению, так все щас делать будут, цензура всем и пусть никто не уйдет обиженным.

Забавно конечно читать о желании ввести автоцензуру в теме где эту самую цензуру в сетках ненавидят, как всегда двойные стандарты
Аноним 17/10/23 Втр 17:55:35 522346 386
>>522335
Рекомендую тебе настроить свою нейросетку на детектор сарказма если конечно это не моя сетка тупит, не заценив уже твой сарказм.
Аноним 17/10/23 Втр 18:00:32 522351 387
>>522346
Времена такие, толи сарказм то ли дурка, хрен поймешь уже
Аноним 17/10/23 Втр 18:10:12 522358 388
>>522204
> Можно растянуть по альфе, будет больше, но чуть хуже по качеству.
>>522306
> разработаны методы растягивания для условно любых моделей на трансформерсах и ими стоит пользоваться.
Где почитать?
Аноним 17/10/23 Втр 18:15:58 522368 389
Аноним 17/10/23 Втр 18:28:29 522379 390
>>522351
Нужно натаскать нейросетку на распознавание пост-мета-сарказма и пост-мета-дурки.
Аноним 17/10/23 Втр 18:50:20 522388 391
>>522252
И в карточке чей-то отзыв о ее великолепности.
Поверю вам, скачаю, попробую.

>>522260
> скобки
=)

Мистраль-то понятно может.
А мы тут про рп, вроде как.
Хотя ответы за юзера не кайф, конечно, но это мы проверим.

>>522306
А я-то чем уязвлен, если я в вашей олимпиаде даже не участвовал, и вы друг на друга срали? :)

>>522318
Хрюкнул от смеха. =D
Я буквально написал «не читал, но осуждаю», как ты через два ответа умудрился сам это понять? х)
Ну и я не говорил, что это не имеет отношения. Я сказал, что люди спорили о двух разных вещах, из-за чего спор в контексте треда — хуйня.

Один дебич с двух ног влетел в «сингулярность близко!», пояснив это аргументами полугодовалой давности, и не выразив пользу того, что притащил. Его заакидали говном за косноязычие. Потом, кто-то из дебичей начал аргументировать к тупизне отдельного индивидуума, а другой оспаривать, мол человечество в сумме гениально (что вообще никак не противоречит друг другу). И дальше я эту трешню читать не стал. Как шиза двух дебичей касается ИИ — я хз.
Хочешь ответ? Ну на:
Техническую сингулярность в поэтическом смысле приближают уже не эти открытия, а еще первая и вторая лламы и стейбл диффужн. А с тех пор все ускоряется. Взаимодействие двух нейросеток — круто. Готовый инструмент, да. Аргумент про то, что самому выдумывать лень, а взять готовые и использовать в проекте — верен. Но не то чтобы это сильно приближало сингулярность. Утверждения про то, что нейросети нынешние никак не участвуют в прогрессе — ложь. Но они не двигают его самостоятельно, их применяют для ускорения поиска и отсева вариантов сами люди. Тем не менее, вклад есть. Один человек не может потреблять и осознавать информацию много и быстро, этому есть предел. То, что древние люди познавали долго, а человек сейчас познает быстро — это связано с тем, что они открывали, а мы обучаемся. Плюс, мы стали чаще специализироваться на чем-то. Так что на долгую дистанцию человек вполне может проиграть машине в скорости развития. Но человечество как система имеет почти неограниченный потенциал, как раз благодаря узким специализациям, поэтому тут мы еще можем обходить ИИ на поворотах. Однако, загадывать бессмысленно — высок фактор случайности.
И я хз, о чему тут принципиально можно спорить, мысли довольно простые и очевидные. Не спор, а трата постов в треде.

>>522328
Ты же его потом читать не сможешь. =)

>>522335
Обиженки будут сидеть в пустых тредах и писать шизу самим себе.
Ну а чо, зато они нервы сберегут. =) Было бы неплохо для таких еще отдельный тред делать, чтобы они адекватным людям не мешали общаться по сути.

>>522379
Забыл реверс.
Мета-реверс-пост-сарказм.
А то вдруг. =)
Аноним 17/10/23 Втр 18:53:32 522391 392
изображение.png 42Кб, 1531x379
1531x379
Аноним 17/10/23 Втр 18:55:08 522392 393
>>522388
> =) =D :)

Хуясе у тебя там пассивная агрессия, сходи потрогай траву
Аноним 17/10/23 Втр 18:56:29 522394 394
>>522388
> А мы тут про рп, вроде как.
В РП любая instruct-модель может, если промпт рпшный, но при этом не ломаются так кринжово.
Аноним 17/10/23 Втр 19:01:16 522400 395
>>522392
у него и . полно
просто пиздец сразу видно девушки у него нет и никогда не было
Аноним 17/10/23 Втр 19:02:29 522401 396
>>522388
>И в карточке чей-то отзыв о ее великолепности.
Хз, как другим зайдёт, но это моя любимая карточка. Очень колоритный персонаж.
Аноним 17/10/23 Втр 19:13:11 522408 397
>>522392
Хуя у тебя глюки, сходи выпей таблетки. =)
Ноу оффенс, это шутка, если че вдруг, а то тут без табличек не понимают.

Это не пассивная агрессия, просто кекно люди хуйню несут.
А я как раз спокоен, живу в сельской местности, траву трогаю.

Кстати, без рофлов — отличный в своей сути совет для многих людей. Мне нравится гулять, любоваться облаками, касаться растений. Не крупные города не люблю.

А по поводу пассивной агрессии — никогда не понимал, почему люди как агрессию воспринимают смайлики, или знаки препинания. Типа, вот если ты ставишь точки — значит ругаешься.

Вон, вижу у тебя запятую, зачем ты агрессируешь на меня? =D
Это тоже шутка, если вдруг не ясно из контекста.
Аноним 17/10/23 Втр 19:15:03 522412 398
>>522400
Ахахаха, сук, ну я ж говорил. )
Сразу видно, обиженка, проецирующий свои проблемы на других.
Сочувствую тебе, кстати.

>>522394
Возможно. Я свой промпт написал, но, боюсь, хуйня перегруженная.
Ох уж эти поиски идеального варианта…
Аноним 17/10/23 Втр 19:20:08 522421 399
>>522388
>Хочешь ответ? Ну на:
Молодец, хороший ответ. Вот видишь, можешь когда хочешь.
Ну так и началось это все с попытки объяснить хлебушкам что такое ускорение технологического прогресса и как это связано с технологической сингулярностью.
Люди узнали что то новое, че тебе не нравится? Это же не банальный срач ты дурак нет ты дурак.
Тема напрямую связанная с ии и локалками. Потому что с распространением умных локалок все это и ускорится еще сильнее.
Аноним 17/10/23 Втр 19:23:35 522425 400
>>522421
> Вот видишь, можешь когда хочешь.
Я написал пиздец очевидные вещи для детей.
Я не хочу их писать, я не репетитор.

> Люди узнали что то новое, че тебе не нравится?
Бля, ну как бы аргумент, да.
Но я не уверен, узнали ли они, или просто посрались.
Короче, я скептически настроен, но смысл был, ок. В идеальном мире это было полезное для кого-то обсуждение.
Аноним 17/10/23 Втр 19:24:20 522428 401
>>522421
> ускорение технологического прогресса
Где тогда мой высокотехнологичный умный кастомизируемый фембот-ассистент?
Аноним 17/10/23 Втр 19:25:06 522431 402
>>522428
Ну теслаботы если появятся то жди от китайцев предложений хах
Аноним 17/10/23 Втр 19:28:28 522434 403
>>522431
Сколько ждать то? Все хайп вокруг прогресса, сингулярности, выхлоп где? Офк все может обернуться не так как предсказывали, например за продуктами/едой в итоге ходит не робот а привозит ержан, но базированные вещи где?
Аноним 17/10/23 Втр 19:40:41 522442 404
>>522434
>привозит ержан
Люди будут дешевле роботов, так что жди начальника бота который будет ебать тебя по кпи следя за каждым шагом. Как собственно в амазоне уже.
Аноним 17/10/23 Втр 19:48:42 522447 405
>>522431
Так там уже есть. =) Особенно рекомендую на Ex Robots позалипать.
Еще неизвестно, кто раньше выпустит, кек.
Аноним 17/10/23 Втр 19:52:40 522451 406
>>522447
Заебато, но пока выглядят как крутые двигающиеся по скриптам куклы. Вот туда бы управление нейронкой и мультимодальную сетку на обработку видео-аудио потока, и управление телом ей же, ух бля
Аноним 17/10/23 Втр 20:39:30 522502 407
>>522442
> Люди будут дешевле роботов
Это поэтому автоматизируют склады, конвейеры роботизируют, на западе уже запущено беспилотное такси?
> по кпи
Страшные вещи про них рассказывали. Так что роботы, что тп из отдела паразитов - разницы нет. Нужен мемас ебать роботов? x быть выебанным роботом? v
>>522451
> управление нейронкой и мультимодальную сетку
Представил переполнение контекста в самый разгар процесса и обзмеился.
Аноним 17/10/23 Втр 20:50:44 522511 408
>>522502
>Это поэтому автоматизируют склады, конвейеры роботизируют, на западе уже запущено беспилотное такси?
Это как раз норм, как и производственные роботы. Анон спрашивал о человекоподобных ботах, а таких врятли будут клепать так же как в детройт, кожаный мешок практически всегда будет дешевле.
Аноним 17/10/23 Втр 20:57:21 522516 409
>>522511
Тут, как говорится, depends. Офк вместо того чтобы что-то подобное делать - проще перенести производство туда где дешевле, да еще при это выпендриваться что помогаешь развивающимся странам. Тут же про вполне конкретный коммерческий продукт в виде ассистента/компаньона, для подобного мешок не альтернатива или ну очень дорог.
Аноним 17/10/23 Втр 21:12:23 522549 410
>>522516
Очень дорогая игрушка - да. Проще бестелесного помощника выпускать в виде расширения подключаемого к системам офиса или умного дома. Такой джарвис на минималках. Но опять же скорей всего это будет подпиской к сервису как гпт4. Ну может на локалках когда то сделают.
Это конечно и сейчас есть, только тупые и не особо полезные. Допилят, уже все к этому идет.
Аноним 17/10/23 Втр 21:24:26 522562 411
>>522549
> Такой джарвис на минималках
> Алиса, закрой шторы, включи спокойную музыку и повтори прошлый заказ еды
Вы находитесь здесь.
Но это таки не то, нужна игрушка что делала бы действия по дому, выполняла действия высокого уровня, позволяла общаться и физически взаимодействовать, ну и модный аксессуар в конце концов. По факту же сделать что-то не уберкринжовое, кривое и странное сейчас невозможно и дело даже не в нейронках.
Аноним 17/10/23 Втр 21:29:48 522572 412
>>522562
>Вы находитесь здесь.
Повторить заказ еды оно вроде как не может? Ну или если только иметь хуй в жопе и заказывать в яндекс-еде, иметь яндекс колонку, яндекс шторы и яндекс музыку.
Аноним 17/10/23 Втр 21:30:29 522574 413
>>522562
>Алиса, закрой шторы, включи спокойную музыку и повтори прошлый заказ еды
>Вы находитесь здесь.
Скрипты без доли интеллекта. О чем и речь, удобная но тупая штука. Когда сможет как в "Она" сортировать почту, файлы и заполнять документы, тогда будет топ. То есть это должен быть хоть какой то интеллект принимающий решения а не просто скрипты включающиеся триггером.
Этого пока нет, но подвижки есть.
>нужна игрушка что делала бы действия по дому,
возвращаемся к детройту, это там полубомж может купить себе бота, тут он будет стоить как крыло самолета
как тесла в начале, потом может собьется до десятка тыщ долларов.
И не забывай, никто не продаст тебе такую штуку без подписки, онлайн сервисов, рекламы и сливания всех записанных о тебе данных на сервера.
Аноним 17/10/23 Втр 21:43:15 522591 414
>>522574
> без доли интеллекта
А он и не нужен в 99% тех задач. Буквально нахуярил графов и простую нейронку для распознавания - интерпретации команд, а в редких случаях уже что потяжелее подключить.
> сортировать почту, файлы и заполнять документы
Технически это уже лламы могут делать, но вполне себе задача.
> тут он будет стоить как крыло самолета
Отвалить несколько миллионов для того чтобы жопе было более комфортно стоять в пробке - ок, а заплатить за вундервафлю, которая решит все проблемы в быту и сможет быть секретарем-помощьником-психологом-питомцем-шлюхой-сиделкой-... зажмут? Ну не, коммерческий потенциал ебанись насколько огромен, хоть в лизинг под залог внутренних органов будут брать.
> без подписки, онлайн сервисов, рекламы
Вообще не взлетит если общество сильно не изменится, ощущение "своего" слишком сильно как ни пытаются с этим заигрывать.
Оно и не потребуется, тебе самому захочется через несколько лет купить новую модель, а только на сервисе имеющихся уже можно делать огромный капитал.
> и сливания всех записанных о тебе данных на сервера
Этот вопрос уже отдельный.
Аноним 17/10/23 Втр 21:51:16 522599 415
>>522591
>Буквально нахуярил графов и простую нейронку для распознавания - интерпретации команд,
Чет все на нейронках сидят а не на ботах-скриптах. Все таки большая разница, интеллект или программа.

>Этот вопрос уже отдельный.
Самый главный. Как с телевизорами и всей техникой сейчас, будут выпускать модели чуть ли не себе в убыток перекладывая их оплату на подписку и сбор всех данных + показ рекламы. Стратегия эффективная и не вижу причин что ей не будут пользоваться.
Для богачей выпустят свой айбот в котором как бы не будут это делать. Но веры в это мало.
Анальная цензура и постоянный шпион в комплекте. Да ну нахуй. Только локальная хуйня, никаких сервисов и подписок, свое от и до. Иначе шляпа которой нельзя доверять ни на грош.
Аноним 17/10/23 Втр 21:56:16 522603 416
>>522591
>Оно и не потребуется, тебе самому захочется через несколько лет купить новую модель
Но зачем, если текущая устраивает?
Аноним 17/10/23 Втр 22:03:18 522606 417
>>522599
> на нейронках
> интеллект
Ну ты понял. Везде используют то что оптимально, ознакомься с кучей открытых проектов умного дома. А та же Алиса заскриптована что пиздец, разные фразы и порядок создают лишь иллюзию.
> будут выпускать модели чуть ли не себе в убыток перекладывая их оплату на подписку и сбор всех данных + показ рекламы
Чувак, ты просто свою веру пытаешься навязать как абсолютную истину, угомонись уже.
Сделают удобную BOTH PARTIES INVOLVED бизнес модель, примеров вагон и они не в пользу твоих теорий. С другой стороны, рано или поздно дойдет и до серии суперпримитивных нищук версий что обращаются в облако за "ты меня ебешь" или ловят затупы в осознании алгоритма "как гладить рубашку", а там уже придется мириться со всеми приколами расплачиваясь за экономию.
>>522603
Извольте каждые 600 боточасов на ТО, а там уже поиск выгодных аналогов, что не будут шуметь и не развалятся сразу, ПО РАЗБОРОЧКАМ ПОХОДИТЬ и прочие радости. Буквально рынок авто или какой-то техники/оборудования здесь самый прямой аналог.
Аноним 17/10/23 Втр 22:05:28 522613 418
>>522606
Я просто рассматриваю самые пессимистичные сценарии, ибо они самые реалистичные.
Аноним 17/10/23 Втр 22:09:41 522619 419
>>522606
>Буквально рынок авто или какой-то техники/оборудования здесь самый прямой аналог.
Где вполне себе случаются годные модели без говна. У меня литерали ноунейм стиралка, одна из первых турецких, служит более десятилетия, абсолютно тупая (что меня полностью устраивает как энтузиаста тупого дома), была одна из самых дешёвых, и за это время ни разу не требовала ремонта и не ебала мозги.
Так и тут, я уверен, найдутся прошиваемые на попенсорс модели с достаточным функционалом.
Аноним 17/10/23 Втр 22:13:46 522622 420
>>522613
И такие офк тоже будут. Но здесь это не программа, онлайн игрушка, или что-то подобное сервис-ориентированное, это буквально вещь, которой ты должен обладать и будешь как-то привязан, именно в этом ее ценность. Потому и заигрываний с подписками, рекламой, цензурой и прочим особо не будет, если только сам не пожелаешь. И задачи - организация жизни и эстетическое удовольствие, пожалуй единственные сферы где целесообразно делать что-то человекоподобное, а подобная херь все нивелирует. Вот всякий ботшернг лол, некоторый захват сферы услуг и т.д. - там пожалуйста, но персональное тогда просто никто не купит.
>>522619
Да офк все так, и фантазировать ища аналогии можно сколько угодно. Вопрос один - где бля?
> абсолютно тупая
там это, оптимальные алгоритмы 20 или 30 лет назад уже нашли, а далее - ебаный треш от маркетологов, так что то что нужно
Аноним 17/10/23 Втр 22:15:12 522623 421
>>522502
> Люди будут дешевле роботов
Если быть точнее, на любом предприятии меньше среднего люди до сих пор дешевле роботов, и таковыми еще будут долгое время.
Роботизируют там, где это выгодно — крупных складах.

> Представил переполнение контекста в самый разгар процесса и обзмеился.
Сук, это как в Virt-a-Mate физика внезапно идет по пизде и тянку начинает пидорасить по всей локации с вылетанием глаз тебе в ебало.
Только ирл.

>>522572
Ну Сбер, чо ты. Сбер пошире.
Это не проблема ассистентов, это проблема владения сервисами — Яндекс не хочет обеспечивать покупки в Самокате и Деливери, и другие игроки так же.

>>522574
> сортировать почту, файлы и заполнять документы
Бинг? Бинг.

> десятка тыщ долларов
Маск обещал теслабота за 10к как раз.
Ну и я такой уже прикинул — можно и взять маме в помощники, если эта фигня правда сможет в магазин по жэипиэс с скамерами ходить.
Спиздят? Ну, бля. =) Пусть на огороде работает, хули.
И там спиздят? Ойвсе!..

>>522591
> подписки
Подогрев жопы по подписки же сработал, ага.

>>522599
> Чет все на нейронках сидят а не на ботах-скриптах.
Ну-у-у… Нет.
Умные сидят на подходящих технологиях. Где-то скрипт. Где-то алгоритм. Где-то нейронка. Всему свой инструмент.

>>522606
> разные фразы и порядок создают лишь иллюзию
Не, ну простейшая нейронка там давно есть, с ней можно в общем плюс-минус поболтать. Просто она простенькая и контекст часто путает, резко поворачивая посреди диалога, съезжая на другие темы. Но не то, конечно.

———

Напоминаю, что 10к баксов = 1 млн рублей = нормальную машину ты явно за эти деньги щас не купишь, так что я бы не сказал, что можно сравнить с тачкой.
Что плохо, конечно.
Аноним 17/10/23 Втр 22:19:53 522629 422
>>522619
>Так и тут, я уверен, найдутся прошиваемые на попенсорс модели с достаточным функционалом.
Безопасность. Будут ебать мозги как с машинами. Электромобиль это просто верно? Колеса, рама , аккум-контроллер-движки. Да вот только вместо упрощения конструкции они все продолжают усложнятся, и для комфорта и из-за требований безопасности.
Если уж настанет время личных роботов-рабов-ассистентов то шизики потребуют каких нибудь систем безопасности и одной из мер будет постоянный контакт с сетью где проверяются действия бота на законность, а там и сбор статистики и данных и все что захочешь.
Короче думаю сделать попенсорс без большого брата можно будет, но объявят вне закона.

>Но здесь это не программа, онлайн игрушка, или что-то подобное сервис-ориентированное, это буквально вещь, которой ты должен обладать и будешь как-то привязан, именно в этом ее ценность.
Как с теслой да? Хех. Я чет не искал, но помню что она сдается в аренду? Или то что она не полностью принаждежит тем кто купил? Или мне моя память пиздит. Не важно, думаю будут сдавать в аренду, потому что это как подписка где пользователи будут легче заводить бота. Чем покупать дорогого с нуля полностью в свое владение.
Аноним 17/10/23 Втр 22:28:16 522638 423
А как в oobabooga использовать лорбуки? Куда пихать?
Аноним 17/10/23 Втр 22:30:24 522643 424
>>522572
> Повторить заказ еды оно вроде как не может?
Не так давно научилась, однако из их же деливери где постоянный раздел на -20% или всякие акции нет. Так что считай просто для красивого слова, она не так уж и давно по несколько команд научилась распознавать в принципе.
> яндекс шторы
Система универсальна, че хочешь подключай, интерфейсы поддерживает.
> яндекс музыку
Увы. С другой стороны конкурентов в этой стране нет, в том смысле что права на некоторую музыку отозвали у всех.

>>522629
> постоянный контакт с сетью где проверяются действия бота на законность, а там и сбор статистики и данных и все что захочешь.
Выстрел себе в ногу с потерей конкурентоспособности.
> Я чет не искал, но помню что она сдается в аренду?
Нет, она твоя, если офк не взята в лизинг/аренду. Есть нюансы с автопилотом, который по договору тебе никто не обещал и он является дополнительной функцией, в зависимости от региона может работать/не работать и требует версию по выше некоторой, что логично. И оно прошивается оффициально/неоффициально.
> будут сдавать в аренду
Можно и в аренду, но это не сыщет популярности ввиду самой природы. Вот в кредит - пожалуйста. Единственный вероятный аналог подписки - лизинг, в условиях которого с тебя регулярные платежи а с компании обслуживание и замена раз в N лет.
Аноним 17/10/23 Втр 22:34:44 522649 425
>>522638
Алсо я нашел макс кол-во токенов, но не могу понять а минимальное кол-во токенов выставить можно?
Аноним 17/10/23 Втр 22:35:08 522650 426
>>522629
>но объявят вне закона
Так там и еблю с ботами объявят вне закона особенно если когда сделают лоли-ботов. Даже наоборот, хорошо, если объявят еблю вне закона. Быстрее вскроют и сделают свободные аналоги.
>>522629
>Или мне моя память пиздит.
В хуесле к владельцу привязывается только автопилот, ЕМНИП, и то это только Мунск считает, что нельзя продать продать, некоторые страны с ним не согласны, а у нас пока страны главнее корпораций.
Аноним 17/10/23 Втр 22:37:09 522654 427
>>522643
>С другой стороны конкурентов в этой стране нет, в том смысле что права на некоторую музыку отозвали у всех.
Рутрекер. 19 лет с нами.
Аноним 17/10/23 Втр 22:40:01 522657 428
>>522643
>Выстрел себе в ногу с потерей конкурентоспособности.
Примут законы ради безопасности и все в шоколаде.

>>522650
>Так там и еблю с ботами объявят вне закона особенно если когда сделают лоли-ботов.

Обязательно, отличный повод ввести все ограничения.

>Даже наоборот, хорошо, если объявят еблю вне закона. Быстрее вскроют и сделают свободные аналоги.
Ага, только тебе через границу их не пустят как щас с куклами чет такое слышал. Не недооценивай большого брата.
Аноним 17/10/23 Втр 22:45:40 522662 429
>>522657
Ты уж определись, топишь за могущественные мегакорпрорации, что прогибают под себя правительство, или наоборот про желающих все запретить регуляторов. Выглядит как какой-то сплошной дум ради оправдания позиции отрицания, которую уже занял в этих фантазиях.
> как щас с куклами чет такое слышал
Хоть сейчас за ~1к на али привезут куклу лоли/милфы под ключ а то и с местного склада. Пиздецом это, правда, быть всеравно не перестанет.
Аноним 17/10/23 Втр 22:45:59 522663 430
>>522657
>Ага, только тебе через границу их не пустят как щас с куклами чет такое слышал.
Из того, что слышал, кто-то в Великобритании таки поимел проблем с куклой в виде оппай-лоли. Но то Англия и то лоли. Уверен, граница между Китаем и Россией всё же останется достаточно прозрачной, а законы достаточно либеральными, благо в этой сране фемок нет, а на тех, что есть, всем насрать.
Аноним 17/10/23 Втр 22:52:30 522666 431
>>522663
> а законы достаточно либеральными
Сука блять чаем подавился.
Заебали херню обсуждать, где ллм и мультимодалки? Сеточке бы уже начали доказывать свою точку, а ей дать задание спорить.
>>522638
А зачем? В таверне рпшить всяко удобнее + формат промта.
>>522649
> макс кол-во токенов
На ответ или контекст?
> а минимальное кол-во токенов выставить можно?
На ответ то можно, но это к хорошему не приведет. Приличная модель сама дает сочные длинные ответы там где это уместно. Увеличить их можно инструкциями и/или настройкой бана EOS токена, но это не всегда приводит к хорошему результату. Может начать выдавать шизрографоманию, лупиться, писать за юзера или куда-то убегать, переходя к следующим действиям. В любом случае попробуй и там будет видно.
Аноним 17/10/23 Втр 22:54:34 522668 432
>>522662
>Ты уж определись, топишь за могущественные мегакорпрорации, что прогибают под себя правительство, или наоборот про желающих все запретить регуляторов.

Да как бы тотальный контроль над обществом все увеличивается и предпосылок его уменьшения нет. Что корпорации будут о тебе все что можно собирать, что государство разрешит им и себе это делать - велика ли разница для обычного человека?
Примут законы о безопасном использовании ии и ботов на его основе - и совершенно законно будут шпионить за тобой через бота 24/7. Конкретно ты никому не нужен, но кому понравится что о нем будут в наглую собирать информацию оправдываясь безопасностью? А еще и долаживать куда следует если назовешь негра негром. Чет такое. Я просто пытаюсь представить наиболее реалистичный сценарий, поэтому думаю о скучном и неотвратимом пиздеце для свободы обычного человека.

>>522663
>Уверен, граница между Китаем и Россией всё же останется достаточно прозрачной, а законы достаточно либеральными,

Главное что бы она осталась, а про законы конечно проиграл
Аноним 17/10/23 Втр 22:57:28 522669 433
image.png 67Кб, 1006x679
1006x679
>>522666
>На ответ или контекст?
А хуй его знает) Вот на пике.

>настройкой бана EOS токена
А это где не знаешь?
Твои слова учел, наверное ты прав. Но надоедает подгонять бота всякими "продолжай"

Спасчибо за ответ.
Я в ахуе от технологии тут такооой простор для кума.
Блядь это бот запоминает что мы с ним говорили в диалоге и типа упоминает это "как я и говорил". Просто отвал пизды. Все такое реалистичное, никаких ошибок я будто реал какой-то фанфик читаю Вааааууу сукаааа.
Аноним 17/10/23 Втр 22:58:15 522670 434
>>522666
>где ллм и мультимодалки?
А че там обсуждать, мультимодалки пока не видно, две новые ллм вышли - ноус тот же, и айроборос. Но чет никто не тестил пока.
Аноним 17/10/23 Втр 23:02:51 522676 435
>>522668
Это ты кадровый радикал, прошедший соевые точки? Максимализм, родившийся из оправдания - самое худшее, опомнись, возможно еще не все потеряно.
>>522669
> Вот на пике.
Это на ответ. Чем больше ставишь тем больше будет отъедено от контекста если что. Больше 400 нет смысла, всегда есть кнопка продолжить генерацию.
> А это где не знаешь?
Там же справа. Но ты идешь не совсем нужным путем, с правильным форматом промта и на хорошей модели ответы будут по дефолту длинные содержательные если офк это возможно в контексте. А так ты просто исключаешь из выборки самый уместный токен, заставляя дальше галлюцинировать, или приказываешь фантазировать@продвигаться, такое норм только в некоторых случаях.
> будто реал какой-то фанфик читаю Вааааууу сукаааа
Велкам ту зе клаб, бадди.
>>522670
> ноус тот же
Поделие на мистрале опять? А вот айробороса надо чекать если большие релизнули.
Аноним 17/10/23 Втр 23:04:00 522679 436
Аноним 17/10/23 Втр 23:06:57 522684 437
>>522676
>Это ты кадровый радикал, прошедший соевые точки? Максимализм, родившийся из оправдания - самое худшее, опомнись, возможно еще не все потеряно.

Надейся на лучшее а готовься к худшему. Пессимистом быть удобно, ты либо всегда прав либо приятно удивлен. Поэтому я и говорил о худших и пиздецовых сценариях. Впрочем я не уверен что они такая уж фантазия.

>Поделие на мистрале опять? А вот айробороса надо чекать если большие релизнули.

ноус хз, аиробороса заявляют как сетку для выполнения инструкций
Аноним 17/10/23 Втр 23:14:53 522692 438
>>522684
> Пессимистом быть удобно
Это то верно, но не в качестве единственно верного исхода в контексте каких-то прогнозов. И ты недостаточно пессиместичен, ведь до всей этой херни еще нужно сначала дожить, и не поехать кукухой, сохранив вкус жизни.
> аиробороса
Опять тряска с форматом, и непонятно что с датасетом, это соевик как в первой версии под ллама 2, или анбайасед машина поругания негров, депрессивного рп и кума как ранние 2.х и далее спайсиборос.
Аноним 17/10/23 Втр 23:17:28 522694 439
>>522676
А что значит отъедено от контекста?
На счет минимума понял.
Можно как то залочить условный диалог чтобы начинать всегда с одного места? Типа
Бот: Добрый день.
Я: Возьми кружку со стола
Бот: Я взял кружку.

А дальше бы я уже начинал разные фразы говорить. Но каждый раз при начале нового чата бы возвращался к тому что бот взял кружку а не с приветствия. Мб прямо в карточку персонажа записать? Там вроде есть графа приветствия.

>Велкам ту зе клаб, бадди.
Я попросил бота пересказать что мы сейчас делали и он все без ошибок сказал и не выходя из роли!
СЛАВА НЕЙРОСЕТЯМ СЛАВА
Я В НЕЙРОРАЮ
УУУУУООООО
Аноним 17/10/23 Втр 23:19:00 522699 440
>>522692
> ведь до всей этой херни еще нужно сначала дожить, и не поехать кукухой, сохранив вкус жизни.
Дак я перечислял скучные варианты пиздеца, веселых конечно больше.

>>522694
На чем хоть веселишься? какая модель
Аноним 17/10/23 Втр 23:22:36 522701 441
>>522694
> А что значит отъедено от контекста?
У тебя есть окно в 4/8/...к токенов. Системный промт, карточка персонажа, персоналити и прочее всегда отъедают какое-то фиксированное количество. Далее уже идет история сообщений, и если идет превышение контекста - удаляются последние. При генерации у тебя может поместиться только контекст-длина ответа, соответственно заказывая овер 1к ты получишь обрабатываемое окно на косарь меньше, при том что пост на 1к токенов - редкость, ради которой можно будет нажать кнопку еще раз.
> при начале нового чата бы возвращался к тому что бот взял кружку а не с приветствия
Что-то поломалось, не понять из описания.
Аноним 17/10/23 Втр 23:23:50 522704 442
image.png 104Кб, 936x832
936x832
>>522699
Вот. Посоветовали в треде. Просто ахуенно, но держи в голове что это мой первый раз. Еще и персонаж отлично написан.
Что делают эти ползунки я кстати почти не понимаю мб поможет кто.
Тут можно кидать самые удачные потуги бота в кум или не приветствуется? Я тут ньюфаг.
Ох бля забавно пишешь и только на середине предложения осознаешь что общаешься с реальными людьми и пропадает то чувство вседозволенности.
Надо бы поспать.
Аноним 17/10/23 Втр 23:26:48 522707 443
>>522704
Альфу до 2.6 подними, иначе после 4к превратится в тыкву.
Можно.
Аноним 17/10/23 Втр 23:39:26 522716 444
>>522666
> Сука блять чаем подавился.
Строгость законов нивелируется необязательностью их выполнения…
Но вообще, да, на фоне других стран — свободно живем.
Почитай новости Евросовка того же. Ну и Китай. Конечно, где-нибудь в Африке свободнее — но жить бы ты там вряд ли хотел.

> кому понравится что о нем будут в наглую собирать информацию
Смартфон, не? =) Литералли тоже самое. Да и компы. Да и все эти умные колонки.

Это буквально происходит уже с десяток лет.

Когда я говорил, что телефоны нас слушают — все смеялись и называли параноиком.
А потом упс…

Так и с дозиметром, год назад все смеялись, а тут уже и испытания…

Тьфу-тьфу-тьфу, но на безопасность всем похую, людям нужен сервис, а не какая-то там безопасность.
Все кто пользуется смартфонами — по умолчанию отказались от анонимности. Все кто пользуется соц.сетями — отказались от безопасности. Мы-то нахуй никому не нужны, это да. Но если понадобится…

Как параноик со стажем рекомендую расслабиться и либо не срать себе в штаны слишком активно, либо уехать в тайгу жить в землянке. Напрягаться, но пользоваться смартфоном — идея смешная.
Впрочем, я всего лишь рекомендую, а делать можете что угодно. =)

Всем добрых снов!
Аноним 17/10/23 Втр 23:39:44 522717 445
>>522707
Альфа влияет на тупизну?
Аноним 17/10/23 Втр 23:48:45 522727 446
>>522694
>Я попросил бота пересказать что мы сейчас делали и он все без ошибок сказал
>mlewd 20b
Тем временем, mlewd 13b мне сегодня выдал что-то вроде "takes off bra, exposing her perky breasts, covered only by black lace bra". Лифчик под лифчиком в пределах одного предложения. Единичный косяк, но прям сильно удивил.
Аноним 17/10/23 Втр 23:49:51 522729 447
>>522717
> Альфа влияет на тупизну?
Бля, звучит двусмысленно
Аноним 18/10/23 Срд 00:02:35 522745 448
>>522727
>Единичный косяк, но прям сильно удивил.
Это не единичный косяк а тупость 13б моделей. Ты думаешь откуда появился мем про трижды снятые трусы?
Аноним 18/10/23 Срд 00:03:57 522749 449
>>522745
>трижды снятые трусы
Просто холодно
Аноним 18/10/23 Срд 00:05:23 522753 450
>>522622
Как в бегущем по лезвию, автономный ИИ, с которым можно ничего не стесняться, и который можно проебать с концами, когда потребуется
Аноним 18/10/23 Срд 00:08:17 522755 451
>>522717
Немного, с большим значением на малых контекстах будет хуже.
>>522745
> Ты думаешь откуда появился мем про трижды снятые трусы?
Не надо про их тупость, сейчас модели умные, тебе специально выделит "эт ласт, ин тсерд тайм, файнали"!
>>522753
Бинго, именно на такой и будет спрос.
Аноним 18/10/23 Срд 00:11:49 522758 452
>>522745
К тому, что одежда между сообщениями регенерирует, я привык. А тут уже какие-то цирковые фокусы. При этом, другие детали запоминает, глубину характера и логику повествования держит.
Аноним 18/10/23 Срд 00:26:05 522763 453
>>522753
Это кстати очень иронично что в мире бегущего ИИ встал на сторону человека и был полностью автономен. Будто не про антиутопию говорим.

Идея конечно неплохая, но мне например и говорящего компьютера хватило бы с полноценным благожелательно настроенным ко мне ии.
Толку от бота если я знаю что это все подделка? Отправлять пыль протирать и готовить? Какая нибудь автокухня выйдет дешевле чем универсальный робот с ии, а готовить сможет лучше под управлением духа машины.
Аноним 18/10/23 Срд 00:46:35 522777 454
>>522763
> Будто не про антиутопию говорим.
Победивший капитализм не мешает институту репутации.
> Отправлять пыль протирать и готовить?
Да, и все все вопросы что тебе не хочется делать или не хочется иметь вынос мозга за то что их делает кожанное существо. Офк при наличии идеального это не нужно, но увы.
> Какая нибудь автокухня
Кофе-машины, что почти вершина автоматизации дома, довольно заморочно чистить и обслуживать. Базированный дефолт - чай, автоматизируй его изготовление, чтобы была не моча из пакетиков а тот что ты любишь и хотябы литров 15 малыми порциями по запросу без твоего участия. Тут никакие нейросети не нужны.
"Автокухни" ввиду сложности и разнородности операций целесообразны лишь в огррмоных масштабах пищевой промышленности, тут проще доставку.
> Толку от бота если я знаю что это все подделка?
Приносит ароматный чай, сервирует сважайшие блюда что ты пожелал недавно, делает это невероятно мило, улыбаясь и приговаривая "да, госоюдзин-сама", при этом выглядит и одета согласно твоему вкусу. И все это здесь, перед тобой, можешь пощупать и делать что угодно. Это же воплощение эстетики и удобства, дайте 2. И офк никто не заставляет отыгрывать кринж из фильмов и анимца, женясь на роботе, одно другому не мешает так сказать. А еще с утра у тебя вне зависимости от всего чистая свежая рубашка с застегнутыми как надо манжетами, сортир чистый благоухает и никто не бухтит что надо ссать сидя, и вся та ебанистическая куча мелочей что могла вызвать недовольство или срач сразу исчезает, а чтобы не расслабляться можно побуругтить с чего-то более полезного
Аноним 18/10/23 Срд 01:10:02 522800 455
>>522777
>И все это здесь, перед тобой, можешь пощупать и делать что угодно.

Так они и вымерли.

Не, идея заманчивая, но тут такие изменения общества подкрадываются с появлением таких вот универсальных заменителей людей... Как прежде после этого не будет.
Революции, кризисы, массовые увольнения, и другие радости резкого изменения общества и обесценивания человеческого труда и жизни.

Вообще под автокухней имелось ввиду двигающаяся платформа с руками чисто пожрать готовить. Ну и для почти всего тобой озвученного сойдет буквально робот. Я бы наверное не стал заморачиваться делая из робота куклу-человека. Человекоподобная дистанционно управляемая платформа которой манипулирует ии-центр умного дома - да, звучит ниплоха. Такой слуга-дворецкий на минималках.
Ну, каждому свое.

Но локальный мультимодальный старший брат гпт5.... На каких нибудь нейропроцессорах? Что то мне подсказывает что видимокарты тут будут неэффективны.
Аноним 18/10/23 Срд 01:28:54 522810 456
>>522800
Пост полностью не прочел, эта херь не должна становиться заменителем тни/куна, быть препятствием и т.д., наоборот сгладит многие моменты.
> изменения общества
Не столь существенные как с появлением смартфонов.
> двигающаяся платформа с руками чисто пожрать готовить
Ну так все то же самое, только узкоспециализированное, зачем если можно сделать универсальность?
> сойдет буквально робот
> делая из робота куклу-человека
Эстетика и восприятие. Несравнимо приятнее видеть милую горничную с звериными/эльфийскими ушками, или красивого статного дворецкого вместо крипоты что будет вызывать долину, плюс открывается множество других взаимодействий. Хотя кому-то наоборот терминатор может зайти.
> Что то мне подсказывает что видимокарты тут будут неэффективны
1.5 года назад над генерацией пикч и текстов только насмехались, а в начале десятых можно было на процессоре ноутбука намайнить несколько битков за неделю. Там в целом проблем хватает и пока будут решены - это уже само подтянется, плюс не нужно усложнять, голосовые ассистенты уже оче давно и еще на старте удивляли.
Аноним 18/10/23 Срд 01:54:42 522825 457
>>522810
>Пост полностью не прочел, эта херь не должна становиться заменителем тни/куна, быть препятствием и т.д., наоборот сгладит многие моменты.

Прочел, такой удобный заменитель сделает необходимость жизни вместе еще слабее.

>Не столь существенные как с появлением смартфонов.

Ты невероятно неправ, смартфоны просто улучшили коммуникацию людей, сделали это плавно и были просто продолжением идеи компьютеров. Тут изменения общества глобальнее

>Ну так все то же самое, только узкоспециализированное, зачем если можно сделать универсальность?

Ну например какая та балка на кухне по которой гоняет платформа с 2 руками и камерой будет гораздо дешевле и проще чем полноценный андройд.


Если будет только появление ии, но без появления термоядерного синтеза то без энергии все будет дорого. Поэтому и андройды будут дорогие. Опять таки ии или нейросети может помочь в доведении синтеза до рабочего решения. Ну или дураки поймут что ядерные станции тоже ничего так.
Тогда будет вопрос производства - с ии и энергией узким горлышком станет отсутствие универсальных 3D принтеров для создания вещей печатью.

3 технологии каждая из которых пошатнет мир, и все могут быть созданы с помощью нейросетей.
Ну и все 3 - счастливое будущее с робо-горничными если люди вдруг перестанут быть мудаками.
Аноним 18/10/23 Срд 02:55:00 522847 458
>>522825
> сделает необходимость жизни вместе еще слабее.
В какой-то степени, но с другой и облегчит эту самую жизнь. Появление кучи домашней/кухонной техники или наличие слуг проблем не создавали. Офк есть риск уехать в манямир, но слабые духом и без этого в него уезжают, учитывая плавность входа и пейгап - не должно быть столь существенно. По ходу будет понятно.
> смартфоны просто улучшили коммуникацию людей
И теперь тебе нигде не скрыться от нее, везде ходят зомби, смотрящие в телефон, а мозги ахуевают с обилия информационного шума. Подобных примеров вагон, просто к ним привыкли и они кажутся нормальными.
> проще чем
Та что не будет слать тебе в телефон уведомления бля я сожрал штору переверни меня обратно кукурузинка упала подними, прибери вон то говно, блять я разъебал холодильник, сможет полноценно делать все манипуляции и ничего не разъебет - ну не то чтобы проще. Буквально сведется к сложному осминогу на палке. Проще офк за счет стационарности, но и вид/функционал мэх.

> но без появления термоядерного синтеза
Чому любители прогнозировать делают из него святой грааль? С него ценны лишь 14МэВ нейтроны, которые помогут топливному циклу энергетики на делении, все, вот буквально все. Дрочить надо на саму по себе атомную энергетику и водород в качестве энергоносителя. Только в таком случае роботяночка сможет работать долго "выдыхая" теплый влажный воздух и вместо долгой зарядки быстро восполнять энергию "кушая". И быть легкой как полагается размеру, а не отыгрывать 2B по весу не обладая силой/прочностью.
> может помочь в доведении синтеза до рабочего решения
Чем они помогут, если все упирается в материалы и технику? Синтез уже давно есть, прямо в ДС, но до становления его энергетической технологией слишком далеко, сейчас он банально не нужен. И чего ты добьешься, получив этот самый синтез?
> отсутствие универсальных 3D принтеров для создания вещей печатью
Какое-то сойбой бинго. Они тоже уже здесь, полимеры, металл, керамика, уже производятся устройства, которые невозможно сделать по другим технологиям, причем в этой стране под всякими санкциями. Или масштабная реализация в виде шизанутого FDM что срет бетоном дома, или полуавтомат на ультрах что насирает швами огромные легкосплавные обечайки в простом ангаре вместо металлургического цеха правда свойства говно. Предел технологии уже нащупан, реальное развитие и прорыв стоит ждать в области биотехнологий с ними, или уже совсем футуризма в виде продвинутого программирования бактерий и биопринтеров nanomachines son!

Дай угадаю, ты гуманитарий? В этом нет ничего плохого, но не стоит фантазировать и лезть туда где не соображаешь. Представь что к тебе пришел пиздюк и начал затирать сказки по теме в которой ты специалист, банально смешно. Все дальнейшие выводы строящиеся на этом также неоче. Лучше про социально-морально-этическую сторону смотри, тут хоть дискутируемо но позиция у тебя уверенная а не этот кринжовый пиздец.

А вообще >>514476 (OP) вон лучше иди оживляй тред.
Аноним 18/10/23 Срд 08:30:11 522891 459
>>522800
> Так они и вымерли.
Как будто это что-то плохое.
Вообще, это оффтопик, но само по себе индивидуалистское поведение противоречит коллективистскому зачастую (но не всегда, офк). И именно в этом, либо у людей нет свободы и комфорта, зато человечество гарантированно выживает, либо все свободны, живут в комфорте, а выживание как пойдет. Можно пропагандировать традиционные ценности и тогда шанс выше.
Но я в любом случае за свободу, так шо если вымрем — так вымрем, шо поробишь. Пропагандируй традиционные ценности, анон. =)

> Революции, кризисы, массовые увольнения, и другие радости резкого изменения общества и обесценивания человеческого труда и жизни.

Начинаешь революцию
@
Господ охраняют роботы-охранники
@
Идешь домой бубнить под нос и хлебать лаптем щи

Ну, я не уверен, что роботы смогут заменить на тяжелой физической работе людей, так что работяги (внезапно — основная движущая сила революции) как раз в относительной безопасности. А если бунтовать выйдут джуны-айтишники, журналисты и домработницы — звучит не очень страшно.

Короче, я не уверен в таком экспрессивном конце сосаити.

>>522810
Все так, все так.

>>522825
> какая та балка на кухне
Ты знаешь в чем смысл андроидов? В том, что для антропоморфных уже существует инфраструктура. Тебе не нужна робо-кухня, робо-гладилка, робо-застилалка, робо-стиралка, робо-пылесос, робо-че-нить-еще, если у тебя есть один робот, который делает все это с твоей имеющейся посудой, одеждой и стиралкой с пылесосом. А еще он ходит за покупками, приносит заказы из ресторанов и посылает посылки. И что угодно еще ебется.

>>522847
> Дай угадаю, ты гуманитарий?
А может он — нейросеть? :) Отсюда и угадывание вместо реальности местами.
Опять же, но оффенс.

3D-принтеры дорогие, сук. Хочу печатать металлом, но цена материала и принтера выше психологичсеких 20к.
Печатаю петгом, он норм. Эндер3 за 15к и кило материала за 2к.
Аноним 18/10/23 Срд 08:34:28 522893 460
>>522800
> Так они и вымерли.
Мы и сейчас вымираем без всяких роботов, спасибо капитализму за это
Аноним 18/10/23 Срд 08:43:22 522897 461
>>522891
>выше психологичсеких 20к.
Анон, ты в треде по локальным нейронкам, тут все успешные и богатые
Аноним 18/10/23 Срд 09:02:01 522902 462
А зачем нужны лоры в тест генерации? В картинках понятно они типа концепт впихивают в модель, тут как то так же?
Какие используют аноны?
Аноним 18/10/23 Срд 09:37:07 522911 463
>>522897
Ну я же говорю — психологических!..
=D
Но по факту да, чой-то я, пойду куплю две штуки вечерком.

>>522902
Знания, стиль текста.
Большинство файнтьюнов — и есть лоры.
Если чего-то в модели нет — добавляют лоры. Кимико, ЛимаРП были популярны давным давно (две недели назад).
Я кроме них ниче не накатывал отдельно.
Аноним 18/10/23 Срд 09:47:31 522917 464
>>522891
>Начинаешь революцию
>@
>Господ охраняют роботы-охранники
@
Идешь к другим господам которые конкурируют с первыми
@
Получаешь антиробовинтовку
@
Глядишь как горит господская хата
@
Хорошо
Аноним 18/10/23 Срд 09:50:33 522918 465
>>522917
> Идешь к другим господам которые конкурируют с первыми
@
Узнаешь что на самом деле у них нет конкуренции с первыми, а есть картельный сговор
@
Их робомордовороты робомордоворотят твою морду своим робо
@
Клятый киберпанк без панка с его дурацкими мегакорпорациями!
Аноним 18/10/23 Срд 10:42:31 522941 466
>>522749
У меня однажды модель сняла ботинки, а под ними оказались кроссовки. Спасибо что хоть не туфли со шпильками...
Аноним 18/10/23 Срд 10:46:05 522947 467
image.png 398Кб, 1000x1000
1000x1000
image.png 494Кб, 1000x1000
1000x1000
Аноним 18/10/23 Срд 10:54:49 522949 468
>>522891
> Хочу печатать металлом но цена материала и принтера выше психологичсеких 20к
В начале удивился что много хочешь
> петгом, он норм. Эндер3 за 15к и кило материала за 2к
А потом обзмеился поняв валюту. Как в мемасе нужно:
купил нвидия теслу с большой врам чтобы работать с нейросетями
@
p40
>>522902
> зачем нужны лоры в тест генерации? В картинках понятно они типа концепт впихивают в модель
Здесь также, лора - лишь способ ужатого представления изменения весов. По отдельности, обычно, не используются и идет сразу замес с несколькими.
>>522941
Главное чтобы подвоха не обнаружилось.
Аноним 18/10/23 Срд 10:58:02 522951 469
>>522949
У меня регулярно подвох обнаруживается..... Не понимаю почему, женские персонажи, без каких либо предпосылок
Аноним 18/10/23 Срд 11:00:39 522952 470
>>522951
Либо модель такая, либо... Ты ведёшь себя как баба, поэтому модели приходится мужать.
Аноним 18/10/23 Срд 11:05:43 522953 471
Аноним 18/10/23 Срд 11:10:59 522960 472
>>522949
Ну так, как в мемасе, да. =)
Я просто к тому, что цена того, о чем мы мечтаем — пока высоковата. Но то, о чем мы мечтаем, уже есть.
Ну, вот, погуглил — от 4 лямов стоит, если я не наебался. ТеслаБот обещает быть вчетверо дешевле. =)
Но, да, будущее здесь, были б деньги.
Аноним 18/10/23 Срд 11:11:23 522962 473
>>522847
>>522825
Так не нашел где диалог начинается, но каких вам роботов домохозяек? Люди нищие, рабочий на заводе сделает за день 1000 сервоприводов, а зарплаты у него хватит только на 10-20 в месяц. Пока такое соотношение к тому что ты сделал и что получил, а робот это сложная махина с кучей электроники, тебе придется всю жизнь на 1 робота копить.
Аноним 18/10/23 Срд 11:46:17 522979 474
1564887758433.png 88Кб, 374x370
374x370
>>522951
Пикрел лол. А вообще без предпосылок такого даже на шизомиксах не бывает.
>>522953
> блюшес
Блюшес надо только слайтли, а то модель учует слабость и начнет угнетать.
>>522962
Где-то в начале обозначено про цену, на недешевых авто преимущественно моложе 7 лет ездят - найдутся деньги и на подобное. А массовость радикально снижает стоимость, мобилки стоят дешевле микропк с оче днищенскими характеристиками, а спустя лет 5 даже за даром никому не нужны.
Аноним 18/10/23 Срд 11:56:56 522982 475
>>522951
> подвох обнаруживается
В плане "oh he's bigger than mine"? В РП-моделях такое замечаю иногда.
Аноним 18/10/23 Срд 11:58:41 522983 476
>>522982
Ага, ну и упоминания что у женских персонажей есть члены мимоходом. Притом это ещё не дойдя до коитуса или обнаженки
Аноним 18/10/23 Срд 12:15:11 522995 477
>>522983
Возможно это часть сои, в которой есть что-то про трансопидоров и гендеры. Попробуй в таких случаях спрашивать их про гендер и биологический пол, может прояснят почему так.
Аноним 18/10/23 Срд 12:16:41 522997 478
>>522995
Мерзость. Можно как-то это предотвратить до того как девотьки начнут махать своими висюльками?
Аноним 18/10/23 Срд 12:24:24 523002 479
>>522962
Не, ну если начать копить сейчас, то лет через 10-15 накопишь.
В 18 на завод, в 30 — личную домохозяйку.
Звучит как план-еблан, чо.
Аноним 18/10/23 Срд 12:29:51 523006 480
>>523002
Я хочу сказать что это кабанам экономически не выгодно. Многие не будут на это копить. А значит не будет продаж. Кабану нужно что то с прибылью в 1000 процентов на работника. Не потому что кабанчик себе столько берет, а потому что пока устройство дойдет до рынка оно пройдет через 10 кабанчиков с целыми непроизводящими но отделами для конкуренции на рынке.
Аноним 18/10/23 Срд 12:34:54 523008 481
>>523002
А ойтишнег, накоплю быстрее )
Аноним 18/10/23 Срд 12:58:45 523032 482
Аноним 18/10/23 Срд 13:03:22 523035 483
>>523032
Балда, оригинальный киберпанк в двадцатых
Аноним 18/10/23 Срд 13:04:51 523036 484
>>523032
> В нынешней модификации робот Figure 01 сможет переносить груз массой до 20 кг
Пфф. Биороботы намного больше таскать могут за меньшую плату
Аноним 18/10/23 Срд 13:13:08 523039 485
>>522847
>Чому любители прогнозировать делают из него святой грааль?
Патамушта все дорого из-за дорогих источников энергии.
Будет удобный и мощный источник энергии - все станет делать проще и дешевле не трясясь над каждым киловаттом. И не важно что это будет, атомка, синтез или еще что то новое непонятное щас.

>Чем они помогут, если все упирается в материалы и технику?

Але гараж, они помогут смоделировать условия в которых из нашей техники и материалов можно это собрать. Они могут помочь исследователям создать новые технологии и материалы.
Рассчитать жизнеспособные конфигурации полей, конструкцию и параметры работы установки при которой она сможет работать.
Сами по себе они тебе ничего не сделают, но помощь в работе невероятная, для тех кто умеет их использовать. И нет я не про текстовые генераторы.

>Предел технологии уже нащупан,
>Дай угадаю, ты гуманитарий? В этом нет ничего плохого, но не стоит фантазировать и лезть туда где не соображаешь.

но комент

>этот кринжовый пиздец.

Этот кринжовый пиздец, не серьезные разговоры об этой теме без использования терминов, на понятном обычном людям языке.
Объявляя себя специалистом ты говоришь мне - я нихуя не понимаю за пределами своей области но могу уверенно и убедительно фантазировать в ее пределах, лол

Я знаю ситуацию с текущими 3D принтерами, синтезом и атомкой и возможностями нейросетей которые уже используются. Я понимаю как все это работает, лол. Но ты считаешь меня сойбоем просто потому что я перечислил технологии которые могли бы так улучшить жизнь, что любой васян смог бы иметь свою личную вайфу-робота? Ну ок, тебе виднее
Аноним 18/10/23 Срд 13:14:08 523041 486
>>523035
там прогресс на сколько помню начался чуть раньше, мы лет на 10-5 отстаем по графику
Аноним 18/10/23 Срд 13:15:48 523043 487
>>523041
Тем не менее главные атрибуты киберпанка не модные кибер импланты, а "высокий уровень технологий, низкий уровень жизни", с беспощадным капитализмом и пренебрежением человеческой жизнью. Тут мы укладываемся в план
Аноним 18/10/23 Срд 13:27:27 523053 488
1658193873592.mp4 8187Кб, 854x394, 00:00:51
854x394
>>523032
Выглядит как говно по сравнению с Бостоном.
Аноним 18/10/23 Срд 13:27:37 523054 489
>>523032
>18.10.2023 [10:00]
>10:00
Хули старьё постишь? 2 часа, целая вечность же.
А так очередная хуита на полусогнутых, приплясывает на ровном месте и разворачивается полчаса. Апокалипсис отменяется.
Аноним 18/10/23 Срд 13:29:44 523057 490
>>523053
>>523054
Так это ж прототипы дешевого говна, допилят.
Аноним 18/10/23 Срд 13:30:14 523059 491
>>523039
>дешевле не трясясь над каждым киловаттом
>атомка, синтез
Чел... Что атомка, что синтез пиздец какие дорогие на кековатт.
>>523043
>Тут мы укладываемся в план
Но ведь...
>пренебрежением человеческой жизнью
Жизнь ценна как никогда, офк если проживать в развитой стране.
>>523053
ИЧСХ, никаких нейросет очке!
Аноним 18/10/23 Срд 13:31:45 523062 492
>>523057
Такие проекты из стадии прототипов сроду не выходят. Собрали какие-то жалкие 10 миллионов баксов. Да блин, одному чатЖПТ майкросовт набашлял 10 лярдов. Сразу видно, где ценность и прибыль, а что делают по остаточному принципу.
Аноним 18/10/23 Срд 13:33:24 523066 493
>>523059
> ИЧСХ, никаких нейросет очке!
У Бостона всё в порядке с нейросетями, они первыми начали делать роботов с ними.
Аноним 18/10/23 Срд 13:37:39 523073 494
>>523059
>Чел... Что атомка, что синтез пиздец какие дорогие на кековатт.
Сейчас. Ну ты в курсе да? Что мы говорим про будущее где это нужно, выгодно и есть нужные технологии.
И даже сейчас атомка дорогая только из-за зеленых, безопасности и технологий. У нее лучший выхлоп энергии + бесконечный так как рассчитан замкнутый цикл топлива.
Аноним 18/10/23 Срд 13:38:36 523076 495
А есть какая-то модель для Финансов? или лора?
Аноним 18/10/23 Срд 13:42:11 523081 496
>>523059
>Жизнь ценна как никогда, офк если проживать в развитой стране.
Посмотри как американский амазон ценит своих сотрудников. Да вообще как корпорации на западе относятся к работникам
Аноним 18/10/23 Срд 13:42:17 523082 497
>>523066
Там нейронке сбоку прикручены, в основном хардкорный коддинг. На питоне, судя по их видосам.
>>523073
>Что мы говорим про будущее где это нужно, выгодно
Какие-то влажные фантазии.
>>523073
>У нее лучший выхлоп энергии + бесконечный так как рассчитан замкнутый цикл топлива.
ЗЯТЦ есть примерно у одной страны, которую все послали нахуй. Так что никакого замкнутого цикла больше нет, остальные даже не думают в этом направлении. А без ЗЯТЦ уранка всё так же будет стоить в десяток раз дороже даже ветряков, лол.
Аноним 18/10/23 Срд 13:44:23 523090 498
>>523081
>Посмотри как американский амазон ценит своих сотрудников.
Всё ещё значительно выше туземцев третьих стран. И эти сотрудники имеют доступ к передовой медицине и при всех негативных их питания и экологии живут весьма долго.
Аноним 18/10/23 Срд 13:45:25 523092 499
>>523082
>которую все послали нахуй.
Проблемы долбаебов, а не отсутствия технологии.

>Какие-то влажные фантазии.
Если ты не можешь это представить, этого не значит что этого не может быть. У каждого есть свои ограничения.
Аноним 18/10/23 Срд 13:48:31 523096 500
>>523090
Да, туземцы стран третьего мира не находятся постоянно под внимательным оком видеокамеры. Они не писают в бутылочку, потому что нельзя отойти от рабочего места. Им не препятствуют в формировании профсоюзов. Всего этого в проклятом третьем мире нет. Там работают как люди, а не как биороботы
Аноним # OP 18/10/23 Срд 13:51:40 523103 501
ПЕРЕКАТ

>>523102 (OP)


>>523102 (OP)

Всем срущимся не по теме предлагаю остаться в этом треде.
Аноним 18/10/23 Срд 14:01:39 523111 502
>>523092
>Проблемы долбаебов
А можно мне к ним? Надоело быть в стране с охуенными (и не работающими) технологиями.
>Если ты не можешь это представить
Могу представить что угодно, даже то, что ко мне в сычевальню завалится толпа девок и начнут меня ублажать (надо карточку под это, лол). Но от моих фантазий реальностью оно не становится.
>>523096
>Да, туземцы стран третьего мира не находятся постоянно под внимательным оком видеокамеры.
Их пиздят палками другие туземцы, намного лучше, да.
>Им не препятствуют в формировании профсоюзов.
Потому что они нахуй бесполезны и все давно под сапогом того же барина.
>Там работают как люди, а не как биороботы
Ага, из-за прекрасного трудового законодательства работают полностью в чёрную. Можно в любую автомойку смело заходить с выписанным предписанием, ибо по определению там ни один мойщик не трудоустроен. Знаю людей, которые лет за 20 были официально трудоустроены 1,5 раза, и то на 2 недели. С другой стороны крупные компании кладут хуй на ТК и нанимают курьеров как самозанятых, всем тоже похуй, что они на переработках ебашат и сшибают детишек на великах.
Аноним 18/10/23 Срд 14:38:07 523150 503
>>522911
> Ну я же говорю — психологических!..
> =D

Надо отбрасывать такое мышление, к добру не приведет. Нужно корректировать психологические границы в зависимости от дохода и инфляции

А то будешь через 10 лет как интернет шиз Поднебесный, который зарабатывает нормально, но не может купить сосиськи дороже 20₽, так как в его 2000 год это была норм цена
Аноним 18/10/23 Срд 14:38:22 523151 504
>>523039
> Патамушта все дорого из-за дорогих источников энергии.
В товарах ежедневного потребления и подобных вещах доля затрат на нее не определяющая. Сам по себе абстрактный источник энергии не даст ничего, эта энергия должна быть удобной в производстве, транспортировке/накоплении и использовании. Абстрактные рассуждения в отрыве от системы не имеют смысла, а термояд как дешевый источник энергии - смех.
> они помогут смоделировать условия в которых из нашей техники и материалов можно это собрать.
Нет не помогут в том виде что ты описываешь. Развить CAD, помочь в обработке и анализе, что-то автоматизировать, и продолжить прогресс который был в последние декады, но не более. Остальное - фантазии на основе желтых бейтовых статей.
> на понятном обычном людям языке.
Понятный язык не означает что можно гнать любую херь вопреки здравому смыслу. Говорил бы про абстрактный энергоресурс и абстрактное развитие с привлечением ии - да, но как только развеиваются абстракции это все заканчивается.
> Я знаю ситуацию с текущими 3D принтерами, синтезом и атомкой и возможностями нейросетей
Видится что-то на подобии "уверовал в инфоциган и в лучшем случае после поста пошел чекать википедию", слишком много дилетантских нестыковок и непониманий. Не стыдно чего-то не знать, стыдно врать о своем незнании и неверно оценивать себя.
Аноним 18/10/23 Срд 14:41:50 523161 505
>>523150
>Нужно корректировать психологические границы в зависимости от дохода и инфляции
В сторону переезда в страны, где нет ебанутых инфляций.
>>523151
Вот этого поддвачну.
Аноним 18/10/23 Срд 14:43:11 523164 506
>>523161
> В сторону
Как это сделать без "выбора стульев" как в загадке и серьезного штафа на почти все области повседневной жизни в первые N лет? вопрос риторический, забей
Аноним 18/10/23 Срд 15:01:45 523171 507
>>523164
Выгода от жизненно важных областей всё равно перевешивает.
Аноним 18/10/23 Срд 15:06:24 523175 508
Я нашел видос там чел запускает 13B викуню на p40 c неплохой скоростью, потратив 500 баксов на сборку. А почему тогда на реддите носяться с (гей)мерскими 3090 и так далее, если ли можно собрать специализированный бомж пека? В чем подвох?
Аноним 18/10/23 Срд 15:15:26 523181 509
>>523175
Ответил в перекате
Аноним 18/10/23 Срд 19:06:39 523363 510
>>523151
https://2ch.hk/sf/res/227070.html

Небольшое путешествие на 2 года назад.

Почитай таких же экспертов как ты, которые с абсолютной уверенностью и убедительно доказывали что происходящего сейчас ждать еще кучу лет.

Там точно такие же люди как ты, которые так же неверно экстраполировали развитие ситуации в реальном мире.
Приводя убедительные аргументы, убеждали других в своей ограниченной точке зрения, не способные представить что будет дальше.

А потом глянь свои посты где ты точно так же приколачиваешь фантазии к земле отталкиваясь от своих представлений о том что может существовать, а что нет. Просто не способный представить о чем идет речь.
Аноним 22/10/23 Вск 16:39:27 526639 511
Что у нас по коллабам, друзья?
Не получается 30б пока заставить стабильно работать?
Я и через проц пробовал, скорость кстати хорошая.
Аноним 20/12/23 Срд 11:41:41 578352 512
image.png 246Кб, 1280x700
1280x700
Я увидел на просторах интеренета такую вот картинку, и понял что у меня есть по сути только моделька. А вот как например с фейсбучной ллмкой спршивать баху данных как на картинке? или как это делает гпт 3? лама вообще так умеет?
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов