Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 164 16 63
Железотред Аноним 08/04/23 Суб 23:09:22 212147 1
168098450029553[...].jpg 124Кб, 1469x1102
1469x1102
Обсуждаем железо для локального запуска нейронок у себя дома, вычисляем самый дешевую конфигурацию для ML, и всё в таком духе.

Собираем суперкомпьютеры на Rapberry Pi и Google Coral Edge TPU.
Аноним 10/04/23 Пнд 03:48:39 215057 2
>>212147 (OP)
> Собираем суперкомпьютеры на Rapberry Pi и Google Coral Edge TPU.
И шо, этот Корал имеет какой-то смысл при диффундировании или использовании творений OpenAI? Я отчего-то сомневаюсь.
Аноним 10/04/23 Пнд 05:56:23 215168 3
>>215057
> Корал имеет какой-то смысл при диффундировании
Имеет. Вернее имел бы, если разраб каломатика вместо доты закрывал бы issues на гитхабе.

На самом деле для ML тебе нужны не видюха как таковая, а только её тензорные ядра и ОЗУ.

Покупая видеокарту для ML ты сильно переплачиваешь (оче сильно, даже без учета перекупщиков).

Еще есть проблема в том, что Tensorflow поддерживает TPU из коробки, а Keras нет.
Аноним 10/04/23 Пнд 08:24:50 215222 4
Жду консюмерских видюх от nvidia с мощной поддержкой ИИ в ближайшем будущем.
Аноним 10/04/23 Пнд 09:22:16 215253 5
>>215222
NVIDIA ориентируется на гей-меров. Но было бы неплохо увидитеть от них тензорный сопроцессор.
Аноним 10/04/23 Пнд 15:34:40 215790 6
>>212147 (OP)
Да хуле тут обсуждать, если совсем нищета, то 3060, ниже уже нахуй. Если бохатый, то что-то уровня 4080. Но лучше подождать 5 поколение, возможно оно будет под нейронки заточено.
Аноним 10/04/23 Пнд 16:13:13 215933 7
>>215790

Ну 3060 вообще в сущности единственный варик с 12 гб, чуть больше 30 рублей. Следующие варианты с таким количеством памяти я смотрел - это уже 80-90. На 8 гб лору может быть некомфортно обучать. А переплачивать 50к только с той мотивацией, что мокрые письки генерируются не 12 секунд, а 3 - это надо быть богатеем. Учитывая время на продумывание и вбивание промпта и сравнение вариантов - 3 секунды вместо 12 даже не дают прирост производительности в 4 раза. Про полноценные модели даже не думаю, это уровень 4090.

Опять же, если текстовые буду щупать, то 12 гб лучше.
Аноним 10/04/23 Пнд 17:22:02 216155 8
Нужен еще теперь хороший проц и оперативка, чтобы можно было легко ламу 30B - 65B запускать.
Сейчас посмотрел сборочки под i7-12700KF и видюшку 3090 и охуел от того какие там заморочки с охлаждением. Эта херня греется нормально вообще, нужно не мало денег еще отдать чтобы все это охладить.
Аноним 12/04/23 Срд 02:30:47 219419 9
А две видяхи по 8гб проканает?
Аноним 12/04/23 Срд 02:32:03 219420 10
А две видяхи по 8гб проканает? Или нейронки не дружат со Sli/crossfire?
Аноним 12/04/23 Срд 07:57:42 219577 11
О, хороший тред.

Суть. В ближайшие пару месяцев буду пека собирать. Бюджет будет небольшой. Собираюсь, насколько это железо позволит, нейронками всякими обмазыватьтся.

По видюхам два варианта: 3060 12Gb из магазина, 3070 с алика. Склоняюсь к первому варианту, всё-таки брать отмайненного китайцами кота в мешке ну прям совсем не хочется. Я сильно сосну в сравнение с 3070? Смотрю тот же график бенчмарков диффузии на томас хардвер и понимаю, что вроде как сосну, но не критично.

По процу и озу всё интереснее. Тут либо какая-то пятая рязань с магазина + 16 или 32 гига памяти, либо дохуяядерный (возможно даже двухсокетный) зион с алика + 64 или 128 памяти. И если в случае видюх у меня какое-то предпочтение есть, то в случае проца - вообще хуй знает. Просто краем глаза на ламу поглядываю и звучит это очень интересно, запускать модельку на проце в смысле. Но её вообще до чего-то вменяемого допилят? И что-то кроме неё на проц перенести вообще возможно? Насколько это трендом может стать, если возможно?
Аноним 12/04/23 Срд 09:38:27 219614 12
>>215790
Где-то я здесь на борде видел пикчу, что разницы между 2070s и 3060 12gb в SD почти не было.
Аноним 12/04/23 Срд 20:39:41 220931 13
Я тут думаю, менять свою карту с 8гб VRAM на 24гб, что будет очень дорого, или же все таки перейти с 16 гб оперативы на 64 гб для запуска неквантированных моделей на ЦПУ? Интересуюсь в целях запуска нормальных моделей Ламы, готов жертвовать скоростью для получения адекватных ответов от ИИ или генерации длинных историй.

>>219577
Как пользователь RTX 3070 скажу, что 8гб VRAM нормально так ограничивают доступное разрешение картинок в SD, особенно с hiresfix.
Если выберешь 3060 то соснешь совсем немного в скорости. Если ждать на полминуты больше для тебя не проблема, то лучше выбирать 3060.
Аноним 13/04/23 Чтв 08:07:37 221932 14
>>215790
Так можно вечно ждать. Хотя интересно, конечно, что будет в 4060 и 4090ti в плане памяти (скорее всего ничего хорошего)
Аноним 13/04/23 Чтв 20:51:00 223606 15
>>220931
тут рядом тредик ламы
там аноны выяснили следующее:
- видюхи работают плохо: они должны работать быстрее процессоров в тысячи раз, а работают либо также, либо быстрее раза в три, а стоят при этом раз в 6 дороже. Починят ли это вообще и когда - никто не знает. И я хз в чем тут дело, но тот же дифьюжн для картинок на видюхах работает раз в 10-30 быстрее, значит потенциал для языковых сеток в теории тут есть.
- при вычислениях каждый токен требует считывания полного объема модели. Следствие: если модель целиком помещается в память, все работает сносно, если хоть чуть-чуть не посещается, скорость просаживается в 10 раз и более, начинается постоянная подкачка данных
- у видюх бытового класса очень мало памяти: сейчас предел 20-24гб, в то время как на пека можно установить до 128гб и крутить более серьезные модельки
- скорость работы модельки почти линейно зависит от ее обьема. Это значит что большие модельки в любом случае будут работать медленно: разница между "медленно" когда у тебя мощное железо и "оче медленно" когда по каким-то параметрам железо модельку не тянет. Так что большинство даже не рискуют крутить тяжелые модельки, чисто из-за скорости
- значение имеет и формат модельки: некоторые форматы оптимизированы и работают намного быстрее чем другие. Под видюхи есть свои форматы, под процессоры свои - они по-разному нарезаны на слои, которые будут загружаться и обсчитываться
- разработка в активной фазе, так что имеет смысл присмотреть себе наиболее свежий движок. Дело в том что некоторые движки обновляются каждый день, а другие движки - их форки, которые почти не поддерживаются, или сильно отстают от оригинала.

Так что смотри сам.
Если ориентируешься на маленькие и быстрые модельки, то тут большой разницы нет: такие модельки будут быстро работать везде. В чатиках аноны используют именно их: 13b максимум, они тупенькие, но для ролеплея хватает.
Если ориентируешься на большие модельки - видюху под них просто не найдешь, придется ограничиться процессором и тонной памяти. Но имей ввиду что нормально такие модельки крутить не получится - они тормозят везде, потому что большие.
Аноним 14/04/23 Птн 11:04:15 224442 16
>>215790
>Но лучше подождать 5 поколение, возможно оно будет под нейронки заточено.
Тоже на это надеюсь, ну или хотя бы на то что в этот раз Хуанг всё таки насыпет памяти и даже на 70х моделях будет по 16 гб, не сможет же он в очередной раз скормить людям огрызки! Сможет конечно, но я надеюсь на лучшее.
Пока сам на 3060 сижу.
Аноним 14/04/23 Птн 11:06:33 224445 17
>>215253
На кого тогда ориентируется амуда? У них что в 3д, что в нейронках всё еще хуже.
Аноним 14/04/23 Птн 11:37:20 224461 18
>>224445
расскажи мне, как у меня все хуже
7900@7950-мимогосподин
Аноним 14/04/23 Птн 11:58:25 224496 19
>>224461
>7950
Если не 7950X3D, то соснул с проглотом.
Аноним 14/04/23 Птн 12:09:33 224508 20
>>224445
На геймеров. Я бы не сказал что у них там хуже.
А с нейронками они лоханулись изначально, ковыряясь в носу пока Хуанг чемоданами заносил куда надо
Аноним 14/04/23 Птн 12:25:30 224517 21
>>224508
Ну им объективно нет смысла делать решения специально под ИИ. Те кому нужна карта под ИИ и так за редким исключениям покупают Nvidia. Вариантов лучше то все равно нет. Так что зачем лишний раз напрягаться. Вот если бы была реальная конкуренция...
Аноним 14/04/23 Птн 12:26:01 224519 22
>>224517
>им
Nvidia я имел ввиду.
Аноним 14/04/23 Птн 13:09:39 224623 23
>>224508
>Я бы не сказал что у них там хуже.
Ретрейсинг?
>>224517
>Ну им объективно нет смысла делать решения специально под ИИ.
С одной стороны да. С другой, сейчас есть спрос на промежуточные решения между геймерсокой картонкой и проф решениями на 100500 тыщ. Банально выпустить титан с х2 памяти на чипе от 4090, и его с руками оторвут нахуй.
Аноним 14/04/23 Птн 13:52:47 224740 24
стресс.png 19Кб, 270x120
270x120
>>224517
>>224623
>Ну им объективно нет смысла
Объективно они пидарасы которые доят свою монополию. Так-то конечно, нет смысла, нахуя делать хороший продукт если этот господин уплатит за все.
Смысл не в том что то что они делают нелогично, смысл в том что они конченные уебки.

И я опять плюну в сторону АМД за то что они такие безвольные дебилы которые уже в который раз не видят дальше своего носа и упускают важнейшие решения.

Пиздец нахуй бомбит от этой хуйни блять уже. Китайцы ещё копаться будут года четыре перед тем как нормальный ускоритель выкатят, так что вариться нам с этими уебками ещё долго.
Аноним 14/04/23 Птн 14:51:03 224835 25
>>224740
>Объективно они пидарасы которые доят свою монополию.
Да. И ты бы доил.
>>224740
>Китайцы
Надежды нет, они безмозглые и без технологий теперь, выкатят максимум пресс релиз.
Аноним 14/04/23 Птн 15:14:06 224874 26
>>224835
Ну, техпроцесс у них был уже лучше чем у амд и нвидии, так что я бы не был так уверен. Но пока не выкатят/обосрутся не узнаем, а ковыряться они ещё долго будут.
Аноним 14/04/23 Птн 15:59:53 225013 27
>>224740
>>224623
>>224517
Вот вы сретесь, а видевокарты вообще не про ИИ. Вы спрашиваете с корпораций то, что вообще не входило в их цели изначально.

То что NVIDIA использует тензорные ядра - они не для вас делалились, а для геймеров, которым нужно качественное сглаживание без мыла.

Если и смотреть в сторону корпов, которые ориентируются на ИИ, то смотрите на чипы от Google.
Аноним 14/04/23 Птн 16:08:31 225037 28
Дополняю предыдущий пост, скажу, что большая часть железа внутри видевокарты вам не нужна вовсе для ML. Переплата огромная.
Аноним 14/04/23 Птн 16:09:35 225038 29
>>224874
>Ну, техпроцесс у них был уже лучше
Нет.
>>225013
Мы про домашнее применение. TPU и прочее конечно хорошо, но стоит милиларды.
А нам бы домашнюю картонку с увеличенным объёмом памяти.
Аноним 14/04/23 Птн 16:25:41 225056 30
>>225038
> TPU и прочее конечно хорошо, но стоит милиларды.
Конечно тот же NVIDIA A100, который и создавался для дата-центров стоит дохуя вечнозеленых.
Но есть и дешевые.

> А нам бы домашнюю картонку с увеличенным объёмом памяти.
По части памяти тут вообще жидоство то еще. Память дешевая вещь.
А вот разница между видевокартой 16Гб и такой же, но 32Гб колосальная.
Аноним 14/04/23 Птн 17:52:28 225263 31
>>225056
>Память дешевая вещь.
GDDR6x дохуя дорогая вообще-то.
Аноним 14/04/23 Птн 17:59:45 225280 32
>>225263
Вот только ты говоришь про VRAM. Я напомню, что производители видевокарт в этой области монополисты.

Себестоимость памяти дешевая. Те же TPU от гугла использут DDR3 и HBM.
Аноним 14/04/23 Птн 19:20:10 225495 33
>>225013
>То что NVIDIA использует тензорные ядра - они не для вас делалились, а для геймеров, которым нужно качественное сглаживание без мыла.
Это утверждение ошибочно CUDA и нвидия с ног сбилась везде её пропихивая, этот набор инструкций как раз для вычислений, и то что изначально все нейронки собирались под неё сыграло свою роль.

>>225013
>то смотрите на чипы от Google
Гугл не хочет продавать свои чипы, он хочет продавать апи к своему облаку и дополнительные мелкоускорители как штучка из ОП-поста.
Так-то смотреть нужно все равно на нвидиу, а100 лучший вариант на мой взгляд, h100 судя по всему имеет ценник настолько конский что не уверен что даже датацентры захотят его использовать.
Аноним 14/04/23 Птн 19:39:54 225534 34
>>225280
>Я напомню, что производители видевокарт в этой области монополисты.
Чего? Я вообще не уверен что они производят память даже для своих карт, а уж производители самих видеокарт типа асуса, мси, палита и т.д. точно покупают память у вендеров вроде хюникса или самсунга
Аноним 14/04/23 Птн 21:07:14 225744 35
>>225280
>Себестоимость памяти дешевая.
Не совсем.
>DDR3
Дорожает, ибо перестали делать.
>HBM
Охуенно дорогая в пересчёте на мегабайт.
И да, проблема памяти тут в пропускной способности, и дыры 3 не хватит ни на что. Моя видимокарта имеет почти 1ТБ/с, и это далеко не рекорд.
>>225534
Именно. Хуникс, микрон да сосунг, притом гддр6 делает кажись только один из них (не помню кто, но не сосунг).
Аноним 15/04/23 Суб 22:48:16 228679 36
a5XB8MO460svvp9.webm 1803Кб, 460x338, 00:01:06
460x338
Аноним 16/04/23 Вск 04:55:10 229438 37
image.png 487Кб, 680x445
680x445
Для stable diffusion что лучше брать 3090 или 4080?
3090 - 24гб памяти
4080 - быстрее
Аноним 16/04/23 Вск 04:56:30 229442 38
Конечно 4090 лучше, но жалко 50к дополнительных на нее. 3090 и 4080 примерно похожи по стоимости.
Аноним 16/04/23 Вск 06:59:33 229558 39
Аноним 17/04/23 Пнд 18:11:37 234249 40
>>229438
> 3090 - 24гб памяти
Решает.
Аноним 18/04/23 Втр 05:26:49 235794 41
Как думаете есть ли смысл для 3090 покупать мне все остальные новые запчасти? Запускать буду stable diffusion и может еще llama (все запускать буду на видеокарте)
Жаба душит отдавать еще почти 100к на все другие запчати.

Такая сборка сейчас:
AMD Ryzen 5 1600
GIGABYTE AB350-Gaming 3-CF
RAM Crucial Technology 16 ГБайт Скорость памяти: 1200.0 MHz (DDR4-2400 / PC4-19200) - есть 2 планки
жесткие диски HDD (да, я тот человек, который не перешел еще на SSD в 2023 году)


Есть вот такие тесты:
>на основе теста 6 игр, AMD Ryzen 5 1600 ограничивает RTX 3090 при настройках 1080p - high 32.1% в среднем .
https://www.cpuagent.com/ru-rub/cpu/amd-ryzen-5-1600/bottleneck/nvidia-geforce-rtx-3090?res=1&quality=high

но, тут тестят в играх, я так понимаю для игр нужен и процессор и видеокарта. Для моих задач это не так актуально вроде как.
Аноним 18/04/23 Втр 07:03:34 235831 42
>>235794
Работать-то будет, но по собственному опыту — после перехода с i7 6 поколения на i5 12 поколения скорость генерации выросла почти в два раза.
И под SD лучше взять хоть какой-нибудь SSD (желательно nvme, конечно) гигов так на 512, иначе будешь ждать по несколько минут запуск webui/смену чекпоинта. Для llama, в принципе, тоже актуально, так как там модели весят гораздо больше.
Для примера на гусмасе 980 Pro запуск webui 7 секунд, смена чекпоинта 0.7-1.2 сек.
Аноним 18/04/23 Втр 10:18:18 236081 43
>>235794
>AMD Ryzen 5 1600
Ну у тебя совсем всё дновое. Придётся пересобраться на актуальном поколении. Для запуска лламы даже на видяхе нужна оператива.
Так что советую последний амуде (если есть деньги, то с большим кешем), пару плашек по 32 гига, материнку с потанцевалом на 4 канала (не просто 4 слота, а с правильной топологией разводки, чтобы не пукнуть жидко, когда добавишь ещё пару планок).
Ну и SSD, чем больше, тем лучше. 512 это минимум, как уже написали. Но у меня только модели уже 500 гиг заняли, так что лучше сразу 2ТБ бери.
Да, жаба, зато потом комфортно будет, без слёз от того, что что-то не вместилось, тормозит или не запускается.
Аноним 18/04/23 Втр 10:46:38 236153 44
>>212147 (OP)
Стоит ли брать две карты RTX 3060 12Gb вместо одной RTX 3090? Будет ли у меня в целом 24 гб памяти на таком конфиге или я что-то упускаю?
Аноним 18/04/23 Втр 11:47:13 236279 45
>>236153
Нет, это так не работает.
Аноним 18/04/23 Втр 12:44:06 236366 46
>>236279
Ну а как это тогда работает?
Аноним 18/04/23 Втр 14:38:13 236743 47
>>236366
У тебя будет два отдельных независимых устройства cuda0 и cuda1. Ты сможешь запустить два экземпляра webui, каждый со своей моделью. Но каждый экземпляр будет ограничен своим объемом памяти в 12 Гб.
Тоже самое касается и llama и всего что использует cuda для вычислений.
Запараллелить теоретически возможно, но там лютейший низкоуровневый перодолинг, поэтому этого еще никто не сделал.
Аноним 18/04/23 Втр 18:00:21 237337 48
>>236743
>поэтому этого еще никто не сделал
В кобольде можно раскидывать слои по разным GPU прямо в гуе. А так да, пердолинга намного больше.
Аноним 18/04/23 Втр 18:54:51 237481 49
>>219577
> 3060 12Gb из магазина
3090 с 24Гб. Или не покупай вовсе.
Аноним 18/04/23 Втр 18:56:24 237485 50
>>236153
> или я что-то упускаю?
PCI lanes, например. И энергоёмкость. Какой у тебя должен быть PSU в таком случае, как считаешь?
Ну а вообще правильно объяснили, кластера из локальных карт не получится, увы.
Аноним 18/04/23 Втр 19:00:29 237497 51
>>215168
> Вернее имел бы
То есть, если подключить эту штуку вот сегодня, то всякие Автоматики начнут генерировать быстрее? Или нет? И если да, то насколько? Постарайся уместить ответ в 100 токенов.
Аноним 18/04/23 Втр 20:17:11 237696 52
>>237481
Не гони, с 3060 вполне можно вкатиться даже на 13B
Аноним 18/04/23 Втр 21:50:05 237919 53
>>236743
NVLink же должен позволять пул памяти, не?
мимо
Аноним 18/04/23 Втр 22:35:57 237998 54
>>237919
Его нет на 3000 серии, кроме 3090, а на 4000 выпилили вообще. Гои должны платить за проф карточки.
И да, с софтом там тоже не так просто.
Аноним 19/04/23 Срд 00:25:02 238306 55
>>237919
Никогда не позволял. Нужно модель на шарды бить и раскидывать по картам, чтобы каждый видеопроцессор сканировал свой шард.
Аноним 19/04/23 Срд 09:32:21 238740 56
>>238306
А для чего он тогда был предназначен, если не позволял пул памяти? Раскидывать модель можно вообще без всяких технологий.
Аноним 19/04/23 Срд 11:36:31 238947 57
>>237696
В какой 13B? Ты про конкретную модель? Я про многие модели. Мне 3080Ti не хватает для некоторых вещей. То, что можно играть на минималках и с хуёвой картой - мы знаем. Речь о том, чтобы не пердолить конфиги и не идти на компромиссы.
Аноним 19/04/23 Срд 14:06:33 239210 58
>>238740
Синхронизация карт прежде всего, это ж изначально для повышения фепсов делалос. Правда, по факту никто это говно не поддерживал и в результате 40% - мировой рекорд нагрузки второй карты. А по поводу пула врам, даже если оно есть, оно тебя не спасет т.к. обращение к пулу памяти второй карты производится через PCIe шину, а она даже в х4 ревизии сосет у двухканальной системной памяти по скоростям.
Аноним 19/04/23 Срд 14:27:15 239253 59
>>239210
Впрочем ладно, я напиздел - нвлинк нынче тоже хорошую скорость имеет, но это всё равно 1/10 от скорости врам и простым подключением карт через нвлинк память не объединится.
Аноним 19/04/23 Срд 19:19:38 240077 60
>>239210
>>239253
Печаль... Хоть амдшный сервер с двенадцатиканальной памятью бери... Но вроде говорят что на проце все равно не оче.
Аноним 19/04/23 Срд 20:00:55 240246 61
>>240077
>амдшный сервер с двенадцатиканальной памятью
В пике примерно половина PSP от сраной 3080Ti. Лучше пачку обычных А100.
Аноним 19/04/23 Срд 20:59:26 240451 62
>>240246
>Лучше пачку обычных А100
а100 десять тыщ стоит, тут этот ебанный сервер с 384ГБ ддр5 памяти дешевле выйдет если не на топовом проце.
Аноним 19/04/23 Срд 22:06:21 240745 63
Аноним 27/04/23 Чтв 04:19:57 262017 64
Вот вот должны появиться модули DDR5 по 64 GB - на обычной домашней мат. плате AM5 с 4 разъёмами можно будет поставить 256 GB RAM.

Производители мат. плат уже начали добавлять в BIOS поддержку модулей высокой плотности.

Также можно попробовать использовать разделители линий pci-e с Bifurcation для слота pci-e 16x -> 8x + 8x (мат. плата должна поддерживать bifurcation)
Аноним 27/04/23 Чтв 05:01:34 262074 65
>>262017
Да, но даже на ксеонах и эпиках скорость работы судя по репортам так себе. Нужны видеокарты все равно, а с ними судя по всему все плохо. зеленые жадничают с памятью на потребительских картах, а100 до сих пор 10к вечнозеленых, h100 ещё дороже, амд в жопе, интел в тестах хорош но насколько я понял на продажу свои карты для нейронок не выставляет)

(Следующие эпики, кстати, должны быть с чиплетом для нейронок, но он скорее всего будет работать просто как ускоритель для систем с кучей а100 в датацентрах. Хотя кто знает.)
Аноним 27/04/23 Чтв 06:18:02 262185 66
Также это вопрос в технической реализации моделей нейросетей - нужно разделить их на слои по функциональности, чтобы каждый раз при запросе не гонять по всем слоям.

Тогда по идее и уровень потребления VRAM уменьшится и можно будет программно между дополнительными серверами результат каждой части гонять для доработки.

Примерно как сейчас объединяют слои языковой и визуальной сети вместе(miniGPT-4).
Аноним 27/04/23 Чтв 10:32:01 262552 67
>>262017
>pci-e с Bifurcation для слота pci-e 16x -> 8x + 8x
У меня на плате 16+16+8 псины есть правда третьей версии.
>>262185
>нужно разделить их на слои по функциональности
Просто по слоям поерзать можно, кобольд старший так умеет.
Аноним 03/05/23 Срд 10:55:12 276997 68
Есть вообще смысл обновляться на что-нибудь кроме 4090 с 3060?
3090 - стоит в районе сотки, докинуть 40-50к и можно взять 4090 которая гораздо быстрее и актуальней.
4080 - слишком мало памяти для ее цены.
Все остальное - никакой прибавки по памяти над 3060.
Всё больше прихожу к выводу, что есть только 2 рациональных решения:
1. Обновляться на 4090 не смотря на ебанутую дыру в моем бюджете, которая останется после ее покупки.
2. Сидеть дальше на 3060, не тратить деньги и ждать 50xx серии и/или лучшей поддержки Intel/AMD карт.
Аноним 03/05/23 Срд 12:25:10 277135 69
image.png 5Кб, 270x120
270x120
>>276997
>стоит в районе сотки, докинуть 40-50к
Ты 50% накинуть предлагаешь, это слишком много.
Аноним 04/05/23 Чтв 00:16:26 278418 70
>>276997
Может 4060 сначала дождешься или 4090ti? Может сделают хорошо.
Аноним 05/05/23 Птн 07:17:08 280724 71
>>277135
Ну да, но там производительность более чем на 50% выше и ту же 4090 можно прямо в магазине на три буквы купить, а 3090 еще нужно искать чтобы была новая и не рефаб. Из под чмойнера может и тысяч за 60 купить можно, но это риск плюс уметь нужно.
>>278418
>Может 4060 сначала дождешься
Ну и нахуй нужен 8 гиговый огрызок? Для игр то может и норм с DLSS3 - но я в игры играю не так много, я могу и на средних на своей 3060 поиграть, мне норм. А вот для нейронок это даже хуже 3060 двенадцатигиговой будет.
>4090ti
Будет дороже 4090 и выйдет за год или полгода до выхода 5090 наверное, которая его 100% отыквит - ну и нахуй оно надо?
Если говорить о том, на что я надеюсь - так это на супер версии 40ых карточек, с увеличенным объемом памяти. Но конечно нет никаких гарантий что Хуанг расщедрится. Но всё же шансы есть, вроде продажи у Ады так себе. Какую-нибудь 4070 super на 16 гигов было бы очень вкусно купить. Но это так, влажные мечты.
Аноним 05/05/23 Птн 07:45:20 280741 72
>>280724
>8 гиговый огрызок
Так они ж вроде не объявили спеки пока, может опять 12 будет.

>до выхода 5090 наверное, которая его 100% отыквит
Опять же возможно в ней будет больше памяти, но тут да, если ждать ti, то лучше сразу пятой ждать и выбирать тогда уже.
Аноним 05/05/23 Птн 09:02:41 280783 73
Имеет смысл переплатить за 3060 в сравнении с 1080ti?
И то и другое б/у
В игровых тестах 1080ti вроде даже чуть мощнее.
Аноним 05/05/23 Птн 11:05:47 280886 74
ye49n5XUBk8KwuD[...].png 58Кб, 970x546
970x546
>>280783
>Имеет смысл переплатить за 3060 в сравнении с 1080ti?
Конечно. У Паскалей нет тензорных ядер, они говно в нейронках.
Сравнения с 1080ti и 3060 я не нашел, всё таки 1080ti совсем древняя, но вот как 1660 super перформит в сравнении с 2060 можешь сам на графике увидеть.
Видеокарты без тензорных ядер это очень хуевый варик для нейронок, какие бы они там результаты в игрушках не показывали.
Да даже для игр 3060 лучше, ибо dlss поддерживает и просто новее, а значит меньше прожарена. Хотя для игр уже важно насколько дороже ее продают.
Аноним 05/05/23 Птн 15:02:22 281214 75
Анонсы, какую не требовательную нейронку для картинок имеет смысл накатить если у меня дно ноутбук с RTX 3050 4Gb.
Желательно чтобы модель умела в аниме.
Колаб не хочу.
Аноним 05/05/23 Птн 16:14:15 281319 76
Аноним 05/05/23 Птн 17:09:36 281389 77
>>281319
Какая версия заведется? 1.5 хотя бы реально?
Аноним 05/05/23 Птн 17:22:56 281405 78
Аноним 06/05/23 Суб 11:12:07 282279 79
Сильно всосу, купив RX 6800 как универсальную карту?
Аноним 06/05/23 Суб 11:44:23 282324 80
>>282279
Великолепное решение для нейросетей!
Аноним 06/05/23 Суб 12:13:47 282354 81
>>282279
>>282324
На радивонах вообще кто-то пробовал нейронку запускать?
Аноним 06/05/23 Суб 12:56:59 282434 82
>>282354
Вот он и попробует, ведь он десятилетиями доказывал превосходство амудей, уверен, какие-то жалкие тензоры с кудами не пошатнут его принципов.
Аноним 06/05/23 Суб 14:37:26 282647 83
image.png 16Кб, 337x150
337x150
Аноним 06/05/23 Суб 16:44:20 282965 84
Аноним 06/05/23 Суб 17:24:56 283083 85
show.png 5Кб, 270x120
270x120
>>282965
is_rtx_3060_with_12_gb_vram_enough?

So, I did buy that system and for those of you who asked here are the results. Questions in the post.

Have not tried FP32 yet

Was able to train an textual inversion embedding for 512x512 wir 4GB VRAM to spare

Have not been able to train an DreamArtist one shot embedding : Technical Issue

Have not tried Dreambooth Yet

Without any optimization, can get upto 1536x2304. That's 3x upscale from 512x768.

Will update with more information after experiments

Update 1 and 2 ::

One thing, I wan to tell you is that with this card, specifically for SD, you are sacrificing processing power for extra VRAM. So, make sure you use it and have reason to use it.

As per everything else, Gaming + Graphics Applications, this card is great. I am playing forza horizon 5 on max settings for 1080p, almost never dipped below 100 FPS.

Only when it comes to SD inference or more so training when one might worry about speed.

Okay, here we go, part by part.

Keep in mind, I am using stable-diffusion-webui from automatic1111 with the only argument passed being enabling xformers. FP16 is allowed by default. Loaded model is protogenV2.2 pruned.

Inference

FP32 works ofcourse, it consumes twice as much VRAM as the FP16 and is noticably slower. I do not think it is worth it.

I can generate 2048x2048 images without running out of memory, nvidia-smi reports 8037MiB used by the process. That means about 3 GB to spare and also, with optimization you could do this on 8 GB cards. For this, Eular A, 50 Steps, I get 9.15 sec/it, almost 8 mins for one inference.

But, you are better off using highres fix to upscale.

I ran the extension for webui :: VRAM Estimator

I can do almost anything upto 2048x2048 with bath size of one. Txt2image, img2img, Highresfix img2img.

For timings and speed :::

Textual Inversion
512x512 : 2.17 it/s : ~12 HR @ 100000 steps

512x768 : 1.21 it/s : ~23 HR @ 100000 steps

512x1024 : OOM torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 11.77 GiB total capacity; 9.03 GiB already allocated; 1.01 GiB free; 9.20 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

768x768 : OOM torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 2.53 GiB (GPU 0; 11.77 GiB total capacity; 7.88 GiB already allocated; 53.31 MiB free; 10.15 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

1024x1024 : OOM torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 4.00 GiB (GPU 0; 11.77 GiB total capacity; 7.77 GiB already allocated; 2.15 GiB free; 8.07 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

Inference ( The straightforward text to image )
3072x2048 : OOM At the LAST Denoising Step

768x512 + HighRes(4x) : 9477MiB : Eular A : 50+50 Steps : 4.97 it/s + 20.49 s/it : 00:10 + 17:04 = 17:14 Unsuccessful torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 3.00 GiB (GPU 0; 11.77 GiB total capacity; 7.40 GiB already allocated; 1.87 GiB free; 8.32 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

2048x2048 :

8037 MiB : Eular A : 50 Steps : 9.15 s/it : 07:33 Time

1024x1024 + HighRes(2x) : 8037MiB : Eular A : 50+50 Steps : 1.33 it/s + 9.38 s/it : 00:37 + 07:42 = 08:39

768x768 : 4311MiB : Eular A : 50 Steps : 3.54 it/s : 00:14

This is going to be a long post, more coming up.
Аноним 07/05/23 Вск 16:29:47 285370 86
show.png 5Кб, 270x120
270x120
>>212147 (OP)
Господа нейромансеры, тут кто-то может сборочку пекарни сделать с 3060 12гб в районе 100к для работы с SD?
Вообще не шарю за железо. Какой проц брать, память и мать?
Аноним 07/05/23 Вск 17:14:40 285447 87
>>285370
Huanan X79 + Xeon E5 2690 + 64 Gb (16x4) DDR4 3200MHz G.SKILL Trident
Аноним 07/05/23 Вск 17:27:24 285473 88
>>285447
Спс, но это уже далеко за 100к, мне ещё ссд, блок и корпус и кулер брать.
Такой проц дорогой действительно нужен?
И зачем столько памяти, 2-х планок не хватит?
Аноним 07/05/23 Вск 18:07:21 285587 89
>>285473
>>285447
Проц 13400 — 18К
или Ryzen 7600X — 22К

Мать MSI PRO B760M для штеуд — 15К
или MSI PRO B650-P для амуде — 18К
Память Kingston FURY Beast Black 32Гб DDR5-5600 — 12К
3060 12Гб— 35К
Итого: штеуд сборка 80К, амуде 87К
Остальное на корпус, бп, кулер, SSD. В 100к хуй знает уложишься или нет, но 110-120К должен.
Можно немного сэкономить (5-10К), если взять мать, память DDR4 и штеуд 12 поколения.
Аноним 07/05/23 Вск 19:10:58 285752 90
>>285447
>Huanan X79
>DDR4
Хуйню написал, тролль.
>>285473
>2-х планок не хватит?
Если брать четырёхканал, то надо брать 4 плашки. Впрочем, выше была тролль сборка. Но на хуананах можно собраться вообще за 50к.
>>285587
>память DDR4
Если брать новое, то только DDR5, пропускная способность при запуске на проце роляет.
Аноним 21/05/23 Вск 12:56:21 312504 91
Анончики. Есть 4 1080ти с которыми хотелось бы вкатиться в поезд. Проще продать, доложить и купить 3090 или есть смысл поебаться с multi-gpu системой для диффужна и лламы? Хочется собрать решение и для работы с llm, и для диффужнов.
Аноним 21/05/23 Вск 13:32:48 312551 92
>>219577
EPYC с Ebay берем, и обмазываемся оперативкой, хоть 256, хоть 512, хоть терабайт (если конечно кошелек позволит, поскольку это все чудо по цене за штуку баксов перевалит, зато будет многаядерный камень с восьмиканалом, и куча памяти....
Аноним 21/05/23 Вск 13:45:31 312573 93
>>262017
а контроллеры завезут на поддержку больше 128?
Аноним 21/05/23 Вск 13:59:15 312601 94
>>312504
майнер детектед...

смысла нет колхозить мульти ГПУ, СД во первых не умеет нормально распределяться, с ламами - сомнительно, вроде должны уметь, но как это будет работать на 4 картах (плохо, потому что шины не хватит), лучше обновить...
Аноним 21/05/23 Вск 16:52:58 312825 95
>>312551
>EPYC с Ebay берем
И каким образом? В текущей ситуации это напряжно. Я и раньше только с олишки брал, но сейчас это мейлач хуже двача, ей Богу.
Аноним 21/05/23 Вск 17:06:40 312859 96
>>312825
ну я ж не знаю какие у вас в странеспособы обхода санкций, есть же наверняка дропы какие-нибудь....
(правда доверять дропу комплект за 1500$ я бы наверное не стал бы... вообще конечно без тестов сложно сказать что лучше будет работать что хуже, но если нужно больше 128 памяти, то тут однозначно серверные платформы, двухканальный десктоп мимо...
Аноним 14/07/23 Птн 03:21:09 400357 97
Аноним 16/07/23 Вск 19:05:10 406301 98
вы еще запоете суки когда узнаете весь потенциал моей веги64..
Аноним 22/09/23 Птн 15:34:30 496885 99
4.png 446Кб, 600x708
600x708
Хочу углубиться в SD и LLAMу, не разорившись окончательно.

Что-то нужно подпихнуть в имеющийся конфиг с i7-8700, 80Гб@2666:
1. 3060 12g, 30к
2. китайское a770 16g, 30к
3. 4060ti 16g, 50к

50к - чёт дохуявато, как по мне, особенно с учётом того, что играть буду 2 часа в месяц. Да и в целом, я к таким ценам на карты не привык. Но потяну.
Из остальных двух, 770 ширше и мощнее, чем 3060 даже чем 4060ти, скорее всего, но надо ебаться с софтом на всех уровнях, начиная с биоса материнки, с рисками пососа на каждом уровне. В случае уверенного пососа можно будет уверенно повесить её на стенку в рамку, т.к. продавец - китаез с Озон Глобала.
3060 - уже чёт не очень свежее по ттх.

Что думаете, аноны? Может, я пропустил что-то?
Аноним 22/09/23 Птн 15:45:28 496896 100
>>496885
почему не хочешь удаленно считать. арендовать там ранпод? я хожу с маком считаю все на удаленке. и не привязан и получаешь результат и комп не дымиться
Аноним 22/09/23 Птн 15:57:13 496918 101
>>496896
Не изучал вопрос, но, обычно, при частом юзе
>арендовать
не выгодно.
Плюс, облако - это всегда зависимость от желаний левых пяток. Можно месяц попользоваться, а потом тебе скажут "извините, вы бэд рашн", или ещё что.

Десктоп не задымится, подключиться к нему удалённо я вполне смогу.
Аноним 22/09/23 Птн 23:02:22 497471 102
>>496885
>2. китайское a770 16g, 30к
Чел, там люди с намного более распространёнными радевонями (амудой) прожигают стулья под собой на два этажа вниз, а ты хочешь на интуле что-то там пускать.
>>496885
>50к - чёт дохуявато, как по мне
Я 150к за 3080Tiотдал, вот это дохуя.
Так что бери ччто не жалко.
Аноним 23/09/23 Суб 00:02:02 497558 103
>>497471
>амудой
Им там врама не докладывают, хули бы не прожигать.

>ты хочешь на интуле что-то там пускать
Хуй знает, я загуглил СД и ЛЛАМу, для обоих нашлись свежие приблуды для работы с Интелём.
Но да, завтра выйдет какая-нить ускорялка ЛЛАМы на Куде, и я пролечу.

По сути, мой вопрос можно свести к "а как там сосётся с Интулем?", т.к. с Нвидлой всё понятно
>бери ччто не жалко.
А на этот вопрос мне здесь не ответят, т.к. ответ могут знать только пользователи Интуля (остальные пересказывают городские легенды), а их тут нет. И вообще их 3.5 человека на Реддите.

>Я 150к за 3080Tiотдал
Зажиточно.
Жаба сведёт меня в могилу, если я так поступлю.
Аноним 23/09/23 Суб 00:42:25 497591 104
>>497558
>Им там врама не докладывают
Какой блядь врам? У них просто или не работает, или жрёт в 5 раз больше этого врама.
>Хуй знает, я загуглил СД и ЛЛАМу, для обоих нашлись свежие приблуды для работы с Интелём.
Для амуди тоже есть. Только под люнупсой, только под новый картон, только... Короче пиздец это, а не приблуды. Под интулом, уверен, всё ещё хуже.
>И вообще их 3.5 человека на Реддите.
Именно. Потому что всё плохо. А всё плохо потому что пользователей 3,5.

Короче не шатай мозг людям, бери 3060 12g, оптимально по соотношению ебля/цена/производительность.
Аноним 23/09/23 Суб 17:31:47 498124 105
>>496885
> 3. 4060ti 16g, 50к
Комфортно прилично, с дифуззией на ближайшее время все дороги открыты, с текстовыми можешь комфортно юзать 13б с большим контекстом.
> 1. 3060 12g, 30к
Платина, для сд норм, под ллм совсем впритык.
2 даже смотреть не стоит, только если ты убежденный пердолик и с этого кайфанешь. Альтернативой вместо интела тогда рассмотри 3090 с рук, перфоманса и памяти сильно больше чем у перечисленных, но риски.
>>497558
> И вообще их 3.5 человека на Реддите
Типа того, и все кто остались - адепты пердолинга. Тут с хуангом есть чем заняться чтобы все хорошо работало, а там до результата рискуешь не дойти.
> какая-нить ускорялка ЛЛАМы на Куде
Уже
Аноним 24/09/23 Вск 18:21:16 499006 106
>>497591
>>498124
Спасибо, анонии.
Заказал 4060ти 16гб. С паучком. Б/у 3090 зассал покупать.
Аноним 12/11/23 Вск 18:52:55 542386 107
Народ.
Идея такова.
Взять 128-512ГБ ДыДЫР4 2400, 2 проца по 20 ядер с 2 потоками на ядро(и того 80 потоков, память в 4-8 каналов.
И видюху или вообще не ставить и подключаться по сети, или затычку чисто.
По памяти зарулим видюхи из мегапродукшон сегмента.
Хватит даже на топовые доступные можели(265+ Гб если брать)

А чо про скорости?
О обучении все еще можно забыть или есть шансы?
Аноним 12/11/23 Вск 20:50:38 542479 108
Аноним 16/11/23 Чтв 13:52:29 545505 109
Аноним 16/11/23 Чтв 14:03:07 545513 110
>>545505
Смущает что у одного из них нет перезагрузки кнопки, и дверка на магнитах(это хорошо или плохо ваще?).
Аноним 16/11/23 Чтв 19:26:29 545753 111
Аноним 16/11/23 Чтв 20:20:40 545779 112
Стикер 127Кб, 200x200
200x200
>>545753
Ничего.
Купи, расскажешь ка картинка в игорах.
Аноним 16/11/23 Чтв 20:30:25 545787 113
>>545753
Б\У видюха это такое себе.
Если дрочили нейросети- еще хз.
А вот майнеры-ддебилы и ли игрались если сутками, еще и разогнав - оно очень может быть что едва живо.
Аноним 16/11/23 Чтв 20:54:47 545802 114
>>545753
выхлоп t/s маловат и не поддерживается exllama
Аноним 16/11/23 Чтв 20:57:16 545805 115
image.png 40Кб, 645x286
645x286
Аноним 16/11/23 Чтв 20:59:52 545808 116
Аноним 16/11/23 Чтв 20:59:52 545809 117
>>545753
А еще там под сервак охлаждение, в ПеКарне обычной сгорит скорее всего.
Аноним 16/11/23 Чтв 21:01:30 545810 118
Кстати, а чочо LLAMA на АМУДЕ?
Аноним 17/11/23 Птн 00:54:32 546011 119
>>542386
>и того 80 потоков
А работать будет от силы 8, лол, КПД 10%, охуенная идея.
>>545505
>Стекло
>Подсветка
>Фольга
Комбо долбоёба.
>>545808
Всё так.
>>545810
Амуде видяхи не делает.
Аноним 17/11/23 Птн 14:19:56 546426 120
>>545753
1. Учитывая цену, карта заезженная.
2. Под неё нужно отдельно городить продув
3. узкоспециализированная, без видеовыхода, то есть актуальна только если ты профессионально хочешь заниматься нейронками и если обычная видяха у тебя есть, но в неё не лезет нейронка.
Аноним 18/11/23 Суб 13:05:08 547144 121
Здарова анон.
Гляди, вот плата, тама два М2 разъема. (и 1 еще М2 вай-вай зачемто).
Так вот, какого хера один короткий?
Как мне брать две штуки М2 накопителя и не обосраться?
Аноним 18/11/23 Суб 13:06:08 547145 122
>>546011
> Амуде видяхи не делает.

А вот те которые Радеон? Они же все еще есть.
Аноним 18/11/23 Суб 13:11:13 547150 123
>>546011
>Стекло
Учитывая, что серверный корпус без серверных же вертушек - говно без задач(а с ними я там не выживу рядом) - это отпадает как и радиаторы под такие корпуса("пассивные" ибо обдув и так лютый), и того что это пожалуй самый достпный 3 по 140мм ветрух - похуй на стекло. Ну а вертушку в стенке чото не найти нынче. Мало стало.

>Подсветка
Решается обрезанием проводков, это я предусмотрел, многоходовочка.

>Фольга

Ну ёб, это нищесборка а не боярский\панский агрегат.
Критерием было "чтоб дуло пиздато и не шибко шумело".
Иначе бы там было больше чем всего 2(!) места под 3.5 харды.
Аноним 18/11/23 Суб 13:12:37 547152 124
image.png 651Кб, 800x800
800x800
>>547144
Картинка отклеилась
Аноним 18/11/23 Суб 13:13:38 547154 125
>>546011
>А работать будет от силы 8,
Кстати а как так то?
Вроде матричные операции параллелиться должны прекрасно.
Аноним 18/11/23 Суб 16:53:10 547402 126
>>547144
Твои вопросы не специфичны для /ai/, так что пиздуй в https://2ch.hk/hw/res/2136669.html
>>547154
Да просто всё упирается в скорость памяти. Даже на моей видеокарте с пропускной в 950ГБ/с видеочип простаивает половину времени, а на материнке на тухлом DDR4 2400 скорости будут в районе 50ГБ/с, если не меньше. И учти, что 2 проца там ничего не дадут, софт такого не вывозит.
Аноним 18/11/23 Суб 17:34:50 547427 127
Стикер 191Кб, 500x500
500x500
>>547402
>Да просто всё упирается в скорость памяти.
В смысле матрицы столь большие что большую часть времени читают значения?
С технической точки зрения выглядит как ебучий костыль.
Хочу на Прологе или символьное на уровне LLAMA.
Аноним 18/11/23 Суб 18:03:13 547453 128
Блядь, два года уже прошло, а все еще не выпустили плату что бы модель в 130б за пару десятков тыщ рупиев запускать, че за хуйня? Это же буквально не паханное поле для производителе
Аноним 18/11/23 Суб 18:40:31 547489 129
>>547427
>В смысле матрицы столь большие
Размер файла нейронки на 70B около 45 гиг. Хули ты хотел?
>>547453
>за пару десятков тыщ рупиев
Рупия не конвертируемая валюта, и 20 килорупий это хуйня в баксах.
>Это же буквально не паханное поле для производителе
Таблетки оформи. Производители (NVidia) прекрасно на этом зарабатывают, продавая H100 за десятки тысяч баксов.
Аноним 18/11/23 Суб 19:18:18 547530 130
>>547489
>Таблетки оформи. Производители (NVidia) прекрасно на этом зарабатывают, продавая H100 за десятки тысяч баксов.
В этих картах кучу не нужной лишней хуйни. Нужны платы именно для ии. С майнингом похожая хуйня была, пока челы буквально на коленках платы стали собирать, которые потом асиками стали называться.
Аноним 18/11/23 Суб 19:27:55 547547 131
>>547453
Бычка нужно кушать по частям. 1 впарить корпорациям за огромные деньги железо, что может запускать имея достаточный объем памяти и перфоманс. 2 когда этот рынок поднасытится - выпускать более простые модели для более мелких разработчиков. 3 выход на обычных пользователей где уже будет конкуренция и меньше профита, в девайсы обязательно заложить ограничения чтобы не конкурировали с предыдущими.
Вы находитесь между 1-2.
>>547530
Понимаешь, это немножко посложнее чем делать 1.5 простые операции. Уже анонсированы аи ускорители от китайцев и прочие производители суетяться, но это дохуя сложная сфера. Упрощать же, делая слишком узконаправленную вундервафлю не то что рискованно а просто невозможно, с нынешним темпом развития она устареет и станет неактуальной еще до окончания разработки.
Аноним 20/11/23 Пнд 00:59:56 548492 132
>>545805
Это откуда? Просто обычно в таких гайдах обучение и использование идут отдельными пунктами.
Аноним 20/11/23 Пнд 12:17:28 548866 133
RtAnnCQxaVJNYgA[...].png 138Кб, 1921x1441
1921x1441
Аноним 20/11/23 Пнд 13:05:11 548908 134
А что насчет CMP-огрызков?
Аноним 21/11/23 Втр 22:08:44 550459 135
>>312551
>EPYC с Ebay берем
Ссылочку будь добр покажи на вменяемый на твой взгляд прайс
Аноним 21/11/23 Втр 22:17:27 550469 136
>>236081
>а с правильной топологией разводки, чтобы не пукнуть жидко, когда добавишь ещё пару планок).
Какие варианты предложишь?
Аноним 21/11/23 Втр 22:22:26 550479 137
Аноним 21/11/23 Втр 22:28:16 550502 138
>>550469
Лол, фига ты вспомнил. Асрок х470 таичи, она имеет Т-топологию и должна хорошо работать с 4 планками. На DDR5 вообще никто с 4 планками работать не может, лол.
Аноним 14/12/23 Чтв 21:16:04 573285 139
>>548492
Это использование, а значит об обучении можно и не думать.
Аноним 14/12/23 Чтв 23:22:48 573410 140
>>573285
Стейбл вполне себе обучают на этих картах.
Аноним 15/12/23 Птн 16:53:23 573898 141
Информирую всех, что пропускная способность DDR5 памяти по умолчанию вдвое выше, чем DDR4. Потому что там скрытый четырехканальный доступ.

Поэтому самая середнячковая DDR5 по ПСП не уступает топовой DDR4, а обычно и превосходит.

Если вы крутите модельки на процах, ваш выбор - это DDR5 и материнки с кучей линий, чтобы подключать видяхи и накопители.
Аноним 15/12/23 Птн 16:57:40 573903 142
Аноним 15/12/23 Птн 18:45:38 573985 143
>>573898
Нет. Она быстрее ровно на ту частоту, на которую быстрее. От псевдомногоанальности никакой прибавки нет.
Аноним 15/12/23 Птн 19:17:35 574001 144
>>573985

Чекай бенчмарки. ПСП вдвое больше.

И в тех задачах, где ПСП роляет, прирост также двойной.
Аноним 15/12/23 Птн 19:47:55 574044 145
>>574001
>Чекай бенчмарки. ПСП вдвое больше.
->
>ровно на ту частоту, на которую быстрее
Ебать открытие. У меня она на 6200 работает, и представь себе, в 2 раза быстрее, чем DDR4 на 3000.
Аноним 21/12/23 Чтв 12:48:17 579339 146
>>573410
Рисовальный ИИ не нужен.
обучат, суки, очередного Гитлера(тот тоже художник был, доебал всех своим перформансом)
Аноним 21/12/23 Чтв 12:49:45 579340 147
>>573898
>скрытый четырехканальный доступ

В чем прикол брать это говно-оверпрайс, если можно 4хканальную дыдыр-4 взять?
Аноним 21/12/23 Чтв 16:11:49 579475 148
>>545753
Погоди, а ХУЛИ ТАК ДЁШЕВО?
Линейки Tesla и P40 же ПИЗДЕЦ какие дорогие, под 100к. Почему 17к?

Ну и да, собирать нужно для этого уже не просто пк, а сервак. Обдув специальный ставить, все дела.

То есть берём специальный корпус: с мощным продувом и слотами под SSD.

Там накатываем дебиан и SSH. Накатываем драйвера.

Организовываем файловый сервер.

Накатываем каломатик.

Покупаем у провайдера белый айпи.

И получаем личный сервер, который можно использовать как облачное хранилище, сервер каломатика, а ещё для ведения личного блога.

Но это путь сложный и тернистый, на самом деле. И в любом случае не дешёвый. Кому надо, тому надо.
Аноним 21/12/23 Чтв 16:17:08 579478 149
>>285370
> Господа нейромансеры, тут кто-то может сборочку пекарни сделать с 3060 12гб в районе 100к для работы с SD?
Я взял Arodor Gaming за 60к.
RTX 3050 8Gb, Intel Core i5, SSD 1Tb.

Как по мне покупка себя оправдала. И в игры играю, и картиночки генерирую.
Аноним 21/12/23 Чтв 22:37:34 579765 150
>>579340
>говно-оверпрайс
Ты из 2021 капчуешь? Сейчас это не оверпрайс.
А твои 4 канала будут сосать бибу у 2-х канала дыры 5.
Аноним 22/12/23 Птн 13:54:11 580167 151
>>579765
>Сейчас это не оверпрайс
Но дыдыра4 пебе уже практически за пару тыщ килограм наваливают.
64gb копейки, но и 512gb вполне приемлемые деньги.
А вот дыдыра5 попробуй возьми так чтоб прям охуеть - ДОРАХА.
Аноним 22/12/23 Птн 21:56:52 580560 152
>>579765
>у 2-х канала дыры 5.

Я же написал выше, что у ДДР5 реальных ЧЕТЫРЕ КАНАЛА.

А на меня набросились, будто я капитанствую.
Аноним 22/12/23 Птн 21:57:43 580563 153
>>579340
>если можно 4хканальную дыдыр-4 взять?

Канальность зависит от контроллера памяти.
Аноним 23/12/23 Суб 16:33:17 581164 154
>>580167
>64gb копейки
Соглы. И проц копейки. А вот материнку с 4-мя каналами нужно ещё поискать, и это будет китаекал с кучей проблем.
>но и 512gb вполне приемлемые деньги.
Только кауда их применить. Оно на 64 гигах сливает и не может быстро их переварить, а уж от 500 гиг толку вообще не будет.
>>580167
>А вот дыдыра5 попробуй возьми
21к отдал за 64 гига 6400, а что?
>>580560
Там ебатория с распиленым каналом, если раньше два канала это 2х64 бита, что даёт в сумме 128 бит, то сейчас это 2х2х32, те же 128 бит, только в профиль. То есть ширина шины у обычных плат и процев не изменилась, и в обоих случаях составляет 128 бит, так что весь прирост идёт за счёт частоты, за счёт разбиения к анальности прироста почти нет, он для другого типа нагрузок.
Так что рекомендую перестать пердеть про 4 канала у DDR5.
Аноним 25/12/23 Пнд 16:15:04 583626 155
>>581164
>21к отдал за 64 гига 6400, а что?
>
13к за проц(не топ, чисто посмотреть чо придет)+МП+ОЗУ(64гб)
(МП заявлено что 4 канала)
Вот это прям охуенно по цене(если аптайм не важен, ибо мало ли). тока МП не регулирует обороты вентиляторов, мои 3*140мм гудят как Ту-95, яебал, взял новый ТИХИЙ корпус в место БУ серверного, ага

>Только кауда их применить. Оно на 64 гигах сливает и не может быстро их переварить, а уж от 500 гиг толку вообще не будет.

Да ладно, плодишь конетйнеры, ВМ обмазываешься несвежими, и "ой, а где всё?".
Опять же если 2 проца по 22(44) ядра, это 5 с лихом ГБ на поток, не то что бы дико много.
Аноним 16/01/24 Втр 10:48:45 611211 156
>>212147 (OP)
Какова перспективность использования FPGA для нейросетевого железа? Реально ли сейчас ручками собрать что-то эдакое?
Аноним 16/01/24 Втр 13:54:58 611353 157
>>611211
> Реально ли сейчас ручками собрать что-то эдакое?
Да (нет). Если у тебя есть скиллы для подобного то найдутся и деньги для покупки видеокарты ради развлечений.
Собирать что-то конкурентное высокопроизводительным ускорителям типа A100/H100 бюджетно не получится.
Так что только ради развлечения и в малых масштабах.
Аноним 19/01/24 Птн 01:32:57 616129 158
>>611353
Чет ты нихуя не по теме "ответил", демагог
мимо
Аноним 25/01/24 Чтв 10:41:27 625409 159
Стикер 127Кб, 200x200
200x200
>>616129
Он сказал, что в принципе да.
Но ты нищий криворукий дебил а значт НЕ ДЛЯ ТЕБЯ.
Аноним 25/01/24 Чтв 14:52:51 625542 160
Аноним 25/01/24 Чтв 21:01:36 626104 161
>>611353
>Так что только ради развлечения и в малых масштабах.
Это-то понятно, а может есть какие-то примеры, как кто-то запиливал что-нибудь в домашних условиях? Или может сам экспериментировал?
Аноним 25/01/24 Чтв 23:28:19 626402 162
>>626104
Знания по теме слишком устарели, поверхностны и времени нет чтобы заняться, особенно в одиночку. На реддите в /fgpa было несколько веток и даже примитивные узлы собирали, там поищи.
Аноним 26/01/24 Птн 00:43:37 626486 163
>>626402
>На реддите в /fgpa было несколько веток и даже примитивные узлы собирали, там поищи.
Спасибо. Через время сам закуплю, может тут где-то тред создам, либо в /ra.
Аноним 26/01/24 Птн 02:05:59 626580 164
>>626486
Желаю успехов, интересно на такое посмотреть. Если в радаче - здесь линкани туда тогда.
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов