<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>Блоги: заметки с тегом gpu</title>
<link>https://blogengine.ru/blogs/tags/gpu/</link>
<description>Автоматически собираемая лента заметок, написанных в блогах на Эгее</description>
<author></author>
<language>ru</language>
<generator>Aegea 11.0 (v4079e)</generator>

<itunes:subtitle>Автоматически собираемая лента заметок, написанных в блогах на Эгее</itunes:subtitle>
<itunes:image href="" />
<itunes:explicit>no</itunes:explicit>

<item>
<title>FP8 и Nvidia A100</title>
<guid isPermaLink="false">137719</guid>
<link>https://bolknote.ru/all/fp8-i-nvidia-a100/</link>
<pubDate>Thu, 09 Oct 2025 22:08:18 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/fp8-i-nvidia-a100/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Недавно вышла новая модель &lt;i&gt;Qwen3&lt;/i&gt; с 80 миллиардами параметров. Мы её решили попробовать, но оказалось, что версия фреймоворка &lt;i&gt;vllm&lt;/i&gt;, которую мы используем, с ним несовместима. Чтобы не экспериментировать на своём оборудовании, арендовали у «Селектела» две &lt;i&gt;Nvidia A100&lt;/i&gt;. Хотели что-нибудь поновее, но всё расхватали.&lt;/p&gt;
&lt;p&gt;Модель рассчитывали взять квантованную до &lt;i&gt;FP8&lt;/i&gt;, такая есть в выпущенном наборе моделей. Нам она хорошо подходит — &lt;a href="https://bolknote.ru/all/kakaya-model-u-menya-zapustitsya/"&gt;как раз уместится&lt;/a&gt; в память наших карт. Я рассчитываю, что 80 миллиардов с точностью восемь бит побьют предыдущие тридцать с вдвое большей точностью.&lt;/p&gt;
&lt;p&gt;Но нас тут ждало разочарование — карты &lt;i&gt;A100&lt;/i&gt; тип &lt;i&gt;FP8&lt;/i&gt; не поддерживают, есть только эмуляция через FP16. Так как карты с &lt;i&gt;FP8&lt;/i&gt; всё равно пока арендовать не получится, выделили себе четыре &lt;i&gt;A100&lt;/i&gt; и поставили полную модель, без квантованния. Не совсем то, что хотелось, но всё равно полезно посмотреть как встанет и немного погонять по производительности.&lt;/p&gt;
&lt;p&gt;В итоге, «завалить» модель одновременными соединениями не вышло (модели, которые мы крутили на одной или двух &lt;i&gt;H100&lt;/i&gt; заваливались), время ответа от нашего эталонного промпта получилось от 3,59 секунд до 8,74. Это очень быстро.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.09.09.2@2x.webp" width="1000" height="725" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Qwen3, T4 и разные фреймворки</title>
<guid isPermaLink="false">137241</guid>
<link>https://bolknote.ru/all/qwen3-t4-i-raznye-freymvorki/</link>
<pubDate>Wed, 27 Aug 2025 23:15:04 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/qwen3-t4-i-raznye-freymvorki/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.27.1@2x.webp" width="1000" height="960" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Ещё немного знаний о запуске моделей на картах &lt;i&gt;T4&lt;/i&gt;.&lt;/p&gt;
&lt;p&gt;Во-первых, карты &lt;i&gt;T4&lt;/i&gt; не поддерживают тип &lt;tt&gt;bfloat16&lt;/tt&gt;, поэтому при запуске надо указать параметр &lt;tt&gt;dtype&lt;/tt&gt; со значением &lt;tt&gt;half&lt;/tt&gt;.&lt;/p&gt;
&lt;p&gt;При этом, если вы используете фреймворк &lt;i&gt;vllm&lt;/i&gt; и получаете ошибку «&lt;i&gt;Unsupported conversion from f16 to f16&lt;/i&gt;», то вероятно у вас установлена библиотека &lt;tt&gt;triton&lt;/tt&gt; с багом. Надо её либо обновить до последней версии, либо &lt;a href="https://github.com/unslothai/unsloth/issues/2491#issuecomment-2986507977"&gt;сдаунгрейдить до 3.2.0&lt;/a&gt;. Первое нам не помогло, а вот даунгрейд выручил.&lt;/p&gt;
&lt;p&gt;Во-вторых, вот у нас восемь карт с памятью по 16 гигабайт каждая, всего 128 гигабайт. Модель &lt;i&gt;Qwen3-30B&lt;/i&gt; там запустится, &lt;a href="https://bolknote.ru/all/kakaya-model-u-menya-zapustitsya/"&gt;простой расчёт&lt;/a&gt; в уме для этого я показывал. А что если нам надо запустить на тех же картах ещё что-то?&lt;/p&gt;
&lt;p&gt;Не проблема, давайте запустим не на всех картах, а скажем на пяти, 80 гигабайт же должно хватить, но не тут-то было. Количество карт, с которыми будет работать модель, должно делить 32 нацело — это особенность архитектуры модели и её запуска на фреймворке.&lt;/p&gt;
&lt;p&gt;Соответственно, мы можем запустить &lt;i&gt;Qwen3-30B&lt;/i&gt; только на восьми картах — на четырёх картах и меньше просто места не хватит, а остальное число карт не подходит.&lt;/p&gt;
&lt;p&gt;Поэтому чтобы уместить на этих картах что-то ещё, надо «поджать» количество потребляемой памяти на каждой из карт. Это делается параметром &lt;tt&gt;gpu-memory-utilization&lt;/tt&gt;, при этом придётся ещё и скорректировать &lt;tt&gt;max_model_len&lt;/tt&gt;, чтобы генерируемое умещалось в кеши.&lt;/p&gt;
&lt;p&gt;И последнее. Это слабо связано с предыдущим, но куда-то записать хочется. Чтобы скомилировать &lt;i&gt;llama.cpp&lt;/i&gt; восьмой версией &lt;i&gt;GCC&lt;/i&gt;, надо использовать следующие команды:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class="bash"&gt;cmake -S llama.cpp -B llama.cpp/build \
  -DCMAKE_CUDA_ARCHITECTURES=75 \
  -DCMAKE_CUDA_FLAGS=&amp;quot;-fPIC&amp;quot; \
  -DCMAKE_CXX_STANDARD=17 \
  -DCMAKE_CXX_STANDARD_LIBRARIES=&amp;quot;-lstdc++fs&amp;quot; \
  -DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON -DLLAMA_CURL=ON

cmake --build llama.cpp/build --config Release -j --clean-first \
--target llama-cli llama-gguf-split llama-server&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;i&gt;Добавлено позже&lt;/i&gt;: проблема тут в том, что &lt;i&gt;GCC&lt;/i&gt; до версии 10 не содержит &lt;tt&gt;std::filesystem&lt;/tt&gt; в стандартной библиотеке, её можно подключить снаружи, но надо, чтобы она попала в конец линковки.&lt;/p&gt;
</description>
</item>

<item>
<title>GPU и охлаждение</title>
<guid isPermaLink="false">137199</guid>
<link>https://bolknote.ru/all/gpu-i-ohlazhdenie/</link>
<pubDate>Sun, 24 Aug 2025 02:37:58 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/gpu-i-ohlazhdenie/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Вот проблема хорошего решения которой я не знаю.&lt;/p&gt;
&lt;p&gt;Дано: серверный корпус, специально разработанный под установку графических ускорителей. Внутри установлены две карты &lt;i&gt;Nvidia H100&lt;/i&gt;, которые греются, как сволочи. Не сказать, что на критических температурах, но как-то слишком горячо.&lt;/p&gt;
&lt;p&gt;Проблема, как я её понимаю, в том, что в корпусе есть вентиляторы, есть датчики на материнской плате и процессорах и система корпуса знает обороты какого вентилятора поднять, чтобы всё это не перегрелось. Но у графических ускорителей свои датчики, о которых эта система не имеет ни малейшего понятия.&lt;/p&gt;
&lt;p&gt;В теории всем этим мог бы управлять Линукс, который там стоит, но он тоже понятия не имеет какими вентиляторами надо подуть, чтобы картам стало легче. То ли у нас это не настроено, то ли в принципе не настраивается.&lt;/p&gt;
&lt;p&gt;Проблему решили, выставив повышенные обороты на вентиляторах корпуса. Теперь всё холодное даже под нагрузкой — на графических ускорителях около 30 градусов. Но как будто должно быть какое-то более изящное решение.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.24@2x.webp" width="1000" height="400" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Какая модель у меня запустится?</title>
<guid isPermaLink="false">137101</guid>
<link>https://bolknote.ru/all/kakaya-model-u-menya-zapustitsya/</link>
<pubDate>Fri, 15 Aug 2025 20:10:06 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/kakaya-model-u-menya-zapustitsya/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Как узнать какая нейромодель у запустится на конкретной видеокарте? Вот, например, приходит к нам заказчик и говорит — у нас есть только две &lt;i&gt;Nvidia T4&lt;/i&gt;, запустится ли на ней модель, которую вы используете? Как быстро ответить на этот вопрос?&lt;/p&gt;
&lt;p&gt;Судя по спецификации, каждая &lt;i&gt;T4&lt;/i&gt; имеет на борту 16 гигабайт видеопамяти. Для целей, на которые нам выделяют видеокарты, мы используем модель &lt;i&gt;Qwen 3-30B&lt;/i&gt;, то есть у неё 30 миллиардов параметров.&lt;/p&gt;
&lt;p&gt;Каждый параметр хранится в двух байтах, плюс процентов 20 надо накинуть на всякие буферы. В итоге, получается, что нам нужно 30×2+20% = 80 гигабайт. 20% я грубо накидываю, можно вычислять точнее, но для прикидки сойдёт.&lt;/p&gt;
&lt;p&gt;Две карты по 16 могут работать вместе, современные фреймворки так умеют, то есть совокупно у нас всего 32 гигабайта. То есть модель не умещается?&lt;/p&gt;
&lt;p&gt;Полная модель не уместится, но есть квантованные версии. Дело в том, что модели хранят свои параметры в виде чисел с плавающей точкой. Чем точнее мы храним эти числа, тем лучше работает модель (в своих пределах, конечно). Если памяти у нас мало, хорошее решение — снизить точность. Модель от этого «поглупеет», но это может оказаться некритично.&lt;/p&gt;
&lt;p&gt;Мы выбрали квантование в 4 бита, то есть по половинке байта на модель. Таким образом, потребуется 30×0,5+20% = 18 гигабайт. Чуть-чуть не влезаем на одну видеокарту, но прогноз такой, что две должно хватить.&lt;/p&gt;
&lt;p&gt;Большую группу пользователей эти видеокарты не вывезут — всё-таки мощность у них невелика, но для небольших организаций (десятки человек) на наших задачах работать будет.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.15@2x.webp" width="1000" height="600" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Квантованная модель &lt;i&gt;Qwen3-30B&lt;/i&gt;, работающий на 2×&lt;i&gt;Nvidia T4&lt;/i&gt; 16 ГБ&lt;/div&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Ещё немного про Nvidia H100 NVL</title>
<guid isPermaLink="false">137048</guid>
<link>https://bolknote.ru/all/eschyo-nemnogo-pro-nvidia-h100-nvl/</link>
<pubDate>Sun, 10 Aug 2025 20:44:18 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/eschyo-nemnogo-pro-nvidia-h100-nvl/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Надо бы записать ещё немного фактов про &lt;i&gt;Nvidia H100 NVL&lt;/i&gt;, которую мы недавно запускали. А то забудется, а в интернете очень мало описано опыта людьми, которые делали что-либо с ней руками.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.10.1@2x.webp" width="1000" height="562" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Блок питания с подходящим для питания энвидевских карт разъёмом&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Во-первых, повторюсь, — как я &lt;a href="https://bolknote.ru/all/pitanie-dlya-nvidia-tesla-h100/"&gt;уже писал&lt;/a&gt;, карточка может работать в двух режимах, потребляя 310 или 400 Ватт. Отличается она в них, как легко догадаться, производительностью.&lt;/p&gt;
&lt;p&gt;Сначала мы запустили её в менее производительном режиме, так было быстрее — переходник я просто купил на «Авито» за наличку и забрал в течение часа. Позже мы получили блок питания, у которого есть специальный разъём для мощных видеокарт, с которого можно снять до 600 Ватт включительно.&lt;/p&gt;
&lt;p&gt;Во-вторых, в спецификации написано, что карта работает на шинах четвёртого и пятого поколения. &lt;a href="https://massedcompute.com/faq-answers/?question=Can%20I%20use%20NVIDIA%20H100%20NVL%20GPUs%20with%20a%20PCIe%203.0%20server%20motherboard?"&gt;На самом деле&lt;/a&gt; это не так, в интернете встречаются ссылки, где упоминается, что карта работает и на шине третьего поколения, просто обмен с ней будет медленнее. Могу на практическом опыте утверждать — это правда, на третьем поколении тоже работает.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.10.2@2x.webp" width="1000" height="259" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;И, наконец, в-третьих, с этим мы боролись дольше всего. Если плата видна на шине (команда &lt;nobr&gt;&lt;tt&gt;ls-pci&lt;/tt&gt;&lt;/nobr&gt;), но драйвер её не видит, загляните в &lt;tt&gt;dmesg&lt;/tt&gt;. Возможно там видно ошибки, которые я привёл на скриншоте.&lt;/p&gt;
&lt;p&gt;Если это так, включите в БИОСе опцию &lt;i&gt;RBAR&lt;/i&gt; (&lt;i&gt;ReBAR&lt;/i&gt;, &lt;i&gt;Resizeable BAR&lt;/i&gt;), а в параметры ядра добавьте опцию &lt;tt&gt;pci=realloc&lt;/tt&gt; (последнее, возможно, не обязательно, но утверждать не берусь).&lt;/p&gt;
</description>
</item>

<item>
<title>Китайская Nvidia A100</title>
<guid isPermaLink="false">137010</guid>
<link>https://bolknote.ru/all/kitayskaya-nvidia-a100/</link>
<pubDate>Wed, 06 Aug 2025 20:01:38 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/kitayskaya-nvidia-a100/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;У одного из клиентов в качестве оборудования для запуска нейросетевых моделей обнаружилось чудо-чудное — две карты &lt;i&gt;Nvidia A100 96GB&lt;/i&gt;. Чудо заключается в том, что согласно &lt;a href="https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/a100/pdf/nvidia-a100-datasheet-us-nvidia-1758950-r4-web.pdf"&gt;спецификации на сайте производителя&lt;/a&gt; таких карт не существует — бывают только на 40 и 80 гигабайт, да и 500 Ватт они не кушают.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.08.06@2x.webp" width="550" height="325" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Я только вчера где-то читал, что в Китае есть огромный вторичный рынок энвидевских видеокарт — китайцы научились их ремонтировать и улучшать.&lt;/p&gt;
&lt;p&gt;Оказывается под «улучшать» &lt;a href="https://www.tomshardware.com/pc-components/gpus/enhanced-nvidia-a100-gpus-appear-in-chinas-second-hand-market-new-cards-surpass-sanctioned-counterparts-with-7936-cuda-cores-and-96gb-hbm2-memory"&gt;понимается&lt;/a&gt; наращивание памяти и разблокировка дополнительных ядер. При этом, чтобы всё это можно было использовать, на видеокарту заливается взломанная прошивка.&lt;/p&gt;
&lt;p&gt;Вот, кстати, непонятно — ядра заблокированы потому что они неисправны или это маркетинговый ход. Если первое, значит они могут работать с ошибками, а как их диагностировать и на чём это скажется — ума не приложу.&lt;/p&gt;
&lt;p&gt;&lt;i&gt;Добавлено позднее&lt;/i&gt;: в комментариях в канале справедливо заметили, что может быть и то и другое. Раньше так тоже делали — в процессоре делали дополнительные ядра, тестировали и, даже если все ядра были исправными, всё равно выключали часть, чтобы выпускать процессоры в рамках одной линейки.&lt;/p&gt;
</description>
</item>

<item>
<title>Питание для Nvidia Tesla H100 NVL</title>
<guid isPermaLink="false">136939</guid>
<link>https://bolknote.ru/all/pitanie-dlya-nvidia-tesla-h100/</link>
<pubDate>Wed, 30 Jul 2025 18:24:07 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/pitanie-dlya-nvidia-tesla-h100/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Хочу записать себе новые знания.&lt;/p&gt;
&lt;p&gt;Видеокарта &lt;i&gt;Nvidia Tesla H100&lt;/i&gt;, про которую я &lt;a href="https://bolknote.ru/all/nvidia-tesla-h100/"&gt;вчера писал&lt;/a&gt;, вставляется в шину &lt;i&gt;PCIe&lt;/i&gt; пятого поколения. Оттуда она может получить максимум 75 Ватт, тогда как карте надо больше. Она может работать, &lt;a href="https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/h100/PB-11773-001_v01.pdf"&gt;согласно спецификации&lt;/a&gt;, в одном из двух режимов — с потреблением 310 или 400 Ватт в пике.&lt;/p&gt;
&lt;p&gt;Для этого используется вот такой кабель. Ток, который он может подвести от разъёма материнской платы, ограничен сечением проводов внутри кабеля. Оно может различаться в зависимости от производителя. Но как карта узнаёт сколько мощности ей можно получить, чтобы не пережечь кабель?&lt;/p&gt;
&lt;p&gt;Оказывается, для этого используется специальный интерфейс, четыре контакта которого видно слева.&lt;/p&gt;
&lt;p&gt;Два провода из четырёх кодируют ток, который может отдавать кабель, остальные два сейчас не используются. Сигналы 0 и 1 на этих проводах означают мощность от 151 до 300 Ватт, 1 и 0 — от 301 до 450.&lt;/p&gt;
&lt;p&gt;Бывают токи и выше, кодировка для них тоже предусмотрена, для этого используются провода с большим количеством «хвостов» — три или четыре.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.07.30@2x.webp" width="1000" height="562" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Nvidia Tesla H100 NVL</title>
<guid isPermaLink="false">136917</guid>
<link>https://bolknote.ru/all/nvidia-tesla-h100/</link>
<pubDate>Tue, 29 Jul 2025 21:13:04 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/nvidia-tesla-h100/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Вот так выглядит видеокарта &lt;i&gt;Nvidia Tesla H100 NVL&lt;/i&gt; — одна из трёх карт, на которых мы гоняем различные модели искусственного интеллекта. Сбоку видно, что она большая, но и толщина у неё огого — в два пальца. Извините, что не достал, страшно доставать карту стоимостью в несколько миллионов из антистатического пакетика — вдруг статикой убъёшь.&lt;/p&gt;
&lt;p&gt;На этой карте мы гоняем небольшие пока модели — примерно 30—32 миллиарда параметров (&lt;i&gt;Qwen3&lt;/i&gt;, &lt;i&gt;Magistral&lt;/i&gt;, &lt;i&gt;Mistral&lt;/i&gt;, &lt;i&gt;T-Pro 2&lt;/i&gt; и так далее), но в перспективе там будет работать что-то побольше — ≈600 миллиардов или около того.&lt;/p&gt;
&lt;p&gt;К слову, взаимодействие с хвалёной моделью &lt;i&gt;T-Pro 2&lt;/i&gt; (её делал Т-Банк) меня как-то разочаровало — медленная и иногда циклится на цифрах. Я попробовал её, помимо всего прочего, на написании эскуэль-запросов, так она иногда вместо имён таблиц внезапно начинает генерить огромные числа. Я ни разу не дождался конца, поэтому не знаю есть ли там вообще конец.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.07.29@2x.webp" width="1000" height="562" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>DeepSeek R1 на A100</title>
<guid isPermaLink="false">135232</guid>
<link>https://bolknote.ru/all/deepseek-r1-na-a100/</link>
<pubDate>Fri, 14 Mar 2025 14:06:56 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/deepseek-r1-na-a100/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Как я уже &lt;a href="https://bolknote.ru/all/deepseek-r1/"&gt;писал&lt;/a&gt;, мы попробовали позапускать «Дипсик Эр1» на разных конфигурациях графических ускорителей &lt;i&gt;NVIDIA A100&lt;/i&gt;. Запускали не полную модель, а &lt;a href="https://unsloth.ai/blog/deepseekr1-dynamic"&gt;квантизованную&lt;/a&gt;. Неясно насколько она глупее на наших задачах, бегло попробовали разные тесты, как будто бы от квантизации она пострадала несильно.&lt;/p&gt;
&lt;p&gt;Я собирался написать об этом ещё раз, когда мы разберёмся с подходящей конфигурацией, но как-то позабыл.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2025.03.14@2x.webp" width="750" height="450" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Выводы следующие.&lt;/p&gt;
&lt;p&gt;Для того, чтобы модель поместилась в видеопамять, суммарно нужно около 150 гигабайт. То есть две &lt;i&gt;Nvidia A100&lt;/i&gt; по 80 ГБ подходят. Эта конфигурация позволяет работать одному пользователю в один момент времени. Остальные будут ждать, когда ресурс освободится. Соответственно, конфигурация, которая у меня на скриншоте, может отвечать одновременно двум пользователям.&lt;/p&gt;
&lt;p&gt;При этом оперативная память почти не используется. Её можно выделять очень мало.&lt;/p&gt;
&lt;p&gt;Если модель в видеопамять не умещается, она может загружаться в оперативную память, но при этом скорость её работы сильно падает, не советую.&lt;/p&gt;
&lt;p&gt;Ядер центрального процессора при этом много не надо. Иногда по непонятной причине они нагружаются, но не сильно. Около пары десятков ядер хватает за глаза, можно было уменьшать, но мы этот параметр не крутили.&lt;/p&gt;
&lt;p&gt;Покупать при этом, конечно же, надо не &lt;i&gt;A100&lt;/i&gt;, а &lt;i&gt;H100&lt;/i&gt;, у них сейчас самое выгодное соотношение цена/вычислительная мощность. Ждать их дольше, но оно того стоит.&lt;/p&gt;
</description>
</item>

<item>
<title>Горячие русские нейросети</title>
<guid isPermaLink="false">137203</guid>
<link>https://bolknote.ru/all/goryachie-russkie-neyroseti/</link>
<pubDate>Wed, 08 Feb 2023 12:52:41 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/goryachie-russkie-neyroseti/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;&lt;a href="https://bolknote.ru/all/budem-dressirovat-neyroseti/"&gt;Недавно показывал&lt;/a&gt; наш набор начинающего гуртовщика нейросетей. На днях мы докупили недостающее и собрали машинку для экспериментов, которую я мучаю уже второй день.&lt;/p&gt;
&lt;p&gt;На ней достаточно успешно запустился мой прототип и даже показал очень хорошие результаты по качеству, но время работы оставляет желать лучшего — всё-таки карточки, которые у нас стоят, довольно старенькие — 2016-го года.&lt;/p&gt;
&lt;p&gt;В этой связи очень вовремя у меня в комментариях появился представитель «Селектела», вчера мы связались, надеюсь сегодня получится взять у них что-нибудь более мощное.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2023.02.08.4@2x.jpg" width="1000" height="562" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Температура 42,7° на корпусе, внутри ещё жарче&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Если один процесс наша машина ещё вытягивает, то двадцать процессов, запущенные параллельно, тут же превратили корпус в финскую баню — снаружи температура почти 43°, на центральном процессоре — 79, слишком горячо. Такое ощущение, что моё кунг-фу пока не позволяет эффективно перераспределить задачу на &lt;i&gt;GPU&lt;/i&gt;.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2023.02.08.3@2x.jpg" width="1000" height="562" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Показатели с сенсоров на процессоре, было 79° С, ещё двадцать градусов и вскипит вода в водяном охлаждении&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;В общем, эксперимент по запуску параллельных процессов пришлось прервать, побоялся перегреть процессор. Попробую ещё запустить двадцать потоков, может так эффективнее будет.&lt;/p&gt;
</description>
</item>

<item>
<title>Будем дрессировать нейросети</title>
<guid isPermaLink="false">137202</guid>
<link>https://bolknote.ru/all/budem-dressirovat-neyroseti/</link>
<pubDate>Fri, 03 Feb 2023 20:52:29 +0500</pubDate>
<author>Евгений Степанищев</author>
<comments>https://bolknote.ru/all/budem-dressirovat-neyroseti/</comments>
<description>
&lt;p&gt;&lt;a href="https://bolknote.ru/"&gt;Евгений Степанищев&lt;/a&gt;:&lt;/p&gt;
&lt;p&gt;Мой интерес к искусственному интеллекту до сих пор был скорее частным — на работе мы этот класс алгоритмов почти не использовали, хотя и делали осторожные подходы к предмету. Но всё меняется — в последнее время активно исследуем тему, дошли даже до того, чтобы попробовать растить собственные модели. Всё это пока немного «на коленке», первые опыты — собираем своей первый стенд из того, что удалось быстро раздобыть.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2023.02.03.2@2x.jpg" width="1000" height="562" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Моя прелесть — две немного уже старенькие &lt;i&gt;NVIDIA Tesla M10 (P2405)&lt;/i&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://bolknote.ru/pictures/2023.02.03.3@2x.jpg" width="1000" height="562" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Мать &lt;i&gt;s2066, 8xDDR4, Asus, PRIME X299-A II, Intel X299&lt;/i&gt;, процессор &lt;i&gt;Intel, s2066, Core i9 9820X, 3300Мгц, 10 ядер, L3 16,5MB&lt;/i&gt; с водяным охлаждением&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Потом собираемся прикупить четыре «Теслы» &lt;i&gt;T4&lt;/i&gt;, чтобы вставить их в серверный четырёхюнитовый корпус, но это всё быстро в наше время не раздобыть.&lt;/p&gt;
</description>
</item>


</channel>
</rss>