Habr<p>Мал, да удал? Тест Qwen-QwQ-32B на реальных задачах</p><p>Число параметров всегда имело значение — по крайней мере, так нас убеждали. Этой догме следовали до тех пор, пока 6 марта Alibaba не представила QwQ-32B — компактную модель с 32 млрд параметров, бросившую вызов тяжеловесу DeepSeek‑R1 с его 671 миллиардами. Это классическая история Давида и Голиафа, но, к удивлению многих, маленькая и ловкая модель не просто держится на плаву — она даже обходит гиганта в ключевых задачах. Но как нейросеть, уступающая в размерах в 20 раз, может показать такие впечатляющие результаты? Давайте разберёмся. В этом обзоре я сравнил между собой Qwen‑QwQ-32B , Qwen-2.5-72B‑Instruct , DeepSeek‑R1 и ChatGPT‑o3-mini‑high на нескольких сложных задачах и делюсь с вами результатами.</p><p><a href="https://habr.com/ru/companies/bothub/articles/900296/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">habr.com/ru/companies/bothub/a</span><span class="invisible">rticles/900296/</span></a></p><p><a href="https://zhub.link/tags/%D0%B8%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ии</span></a> <a href="https://zhub.link/tags/qwenqwq32b" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>qwenqwq32b</span></a> <a href="https://zhub.link/tags/qwen2572binstruct" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>qwen2572binstruct</span></a> <a href="https://zhub.link/tags/deepseekr1" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>deepseekr1</span></a> <a href="https://zhub.link/tags/chatgpto3minihigh" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>chatgpto3minihigh</span></a> <a href="https://zhub.link/tags/%D1%82%D0%B5%D1%81%D1%82_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B5%D0%B9" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>тест_моделей</span></a></p>