<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llama.cpp on Блог инженера</title><link>https://ilyabrin.github.io/ru/tags/llama.cpp/</link><description>Recent content in Llama.cpp on Блог инженера</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 04 May 2026 10:00:00 +0300</lastBuildDate><atom:link href="https://ilyabrin.github.io/ru/tags/llama.cpp/index.xml" rel="self" type="application/rss+xml"/><item><title>Типы квантизации LLM: памятка</title><link>https://ilyabrin.github.io/ru/post/llm-quantization-guide/</link><pubDate>Mon, 04 May 2026 10:00:00 +0300</pubDate><guid>https://ilyabrin.github.io/ru/post/llm-quantization-guide/</guid><description>&lt;p&gt;Хочешь запустить большую языковую модель локально, но не знаешь, какой файл скачать? Q4_K_M, IQ3_S, Q5_K_M - это не случайный набор символов. Это формат квантизации, и от него зависит качество ответов и сколько памяти съест модель.&lt;/p&gt;</description></item></channel></rss>