Hacker News Digest

06 октября 2025 г. в 13:15 • gpuopen.com • ⭐ 92 • 💬 26

OriginalHN

#pytorch#amd#directml#llama#mistral#gemma#llm#quantization#gradio#windows

A beginner's guide to deploying LLMs with AMD on Windows using PyTorch

AMD и GPUOpen опубликовали практическое руководство, как запустить LLM на Windows с GPU AMD и PyTorch. Самое важное — это не требует ROCm, а использует DirectML, что делает процесс доступным для большинства геймерских видеокарт Radeon. Поддерживаются модели Llama 3.2, Mistral и Gemma, а также Q4 и FP16 квантизация. Подготовка включает установку ROCm и PyTorch, но ROCm не используется; вместо этого используется DirectML. Процесс включает скачивание модели, конвертацию в GGUF с помощью llama.cpp, и запуск через веб-интерфейс Gradio. Важно, что весь процесс происходит на Windows без виртуализации или WSL2.