Hacker News Digest

Тег: #docker

Постов: 6

Enlisting in the Fight Against Link Rot (jszym.com)

Google закрывает goo.gl
В 2009-м сервис обещал «стабильность, безопасность, скорость». В июле 2024-го Google объявил, что через год все короткие ссылки исчезнут. Учёные предупреждали: короткие URL без открытых баз — это тихий геноцид памяти интернета.

Кто спасёт ссылки?
Archive Team — те же люди, что спасли Geocities, Yahoo! Answers и Yahoo! Groups. Они собирают карту всех ~3 млрд goo.gl-ссылок: заходят, фиксируют редирект, повторяют.

Как присоединиться

  1. Установи Warrior (контейнер или GUI).
  2. Не используй VPN/прокси, которые ломают сайты.
  3. Запусти — программа сама перебирает адреса.

Осталось меньше двух недель. 3000+ волонтёров уже в деле.

by jszymborski • 12 августа 2025 г. в 14:52 • 146 points

ОригиналHN

#goo.gl#archive.org#docker#url#internet-archive

Комментарии (98)

  • Пользователи сходятся во мнении, что закрытие goo.gl — логичный шаг из-за рисков фишинга и уязвимости домена.
  • Архивисты Internet Archive (ArchiveTeam) уже почти полностью сохранили базу коротких ссылок, используя добровольных «воинов» и Docker-контейнеры.
  • Многие считают, что Google мог бы просто передать очищенную базу Archive.org, но не делает этого из-за юридических и приватных ограничений.
  • Обсуждаются альтернативы: оставить только официальные ссылки Google, выдавать страницу-предупреждение или перенести домен под управление третьей стороны.
  • Участники подчеркивают, что URL-сокращатели изначально создавались ради экономии символов в Twitter и удобства QR-кодов, но превратились в источник link rot и трекинга.

Ollama and gguf (github.com)

Проблема: модель gpt-oss-20b.gguf не запускается в Ollama.
Симптом: при попытке ollama run процесс зависает на 0 % и через минуту падает без явной ошибки.

Окружение:

  • Ubuntu 22.04, 64 ГБ ОЗУ, RTX 4090
  • Ollama 0.3.6 (AppImage и Docker)
  • Файл gpt-oss-20b.q4_0.gguf взят из официального репозитория TheBloke, 11 ГБ

Лог:

ggml_cuda_init: found 1 CUDA device
llama_model_load: error loading model: missing tensor 'token_embd.weight'
llama_load_model_from_file: failed to load model

Причина: в GGUF-файле отсутствует обязательный тензор token_embd.weight.

Решение:

  1. Перекачать модель (curl -L -o gpt-oss-20b.q4_0.gguf …) и проверить хэш.
  2. Если проблема сохраняется — использовать другой квант (q4_K_M или q5_0).
  3. Либо конвертировать оригинальные веса самостоятельно через llama.cpp/convert.py.

by indigodaddy • 11 августа 2025 г. в 17:54 • 156 points

ОригиналHN

#ollama#gguf#llama.cpp#ggml#cuda#quantization#docker#ubuntu#github

Комментарии (70)

  • Ollama отказалась от llama.cpp в пользу собственной обвязки над ggml, что ломает совместимость с GGUF-моделями и вынуждает «переизобретать велосипед».
  • Пользователи жалуются на проприетарные квантизации, отсутствие поддержки шардированных GGUF > 48 ГБ и игнорирование upstream.
  • Альтернативы: запуск llama-server напрямую или готовые контейнеры Ramalama / Docker Model Runner.
  • Сторонники Ollama отмечают удобство установки и готовые модели, но критики считают это «эншитификацией» и подготовкой к монетизации.

Sandstorm- self-hostable web productivity suite (sandstorm.org)

Sandstorm — открытая платформа для простого и безопасного развёртывания веб-приложений.
Достаточно выбрать нужный сервис в магазине и нажать «Установить» — всё работает как на смартфоне.

Что умеет

  • Документы — совместное редактирование через Etherpad
  • Файлы — облачное хранилище Davros
  • Задачи — Kanban-доски Wekan
  • Чат — защищённый Rocket.Chat

Особенности

  • Удобство — единый доступ ко всем приложениям и данным, единая система прав.
  • Безопасность — каждый документ или чат изолирован в «зерне» (контейнере), 95 % уязвимостей блокируются автоматически.
  • Контроль — запускайте в облаке или на своём сервере, переносите данные без ограничений. Исходный код открыт, приложения можно модифицировать.

Для кого

  • Личное использование — приватный сервер с нужными сервисами.
  • Бизнес — данные компании в одном месте, команды выбирают удобные инструменты без ожидания IT.
  • Разработчики — публикуйте приложения в виде пакетов Sandstorm и не думайте об инфраструктуре.

by nalinidash • 09 августа 2025 г. в 06:06 • 146 points

ОригиналHN

#sandstorm#etherpad#davros#wekan#rocket.chat#docker#cloudron#yunohost#proxmox#umbrel

Комментарии (31)

  • Sandstorm запустили в 2014 г., но в 2017 г. стартап закрылся из-за нехватки денег; сейчас живёт как небольшое open-source сообщество.
  • Пользователи хвалят «нулевое» обслуживание, но жалуются на устаревшие пакеты и отсутствие развития.
  • Многие перешли на Docker Swarm, Cloudron, Yunohost, Proxmox+TurnKey, Umbrel и другие «self-hosted OS» с однокнопочными установками.
  • Критика: экосистема приложений дрейфует, безопасность вызывает споры, а активных разработчиков почти не осталось.
  • Сторонники всё ещё считают модель Sandstorm сильной и ждут возможного перезапуска/переписывания на Go.

The Framework Desktop is a beast (world.hey.com) 🔥 Горячее 💬 Длинная дискуссия

Framework Desktop — компактный 4,5-литровый ПК, который почти не шумит даже под полной нагрузкой. Внутри — мобильный AMD Ryzen AI Max 395+ (16 ядер Zen5, 5,1 ГГц), и он оказывается быстрее старого Ryzen 9 7950X в большом корпусе.

Корпус разукрашивается 21 сменной плиткой, можно печатать свои. Внешне — свежий минимализм вместо алюминия и RGB.

По производительности:

  • Docker-тест HEY: почти вдвое быстрее Beelink SER8 и на 40 % опережает M4 Max.
  • Geekbench 6 multi-core: на уровне M4 Max, заметно выше M4 Pro и Core i9-14900K.
  • Одноядерка уступает Apple ≈20 %, но для многопоточных задач это лидер.

Цена выше, чем у Beelink, но пока это единственный безвентиляторный 395+ на рынке.

by lemonberry • 08 августа 2025 г. в 20:19 • 390 points

ОригиналHN

#amd#ryzen#docker#llm#cuda

Комментарии (353)

  • Framework Desktop с Ryzen AI Max+ 395 даёт 64–128 ГБ единой памяти, позволяя запускать крупные LLM без дискретной видеокарты и дешевле, чем Mac Studio, но дороже Mini.
  • Производительность ниже CUDA-карт Nvidia и M4 Max, зато выше, чем у iGPU Intel и старых решений.
  • Многие сомневаются в цене и форм-факторе: за те же деньги можно взять Minisforum, Beelink, HP Z2 Mini или собрать полноценный десктоп.
  • Пока CUDA-стека нет, AMD-совместимость с популярными AI-фреймворками ограничена.
  • Ремонтопригодность и модульность Framework оценили, но в десктоп-сегменте это не уникально.

I want everything local – Building my offline AI workspace (instavm.io) 🔥 Горячее 💬 Длинная дискуссия

  • Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple container (изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter).
  • Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
  • Проблемы:
    – Модели Ollama пока не поддерживают вызовы инструментов.
    – Создание нативного Mac-приложения провалилось: a0.dev заточен под iOS, Electron + NextJS оказались геморроем.
    – Apple container часто падает с Trap; помогает pkill + перезапуск.
  • Решения:
    – Веб-версия assistant-ui через ai-sdk с выпадающим списком моделей (локальных и облачных).
    – Jupyter в изолированной ВМ, доступен по MCP: http://coderunner.local:8222/mcp.
    – Конфиг для Claude Desktop: "coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }.

by mkagenius • 08 августа 2025 г. в 18:19 • 1026 points

ОригиналHN

#ollama#assistant-ui#apple-container#playwright#coderunner#jupyter#mcp#docker#rag#vector-databases

Комментарии (274)

  • Участники восхищаются локальной, «песочной» архитектурой для приватного AI-воркспейса и инструментом coderunner, но отмечают, что узкие места — это не только софт, но и «железо»: 80B-модели требуют ≥80 ГБ быстрой RAM, что доступно разве что на RTX 4090 или Strix Halo.
  • Критичным становится слой знаний: RAG над личными файлами требует вектор-БД, а значит — много диска и оперативки; Docker-обёртка или docker compose up -d просится как минимальный способ разворачивания.
  • Пока локальные модели — скорее «увлекательное хобби» (медленно, глючно, нужен тюнинг), чем рабочий инструмент; облачные API (Cerebras, Groq) дают 1000 ток/с, но подрывают приватность.
  • Сообщество просит готовый «всё-в-одном» стек: веб-поиск, голосовой режим, image-gen, лёгкий switch «локально ↔ облако» без потери данных.
  • Несколько участников делятся своими решениями: Kasm + Ollama, Open WebUI, MLX-электрон-приложение, Synology-NAS-контейнеры, браузерный LLM без установки.

Benchmark Framework Desktop Mainboard and 4-node cluster (github.com)

  • Цель: создать единый фреймворк для тестов производительности Ollama на двух конфигурациях:

    1. настольная материнка (1×CPU, 1×GPU, 128 ГБ ОЗУ);
    2. кластер из 4 узлов (по 64 ГБ ОЗУ, 1×GPU, 10 GbE).
  • Методика

    • Одинаковые образы Docker/Podman на обеих платформах.
    • Набор моделей: llama3.1:8b, codellama:13b, mistral:7b, qwen2.5:32b.
    • Метрики: t/s, TTFT, TPS, Watts, $/1k токенов.
    • Повторять 3×, усреднять, выводить ±σ.
  • Автоматизация

    • Ansible-playbook разворачивает Ollama, node-exporter, prometheus, grafana.
    • Скрипт run-suite.sh последовательно запускает каждую модель с 512, 2 048, 4 096 токенов ввода/вывода.
    • Результаты пишутся в CSV и публикуются в PR как results-<platform>-<date>.md.
  • Сравнение

    • Построить графики «токен/с vs. Watts» и «$/1k токенов vs. модель».
    • Выделить break-even точку, где кластер начинает выигрывать по стоимости при одновременной обработке ≥3 моделей.

by geerlingguy • 07 августа 2025 г. в 17:49 • 186 points

ОригиналHN

#ollama#docker#podman#ansible#prometheus#grafana#llama.cpp#rocm#linux#nvidia

Комментарии (57)

  • AMD Framework Desktop (AI Max+ 395) показывает 2,5–3× прирост к RTX 4000 SFF Ada 20 ГБ, но уступает 9950X из-за низкого TDP.
  • Для локального запуска LLM рекомендуют RTX 3090 (24 ГБ) как лучшее ценовое решение, либо Apple/AMD при необходимости >20 ГБ памяти.
  • ROCm и Linux-стек работают стабильно, но потенциал iGPU/NPU ещё не раскрыт; тесты велись в llama.cpp.
  • Для масштабирования предлагают distributed-llama, Exo и llama.cpp-RPC, а также Oculink/eGPU-конфигурации.
  • Продукт выглядит нишевым: ML-инференс дома, но для «обычных» задач лучше Threadripper или сервер.