Enlisting in the Fight Against Link Rot
Google закрывает goo.gl
В 2009-м сервис обещал «стабильность, безопасность, скорость». В июле 2024-го Google объявил, что через год все короткие ссылки исчезнут. Учёные предупреждали: короткие URL без открытых баз — это тихий геноцид памяти интернета.
Кто спасёт ссылки?
Archive Team — те же люди, что спасли Geocities, Yahoo! Answers и Yahoo! Groups. Они собирают карту всех ~3 млрд goo.gl-ссылок: заходят, фиксируют редирект, повторяют.
Как присоединиться
- Установи Warrior (контейнер или GUI).
- Не используй VPN/прокси, которые ломают сайты.
- Запусти — программа сама перебирает адреса.
Осталось меньше двух недель. 3000+ волонтёров уже в деле.
Комментарии (98)
- Пользователи сходятся во мнении, что закрытие goo.gl — логичный шаг из-за рисков фишинга и уязвимости домена.
- Архивисты Internet Archive (ArchiveTeam) уже почти полностью сохранили базу коротких ссылок, используя добровольных «воинов» и Docker-контейнеры.
- Многие считают, что Google мог бы просто передать очищенную базу Archive.org, но не делает этого из-за юридических и приватных ограничений.
- Обсуждаются альтернативы: оставить только официальные ссылки Google, выдавать страницу-предупреждение или перенести домен под управление третьей стороны.
- Участники подчеркивают, что URL-сокращатели изначально создавались ради экономии символов в Twitter и удобства QR-кодов, но превратились в источник link rot и трекинга.
Ollama and gguf
Проблема: модель gpt-oss-20b.gguf
не запускается в Ollama.
Симптом: при попытке ollama run
процесс зависает на 0 % и через минуту падает без явной ошибки.
Окружение:
- Ubuntu 22.04, 64 ГБ ОЗУ, RTX 4090
- Ollama 0.3.6 (AppImage и Docker)
- Файл
gpt-oss-20b.q4_0.gguf
взят из официального репозиторияTheBloke
, 11 ГБ
Лог:
ggml_cuda_init: found 1 CUDA device
llama_model_load: error loading model: missing tensor 'token_embd.weight'
llama_load_model_from_file: failed to load model
Причина: в GGUF-файле отсутствует обязательный тензор token_embd.weight
.
Решение:
- Перекачать модель (
curl -L -o gpt-oss-20b.q4_0.gguf …
) и проверить хэш. - Если проблема сохраняется — использовать другой квант (
q4_K_M
илиq5_0
). - Либо конвертировать оригинальные веса самостоятельно через
llama.cpp/convert.py
.
Комментарии (70)
- Ollama отказалась от llama.cpp в пользу собственной обвязки над ggml, что ломает совместимость с GGUF-моделями и вынуждает «переизобретать велосипед».
- Пользователи жалуются на проприетарные квантизации, отсутствие поддержки шардированных GGUF > 48 ГБ и игнорирование upstream.
- Альтернативы: запуск llama-server напрямую или готовые контейнеры Ramalama / Docker Model Runner.
- Сторонники Ollama отмечают удобство установки и готовые модели, но критики считают это «эншитификацией» и подготовкой к монетизации.
Sandstorm- self-hostable web productivity suite
Sandstorm — открытая платформа для простого и безопасного развёртывания веб-приложений.
Достаточно выбрать нужный сервис в магазине и нажать «Установить» — всё работает как на смартфоне.
Что умеет
- Документы — совместное редактирование через Etherpad
- Файлы — облачное хранилище Davros
- Задачи — Kanban-доски Wekan
- Чат — защищённый Rocket.Chat
Особенности
- Удобство — единый доступ ко всем приложениям и данным, единая система прав.
- Безопасность — каждый документ или чат изолирован в «зерне» (контейнере), 95 % уязвимостей блокируются автоматически.
- Контроль — запускайте в облаке или на своём сервере, переносите данные без ограничений. Исходный код открыт, приложения можно модифицировать.
Для кого
- Личное использование — приватный сервер с нужными сервисами.
- Бизнес — данные компании в одном месте, команды выбирают удобные инструменты без ожидания IT.
- Разработчики — публикуйте приложения в виде пакетов Sandstorm и не думайте об инфраструктуре.
Комментарии (31)
- Sandstorm запустили в 2014 г., но в 2017 г. стартап закрылся из-за нехватки денег; сейчас живёт как небольшое open-source сообщество.
- Пользователи хвалят «нулевое» обслуживание, но жалуются на устаревшие пакеты и отсутствие развития.
- Многие перешли на Docker Swarm, Cloudron, Yunohost, Proxmox+TurnKey, Umbrel и другие «self-hosted OS» с однокнопочными установками.
- Критика: экосистема приложений дрейфует, безопасность вызывает споры, а активных разработчиков почти не осталось.
- Сторонники всё ещё считают модель Sandstorm сильной и ждут возможного перезапуска/переписывания на Go.
The Framework Desktop is a beast 🔥 Горячее 💬 Длинная дискуссия
Framework Desktop — компактный 4,5-литровый ПК, который почти не шумит даже под полной нагрузкой. Внутри — мобильный AMD Ryzen AI Max 395+ (16 ядер Zen5, 5,1 ГГц), и он оказывается быстрее старого Ryzen 9 7950X в большом корпусе.
Корпус разукрашивается 21 сменной плиткой, можно печатать свои. Внешне — свежий минимализм вместо алюминия и RGB.
По производительности:
- Docker-тест HEY: почти вдвое быстрее Beelink SER8 и на 40 % опережает M4 Max.
- Geekbench 6 multi-core: на уровне M4 Max, заметно выше M4 Pro и Core i9-14900K.
- Одноядерка уступает Apple ≈20 %, но для многопоточных задач это лидер.
Цена выше, чем у Beelink, но пока это единственный безвентиляторный 395+ на рынке.
Комментарии (353)
- Framework Desktop с Ryzen AI Max+ 395 даёт 64–128 ГБ единой памяти, позволяя запускать крупные LLM без дискретной видеокарты и дешевле, чем Mac Studio, но дороже Mini.
- Производительность ниже CUDA-карт Nvidia и M4 Max, зато выше, чем у iGPU Intel и старых решений.
- Многие сомневаются в цене и форм-факторе: за те же деньги можно взять Minisforum, Beelink, HP Z2 Mini или собрать полноценный десктоп.
- Пока CUDA-стека нет, AMD-совместимость с популярными AI-фреймворками ограничена.
- Ремонтопригодность и модульность Framework оценили, но в десктоп-сегменте это не уникально.
I want everything local – Building my offline AI workspace 🔥 Горячее 💬 Длинная дискуссия
- Локальный стек: Ollama (LLM), assistant-ui (веб-интерфейс), Apple
container
(изолированные ВМ), Playwright (браузер), coderunner (MCP-сервер с Jupyter). - Цель: чат, запуск кода и доступ в интернет без облаков и утечек данных.
- Проблемы:
– Модели Ollama пока не поддерживают вызовы инструментов.
– Создание нативного Mac-приложения провалилось:a0.dev
заточен под iOS, Electron + NextJS оказались геморроем.
– Applecontainer
часто падает сTrap
; помогаетpkill
+ перезапуск. - Решения:
– Веб-версияassistant-ui
черезai-sdk
с выпадающим списком моделей (локальных и облачных).
– Jupyter в изолированной ВМ, доступен по MCP:http://coderunner.local:8222/mcp
.
– Конфиг для Claude Desktop:"coderunner": { "httpUrl": "http://coderunner.local:8222/mcp" }
.
Комментарии (274)
- Участники восхищаются локальной, «песочной» архитектурой для приватного AI-воркспейса и инструментом
coderunner
, но отмечают, что узкие места — это не только софт, но и «железо»: 80B-модели требуют ≥80 ГБ быстрой RAM, что доступно разве что на RTX 4090 или Strix Halo. - Критичным становится слой знаний: RAG над личными файлами требует вектор-БД, а значит — много диска и оперативки; Docker-обёртка или
docker compose up -d
просится как минимальный способ разворачивания. - Пока локальные модели — скорее «увлекательное хобби» (медленно, глючно, нужен тюнинг), чем рабочий инструмент; облачные API (Cerebras, Groq) дают 1000 ток/с, но подрывают приватность.
- Сообщество просит готовый «всё-в-одном» стек: веб-поиск, голосовой режим, image-gen, лёгкий switch «локально ↔ облако» без потери данных.
- Несколько участников делятся своими решениями: Kasm + Ollama, Open WebUI, MLX-электрон-приложение, Synology-NAS-контейнеры, браузерный LLM без установки.
Benchmark Framework Desktop Mainboard and 4-node cluster
-
Цель: создать единый фреймворк для тестов производительности Ollama на двух конфигурациях:
- настольная материнка (1×CPU, 1×GPU, 128 ГБ ОЗУ);
- кластер из 4 узлов (по 64 ГБ ОЗУ, 1×GPU, 10 GbE).
-
Методика
- Одинаковые образы Docker/Podman на обеих платформах.
- Набор моделей: llama3.1:8b, codellama:13b, mistral:7b, qwen2.5:32b.
- Метрики: t/s, TTFT, TPS, Watts, $/1k токенов.
- Повторять 3×, усреднять, выводить ±σ.
-
Автоматизация
- Ansible-playbook разворачивает Ollama, node-exporter, prometheus, grafana.
- Скрипт
run-suite.sh
последовательно запускает каждую модель с 512, 2 048, 4 096 токенов ввода/вывода. - Результаты пишутся в CSV и публикуются в PR как
results-<platform>-<date>.md
.
-
Сравнение
- Построить графики «токен/с vs. Watts» и «$/1k токенов vs. модель».
- Выделить break-even точку, где кластер начинает выигрывать по стоимости при одновременной обработке ≥3 моделей.
Комментарии (57)
- AMD Framework Desktop (AI Max+ 395) показывает 2,5–3× прирост к RTX 4000 SFF Ada 20 ГБ, но уступает 9950X из-за низкого TDP.
- Для локального запуска LLM рекомендуют RTX 3090 (24 ГБ) как лучшее ценовое решение, либо Apple/AMD при необходимости >20 ГБ памяти.
- ROCm и Linux-стек работают стабильно, но потенциал iGPU/NPU ещё не раскрыт; тесты велись в llama.cpp.
- Для масштабирования предлагают distributed-llama, Exo и llama.cpp-RPC, а также Oculink/eGPU-конфигурации.
- Продукт выглядит нишевым: ML-инференс дома, но для «обычных» задач лучше Threadripper или сервер.