Weathering Software Winter (2022)
100R — пережить софтверную зиму
Главная | О нас | Знания | Статьи | Проекты | Путешествия
Отрывок из доклада Девайна, 26 ноября 2022
Февраль 2025. После Handmade Seattle 2024 организатор извинился за «слишком разнообразную» программу и пообещал вернуть «байтовые» доклады, исключив при этом FOSS-спикеров. В чате разгорелась трансфобная волна; организатор обвинил меня в развале конференции и отказался оплачивать перелёт. Я попросил удалить запись.
Пережить софтверную зиму
Студия Hundred Rabbits — два человека на солнечной яхте, работаем на выброшенных устройствах: быстрый софт требует медленных компьютеров. Путешествуем и исследуем устойчивость: от электроники до продовольствия и забытых технологий.
За 7 лет обогнули Тихий: Мексика → Полинезия → Новая Зеландия → Фиджи → Япония → Камчатка → Аляска → Канада. План был делать арт, музыку и игры, но техника, рассчитанная на Запад, начала сыпаться сразу после отхода от берега.
На яхте не выйдет «просто взять метлу», если сломается GPS или прогноз погоды. Подписки, DRM и облака превращают навыки в аренду: пропал интернет — пропал и Photoshop, а с ним и профессия.
Комментарии (45)
- Современные стеки слишком тяжёлые и зависят от облаков, что вредит долговечности и сохраняемости ПО.
- Авторы ищут (и уже создают) маленькие, автономные решения вроде Uxn, которые работают без сети и «принадлежат» пользователю.
- Некоторые видят в этом художественный, почти философский подход к программированию, другие — просто «романтику хиппи на лодке».
- Спорят, обобщается ли опыт двух человек на яхте на остальной мир и нужна ли такая строгая самодостаточность всем.
Token growth indicates future AI spend per dev
- Kilo превысил 1 трлн токенов/мес в OpenRouter; Cline, Roo, Kilo растут из-за дросселирования Cursor и Claude.
- Стартапы рассчитывали: себестоимость токенов упадёт на 90 % за год, маржа станет +80 %.
- Вместо этого цена токенов фронтир-моделей не упала, а расход токенов на задачу вырос.
- Причины: модели стали крупнее, появились «длинные мысли» и агенты, которые запускают цепочки вызовов.
- Итог: расход на разработчика уже $20–40 к/мес и стремится к $100 к/год.
Комментарии (132)
- Почти все участники считают цифру в $100 000/год на разработчика безосновательной и преувеличенной.
- Основной аргумент: стоимость инференса либо быстро упадёт, либо станет дешевле запускать opensource-модели локально.
- Многие отмечают, что уже сейчас $100–200/мес хватает большинству, а при росте нагрузки выгоднее купить железо, чем платить за облако.
- Поднимается тема «токеномики»: расходы растут из-за параллельных агентов и увеличения контекста, но это пока не дотягивает до $100 000.
- Часть комментаторов указывает, что крупные компании вряд ли вернутся к on-prem, а будут торговаться за долгосрочные контракты у дешёвых провайдеров.
Claude Code is all you need 🔥 Горячее 💬 Длинная дискуссия
Установил Claude Code в июне. Попробовал Cursor, Cline, Zed — всё коряво, а тут встроился в привычный vim+терминал. Сразу отменил GPT, перевёл $20 на Anthropic, через пару дней докинул до $100, чтобы не ловить лимиты.
Что успел сделать:
- «Автономный» стартап-конструктор
- Однопромптовый SplitWise-клон SmartSplit
- Генератор постеров
- Плагин для оценки комментов на HN
- Мини-Trello и скрипт для переименования банковских выписок
Выводы за пару недель:
- Запускайте с
--dangerously-skip-permissions
и не парьтесь (инфосеки могут закрыть вкладку). - Чем больше контекста — тем лучше результат. Пишите километры текста или пользуйтесь TTS.
- Модель неплохо рисует UI, хотя по сути текстовая.
Vibe-кодим CRUD за один промпт
Vibe-coding — пишем без просмотра кода, просто болтаем с моделью. В качестве испытания возьмём SplitWise-клон: просто, но есть нюансы (приглашённые юзеры, расходы, pending-инвайты).
Команда:
claude -p "Read SPEC.md and implement it"
SPEC.md — 500 слов, пример ниже. Результат: 900 строк на PHP, работает сразу (smartsplit.verysmall.site). Прикольные мелочи: имя берётся из профиля, если нет — email.
Та же попытка без чёткого стека привела к NodeJS-аду: 15 файлов, 1000 строк, 500 МБ зависимостей и нерабочая регистрация.
SPEC.md (сокращённо)
Сделай SplitWise-клон. PHP, SQLite, одним файлом.
Функции: регистрация, логин, группы, расходы, долги, приглашения по email.
UI минималистичный, Bootstrap.
Один долг = одна строка в таблицеexpenses
, рассчёт баланса на лету.
Комментарии (464)
- Кто-то в восторге от эксперимента «дайте Claude VPS и пусть творит», другие пугаются, что кандидаты без AI не справляются даже с простым SQL.
- Половина треда обсуждает опасность флага --dangerously-skip-permissions и то, что агент может удалить «не трогать»-комментарии и сломать прод.
- Критика дизайна («всё выглядит плохо»), цены (API жрёт токены по $6-10 за сессию) и отсутствия фикс-тарифа для команд.
- Вопросы приватности: Claude Code шлёт файлы в облако Anthropic, а поддержка игнорирует пользователей по 4+ дня.
- Многие сравнивают с Cursor, Copilot, Gemini CLI и ждут, когда появится «Claude Code considered harmful».
Booting 5000 Erlangs on Ampere One 192-core
Ampere One 192-ядерный сервер, 1 ТБ ОЗУ, цель — запустить максимум виртуальных IoT-устройств на Nerves.
Прошлый раз добрались до 500 экземпляров; теперь с KVM и новым загрузчиком little_loader от Frank Hunleth удалось 5000 одновременных виртуальных ARM64-машин.
little_loader — минимальный ARM64-бутлоадер, читающий переменные u-boot, загружающий ядро Linux и сохраняющий механизмы A/B-обновлений Nerves.
Что изменилось
- KVM/HVF ускоряет старт до 1-2 с и экономит ≈ 500 МБ ОЗУ на гость.
- EL1 вместо EL2: EL2 нужен для вложенной виртуализации, нам не требуется.
- Баг компиляции: release-сборка зависает, debug-версия работает (GCC 15, вероятно, чинит).
Команда запуска (упрощённый пример):
qemu-system-aarch64 \
-machine virt,accel=kvm \
-cpu host -smp 1 -m 150M \
-kernel little_loader.elf \
-netdev user,id=eth0 \
-device virtio-net-device,netdev=eth0 \
-drive if=none,file=disk.img,format=raw,id=vdisk \
-device virtio-blk-device,drive=vdisk \
-nographic
Итог: 5000 «эрлангов» на 192 ядрах, 1 ТБ ОЗУ, стартуют за секунды, потребляют по 150 МБ RAM.
Комментарии (38)
- Речь идёт о запуске 5000 узлов BEAM (Erlang-машин), а не процессов — каждая BEAM может держать миллионы лёгких процессов.
- Сервер с 192 Ampere-ядрами позиционируется как «облачный» или «edge» для телекомов; Hetzner предлагает 80-ядерный Ampere за ~200 $/мес.
- Пользователи сомневаются в полезности без тестов под нагрузкой и обсуждают, как масштабировать память и шину при таком числе ядер.
- Всплыли исторические примеры (Azul для Java) и шутки про «ручное ткачество» Erlang-потоков и «фермерский» байт-код.
Open SWE: An open-source asynchronous coding agent
Open SWE — первый open-source агент для асинхронной разработки в облаке.
Подключается к вашим репозиториям GitHub, берёт задачи из issue и самостоятельно исследует код, пишет, тестирует, исправляет ошибки и открывает pull-request.
Как попробовать
- Перейдите на swe.langchain.com.
- Авторизуйтесь в GitHub и выберите репозитории.
- Добавьте ключ Anthropic в настройках.
- Создайте задачу и наблюдайте.
Особенности
- Человек в цикле: агент показывает план, вы можете править, удалять или дополнять его без перезапуска.
- Обратная связь на ходу: во время выполнения можно отправить новое сообщение — агент учтёт его без сбоя.
- GitHub-нативность: задача = issue, результат = PR. Достаточно добавить метку
open-swe-auto
, чтобы агент начал работу. - Безопасность: каждая задача запускается в изолированном контейнере Daytona.
- Облако: параллельные задачи, никакой нагрузки на ваш ПК.
- Планирование и ревью: отдельные агенты Planner и Reviewer минимизируют поломки CI.
Комментарии (22)
- Часть сообщества мечтает о полностью локальных, прозрачных агентах без облачных «чёрных ящиков» и навязанных UI.
- Другие уверены, что будущее за долгоживущими, асинхронными, облачными агентами, которые уже почти умещаются в памяти пары вкладок Chrome.
- Утилита вызывает подозрения: AGPL-код Daytona не раскрывает control-plane, а README сразу предлагает регистрацию в сервисе.
- Пользователи жалуются на невосстановимые ошибки и просят переноса контекста между сессиями.
- Скептики напоминают: VRAM всё ещё редкость, а «облачная» модель потребления данных не способствует технологической независимости.