We saved $500k per year by rolling our own "S3" 🔥 Горячее 💬 Длинная дискуссия
Инженеры Nanit сэкономили $500,000 в год, создав собственную систему хранения N3 на Rust вместо использования AWS S3 для обработки видео. При тысячах загрузок в секунду, плата за запросы PutObject в S3 становилась основной статьей расходов, а минимальный период хранения в 24 часа правил out стоимость обработки, занимавшей всего 2 секунды.
N3 работает как in-memory landing zone, используя S3 только как буфер перегрузки. В исходной архитектуре камеры загружали видео чанками напрямую в S3 через presigned URL, после чего Lambda отправлял ключи в SQS FIFO очередь для обработки. Подход сохранил надёжность и строгую последовательность данных, но исключил плату за запросы на основном пути и сократил затраты на хранение.
Комментарии (208)
- Стоимость S3 для короткоживущих файлов оказалась настолько высокой, что компания вместо него реализовала собственное in-memory хранилище, что позволило сэкономить $500k, но оставляет вопрос о том, что будет, если этот кэш упадёт.
- Обсуждение вылилось в критику концепции "serverless" архитектуры, где-то между линиями прочиталось, что сама архитектура была проблемой, а не решением.
- Участники обсуждения также подняли вопросы о приватности: камера в детской комнате передаёт аудио/видео в облако без шифрования, и кто-то может прослушивать ваш дом.
- Несколько комментаторов отметили, что вместо того, чтобы писать собственные сервисы, компании могли бы использовать существующие open-source решения, такие как MinIO или SeaweedFS, но при этом они также отметили, что даже эти решения не предоставляют той же степени удобства, что и делает S3.
Lisp interpreter with GC in <750 lines of Odin (and <500 lines of C)
Проект LISP
Репозиторий krig/LISP заархивирован 28 авг 2025 г. и доступен только для чтения.
Разработка перенесена на Forgejo.
Комментарии (32)
- Участники обсудили, что минималистичность Lisp объясняется простотой синтаксиса (s-выражения) и всего трёх базовых форм: quote, cond, lambda.
- @krig показал свой 750-строчный интерпретатор на Odin, подчеркнув, что это учебный проект, а не продакшн-решение.
- Появились вопросы по синтаксису Odin (различие := и =), а также замечания о скорости и полезности такого «игрушечного» кода.
- Упомянули полезные ссылки: оригинальную статью Маккарти, объяснение Грэма, описание semi-space GC от Andy Wingo.
- Некоторые участники поделились личными впечатлениями о создателе Odin и культуре обсуждений вокруг языка.
Best Practices for Building Agentic AI Systems
Двухуровневая модель
Основной агент ведёт диалог, помнит контекст, раздаёт задачи.
Под-агенты — чистые функции: получили вход, вернули результат, забыли всё.
Больше двух уровней — лишние точки отказа.
Под-агенты без состояния
Каждый вызов — как вызов функции:
- одинаковый вход → одинаковый выход
- легко кешировать, тестировать, запускать параллельно
Пример сообщения:
{"task": "sentiment", "data": [...], "constraints": {"timeout": 5}}
Разбиение задач
- Вертикальное: последовательные шаги (сбор → извлечение → сравнение).
- Горизонтальное: параллельные ветки (исследовать 5 конкурентов одновременно).
Смешиваем: сначала параллельная категоризация фидбека, потом последовательная приоритизация.
Протокол общения
Каждая команда содержит:
- цель, входные данные, ограничения, формат вывода.
Ответ:status,result,confidence,processing_time.
Болтовни и «помни, что мы обсуждали» — нет.
Специализация агентов
- Research — поиск по базе фидбека.
- Analysis — извлечение тем и настроений.
- Summary — генерация отчётов и changelog.
Один агент = одна чёткая функция.
Оркестрация
- Round-robin — когда порядок важен.
- Priority queue — сначала критичные фидбеки.
- Fan-out/fan-in — параллельные под-агенты, потом сбор результатов.
Состояние хранит только основной агент; под-агенты не знают о существовании друг друга.
Управление контекстом
- Сжатие: оставляем только релевантные куски.
- Слайды: отправляем под-агенту только нужную подборку.
- Версионирование: каждый результат имеет
id, чтобы легко откатиться.
Обработка ошибок
- Повторы с экспоненциальной задержкой (до 3 раз).
- Fallback-агенты: если «анализатор» упал, включаем «резервный».
- Circuit breaker: после N ошибок отключаем агента и пишем алерт.
Производительность
- Кешируем по хешу запроса.
- Параллельные вызовы без блокировок.
- Пакетная обработка: отправляем 50 фидбеков за раз, а не по одному.
Мониторинг
Отслеживаем:
- latency под-агентов,
- точность (сравниваем с разметкой),
- частота ошибок,
- объём контекста (токенов).
Всё пишем в Prometheus + Grafana.
Уроки из продакшена
- Начинайте с 2–3 под-агентов, добавляйте постепенно.
- Пишите юнит-тесты для каждого под-агента.
- Не давайте агентам доступ к внешним API без rate-limit.
- Держите промпты в git; версионируйте как код.
Принципы
- Простота > масштаб.
- Чистые функции > разделяемое состояние.
- Структурированные сообщения > свободный текст.
- Мониторинг с первого дня > дебаг в проде.
Частые ошибки
- «Умные» под-агенты с памятью → гонки и непредсказуемость.
- Слишком большой контекст → таймауты и лишние токены.
- Отсутствие таймаутов → зависшие цепочки.
- Игнорирование кеширования → лишние $$$ на API.
Как начать
- Определите 1–2 ключевые задачи (например, «суммаризировать фидбек»).
- Создайте под-агентов:
research,summarize. - Напишите структурированные схемы входа/выхода.
- Покройте тестами, добавьте метрики.
- Подключите к реальному потоку данных и наблюдайте.
Комментарии (62)
- Автор делится опытом построения практичных «агентов» как чистых функций без состояния и истории разговоров, что экономит токены и упрощает отладку.
- Поддержка: дешёвые/локальные модели на 75 % задач, жёсткое разбиение на под-агентов, явное описание шагов вместо «умных» решений.
- Критика: часть читателей считает описанное не настоящим агентством, а обычным workflow с LLM-вызовами; стиль текста вызывает раздражение как «AI-generated».
- Практические инструменты: Claude Code (файлы .claude/agents), AWS Lambda + Step Functions, Spring AI, кеширование промптов.
- Сообщество обсуждает, где грань между «агентом» и «инструментом», просит примеров и данных, а также делится ссылкой на оригинальный пост Anthropic.