Hacker News Digest

Тег: #lambda

Постов: 3

We saved $500k per year by rolling our own "S3" (engineering.nanit.com) 🔥 Горячее 💬 Длинная дискуссия

Инженеры Nanit сэкономили $500,000 в год, создав собственную систему хранения N3 на Rust вместо использования AWS S3 для обработки видео. При тысячах загрузок в секунду, плата за запросы PutObject в S3 становилась основной статьей расходов, а минимальный период хранения в 24 часа правил out стоимость обработки, занимавшей всего 2 секунды.

N3 работает как in-memory landing zone, используя S3 только как буфер перегрузки. В исходной архитектуре камеры загружали видео чанками напрямую в S3 через presigned URL, после чего Lambda отправлял ключи в SQS FIFO очередь для обработки. Подход сохранил надёжность и строгую последовательность данных, но исключил плату за запросы на основном пути и сократил затраты на хранение.

by mpweiher • 26 октября 2025 г. в 21:05 • 257 points

ОригиналHN

#rust#aws#s3#lambda#sqs#in-memory#serverless#storage#cloud

Комментарии (208)

  • Стоимость S3 для короткоживущих файлов оказалась настолько высокой, что компания вместо него реализовала собственное in-memory хранилище, что позволило сэкономить $500k, но оставляет вопрос о том, что будет, если этот кэш упадёт.
  • Обсуждение вылилось в критику концепции "serverless" архитектуры, где-то между линиями прочиталось, что сама архитектура была проблемой, а не решением.
  • Участники обсуждения также подняли вопросы о приватности: камера в детской комнате передаёт аудио/видео в облако без шифрования, и кто-то может прослушивать ваш дом.
  • Несколько комментаторов отметили, что вместо того, чтобы писать собственные сервисы, компании могли бы использовать существующие open-source решения, такие как MinIO или SeaweedFS, но при этом они также отметили, что даже эти решения не предоставляют той же степени удобства, что и делает S3.

Lisp interpreter with GC in <750 lines of Odin (and <500 lines of C) (github.com)

Проект LISP
Репозиторий krig/LISP заархивирован 28 авг 2025 г. и доступен только для чтения.
Разработка перенесена на Forgejo.

by PaulHoule • 30 августа 2025 г. в 23:35 • 81 points

ОригиналHN

#odin#lisp#garbage-collection#interpreter#s-expressions#lambda#github

Комментарии (32)

  • Участники обсудили, что минималистичность Lisp объясняется простотой синтаксиса (s-выражения) и всего трёх базовых форм: quote, cond, lambda.
  • @krig показал свой 750-строчный интерпретатор на Odin, подчеркнув, что это учебный проект, а не продакшн-решение.
  • Появились вопросы по синтаксису Odin (различие := и =), а также замечания о скорости и полезности такого «игрушечного» кода.
  • Упомянули полезные ссылки: оригинальную статью Маккарти, объяснение Грэма, описание semi-space GC от Andy Wingo.
  • Некоторые участники поделились личными впечатлениями о создателе Odin и культуре обсуждений вокруг языка.

Best Practices for Building Agentic AI Systems (userjot.com)

Двухуровневая модель

Основной агент ведёт диалог, помнит контекст, раздаёт задачи.
Под-агенты — чистые функции: получили вход, вернули результат, забыли всё.
Больше двух уровней — лишние точки отказа.

Под-агенты без состояния

Каждый вызов — как вызов функции:

  • одинаковый вход → одинаковый выход
  • легко кешировать, тестировать, запускать параллельно
    Пример сообщения:
{"task": "sentiment", "data": [...], "constraints": {"timeout": 5}}

Разбиение задач

  • Вертикальное: последовательные шаги (сбор → извлечение → сравнение).
  • Горизонтальное: параллельные ветки (исследовать 5 конкурентов одновременно).
    Смешиваем: сначала параллельная категоризация фидбека, потом последовательная приоритизация.

Протокол общения

Каждая команда содержит:

  • цель, входные данные, ограничения, формат вывода.
    Ответ: status, result, confidence, processing_time.
    Болтовни и «помни, что мы обсуждали» — нет.

Специализация агентов

  • Research — поиск по базе фидбека.
  • Analysis — извлечение тем и настроений.
  • Summary — генерация отчётов и changelog.
    Один агент = одна чёткая функция.

Оркестрация

  • Round-robin — когда порядок важен.
  • Priority queue — сначала критичные фидбеки.
  • Fan-out/fan-in — параллельные под-агенты, потом сбор результатов.
    Состояние хранит только основной агент; под-агенты не знают о существовании друг друга.

Управление контекстом

  • Сжатие: оставляем только релевантные куски.
  • Слайды: отправляем под-агенту только нужную подборку.
  • Версионирование: каждый результат имеет id, чтобы легко откатиться.

Обработка ошибок

  • Повторы с экспоненциальной задержкой (до 3 раз).
  • Fallback-агенты: если «анализатор» упал, включаем «резервный».
  • Circuit breaker: после N ошибок отключаем агента и пишем алерт.

Производительность

  • Кешируем по хешу запроса.
  • Параллельные вызовы без блокировок.
  • Пакетная обработка: отправляем 50 фидбеков за раз, а не по одному.

Мониторинг

Отслеживаем:

  • latency под-агентов,
  • точность (сравниваем с разметкой),
  • частота ошибок,
  • объём контекста (токенов).
    Всё пишем в Prometheus + Grafana.

Уроки из продакшена

  • Начинайте с 2–3 под-агентов, добавляйте постепенно.
  • Пишите юнит-тесты для каждого под-агента.
  • Не давайте агентам доступ к внешним API без rate-limit.
  • Держите промпты в git; версионируйте как код.

Принципы

  1. Простота > масштаб.
  2. Чистые функции > разделяемое состояние.
  3. Структурированные сообщения > свободный текст.
  4. Мониторинг с первого дня > дебаг в проде.

Частые ошибки

  • «Умные» под-агенты с памятью → гонки и непредсказуемость.
  • Слишком большой контекст → таймауты и лишние токены.
  • Отсутствие таймаутов → зависшие цепочки.
  • Игнорирование кеширования → лишние $$$ на API.

Как начать

  1. Определите 1–2 ключевые задачи (например, «суммаризировать фидбек»).
  2. Создайте под-агентов: research, summarize.
  3. Напишите структурированные схемы входа/выхода.
  4. Покройте тестами, добавьте метрики.
  5. Подключите к реальному потоку данных и наблюдайте.

by vinhnx • 16 августа 2025 г. в 02:39 • 135 points

ОригиналHN

#llm#agents#cloud#aws#lambda#prometheus#grafana#monitoring#microservices#workflow

Комментарии (62)

  • Автор делится опытом построения практичных «агентов» как чистых функций без состояния и истории разговоров, что экономит токены и упрощает отладку.
  • Поддержка: дешёвые/локальные модели на 75 % задач, жёсткое разбиение на под-агентов, явное описание шагов вместо «умных» решений.
  • Критика: часть читателей считает описанное не настоящим агентством, а обычным workflow с LLM-вызовами; стиль текста вызывает раздражение как «AI-generated».
  • Практические инструменты: Claude Code (файлы .claude/agents), AWS Lambda + Step Functions, Spring AI, кеширование промптов.
  • Сообщество обсуждает, где грань между «агентом» и «инструментом», просит примеров и данных, а также делится ссылкой на оригинальный пост Anthropic.