Hacker News Digest

Обновлено: 28 ноября 2025 г. в 08:55

Постов: 4635 • Страница 359/464

Rendering a Game in Real-Time with AI (blog.jeffschomay.com)

by jschomay • 28 августа 2025 г. в 12:10 • 90 points

ОригиналHN

#llm#real-time-rendering#game-development#graphics#3d-rendering

Комментарии (75)

  • Критики: нестабильность картинки между кадрами, высокие затраты, бессмысленность по сравнению с обычными движками.
  • Плюсы: экономия энергии за счёт «запечённого» освещения, возможность менять стиль на лету, потенциал для доступности и бесконечного контента.
  • Технические идеи: запуск генерации локально, гибридные схемы «AI + традиционный рендер», маскированный инпейнтинг для стабильности.
  • Настроения: от «это просто весёлая демка» до «дистопия в реальном времени», но большинство сходится — пока это скорее интересный эксперимент, чем готовая замена движкам.

Charting Form Ds to roughly see the state of venture capital “fund” raising (tj401.com)

  • График 1 показывает количество Form D, где название юрлица содержит «Fund I–IV». Пик «Fund I» пришёлся на 3-й кв. 2022, затем резкое падение. Это косвенный индикатор рынка венчурных фондов: каждый фонд обычно оформляется отдельной сущностью.

  • Что это значит

    1. Соотношение фондов по номерам даёт представление о доле венчурных фирм, доживающих до следующего раунда.
    2. Венчурное финансирование вот-вот рухнет.
  • Почему взрыв произошёл в 2020–2022

    • Нулевые ставки: пенсии, эндаументы и богатые частники искали доходность → VC стал модным активом.
    • Появились «SPV-as-a-Service» (AngelList, Sydecar), которые за пару кликов помогали собрать фонд без собственного бэк-офиса. График 2: их Form D тоже взлетели в 2021 и упали в 2023.
  • Почему последствия ощутимы сейчас

    • Фонд живёт ~10 лет, фаза деплоя капитала — 2–4 года.
    • Мы только что вышли из пика доступных денег.
    • Одновременно взлетели ожидания от AI-стартапов, но «свежих» денег в фондах уже не осталось.

by lemonlym • 28 августа 2025 г. в 11:51 • 154 points

ОригиналHN

#venture-capital#private-equity#hedge-funds#sec#startups#llm

Комментарии (67)

  • Анализ по форме «Fund I/II…» фиксирует не только VC-фонды, а все приватные структуры (PE, RE, кредитные и хедж-фонды), поэтому данные нуждаются в фильтрации.
  • Рост 2021-2022 был искусственным: дешёвые деньги, нулевые ставки, VCs «впаривали» деньги стартапам; теперь рынок остывает, и многие компании столкнутся с переоценкой.
  • Часть «Fund I» — это одноактивные SPV, а не полноценные фонды, что искажает картину; также возможны двойные подсчёты и изменения в правилах SEC.
  • Объём венчурных вложений действительно снижается, но число новых стартапов пока не падает; рынок переходит к «золотому веку билдеров» с низкими COGS и дешёвыми LLM-продуктами.
  • В целом, коррекция воспринимается как здоровая: уйдут слабые компании, освободятся разработчики, но зарплаты могут просесть, а ликвидность всё чаще останется в приватном секторе.

The Math Behind GANs (2020) (jaketae.github.io)

GAN: математика в двух словах

  • Модели: генератор G(z) и дискриминатор D(x) играют в минимакс-игру.
  • Обозначения:
    x – реальные данные, z – скрытый вектор, D(x) – вероятность «реальности».
  • Функции ошибок
    • Дискриминатор: L_D = –[log D(x) + log(1 – D(G(z)))] (минимизирует).
    • Генератор: L_G = –log D(G(z)) (хочет D(G(z)) ≈ 1).
  • Оптимизация
    1. Фиксируем G, обучаем D, максимизируя log D(x) + log(1 – D(G(z))).
    2. Фиксируем D, обучаем G, минимизируя log(1 – D(G(z))) (или максимизируя log D(G(z)) – стабильнее).
  • Итог: игра min_G max_D [log D(x) + log(1 – D(G(z)))] сводится к минимизации расстояния JS между реальным и сгенерированным распределениями.

by sebg • 28 августа 2025 г. в 11:42 • 124 points

ОригиналHN

#gan#deep-learning#neural-networks#adversarial-training#generative-models#machine-learning

Комментарии (26)

  • Для многоклассовых задач GAN лучше подавать классы как side-information, а не встраивать в основную цель.
  • GAN «древние», но всё ещё живы: обучают VAE/VQ-VAE для латентных пространств diffusion-моделей и добавляют adversarial-loss в декодеры.
  • Сами архитектуры меняются, а adversarial-training как метод остаётся релевантным, хотя diffusion сейчас предпочтительнее из-за стабильности.
  • Главная проблема GAN — нестабильность и mode collapse, поэтому их чаще используют как небольшую регуляризацию, а не для полной генерации.
  • Знание GAN всё ещё полезно для вдохновения и понимания истории нейросетей, даже если вы не собираетесь их тренировать с нуля.

Important machine learning equations (chizkidd.github.io) 🔥 Горячее

Байес

$$P(A|B)=\frac{P(B|A)P(A)}{P(B)}$$ Обновляем вероятность гипотезы при новых данных.

def bayes(p_d, p_t_d, p_t_nd):
    p_t = p_t_d*p_d + p_t_nd*(1-p_d)
    return p_t_d*p_d / p_t

Энтропия

$$H(X)=-\sum_x P(x)\log P(x)$$ Измеряем неопределённость распределения.

import numpy as np
H = lambda p: -np.sum(p*np.log(p, where=p>0))

KL-дивергенция

$$D_{\text{KL}}(P|Q)=\sum_x P(x)\log\frac{P(x)}{Q(x)}$$ Сколько бит «лишних» нужно, если вместо истинного распределения $P$ использовать $Q$.

Кросс-энтропия

$$H(P,Q)=-\sum_x P(x)\log Q(x)$$ Используется как лосс в классификации.

Линейная алгебра

Линейное преобразование

$$\mathbf{y}=A\mathbf{x}$$ Матрица $A$ переводит вектор $\mathbf{x}$ в пространство признаков.

Собственные значения и векторы

$$A\mathbf{v}=\lambda\mathbf{v}$$ Направления, вдоль которых преобразование лишь растягивает/сжимает.

SVD

$$A=U\Sigma V^\top$$ Разложение на ортогональные и диагональные матрицы; основа PCA и рекомендательных систем.

Оптимизация

Градиентный спуск

$$\theta_{t+1}=\theta_t-\eta\nabla_\theta J(\theta)$$ Шагаем против градиента, чтобы минимизировать функцию потерь $J$.

Backprop

$$\frac{\partial L}{\partial W^{(l)}}=\delta^{(l)}(a^{(l-1)})^\top$$ Цепное правило для обучения нейросетей.

Функции потерь

MSE

$$\text{MSE}=\frac{1}{n}\sum_i (y_i-\hat y_i)^2$$ Классика регрессии.

Кросс-энтропия

$$L=-\sum_i y_i\log \hat y_i$$ Стандарт для классификации.

Продвинутые темы

Диффузия

$$q(x_t|x_{t-1})=\mathcal N(x_t;\sqrt{1-\beta_t}x_{t-1},\beta_t I)$$ Постепенное добавление шума и обратное восстановление.

Свертка

$$(f*g)[n]=\sum_m f[m]g[n-m]$$ Извлечение локальных паттернов в CNN.

Softmax

$$\text{softmax}(z_i)=\frac{e^{z_i}}{\sum_j e^{z_j}}$$ Превращает логиты в вероятности.

Attention

$$\text{Attention}(Q,K,V)=\text{softmax}\left(\frac{QK^\top}{\sqrt d_k}\right)V$$ Взвешенная сумма значений по релевантности запроса и ключей.


Краткий конспект ключевых уравнений ML: от вероятностей до трансформеров, с кодом и интуицией.

by sebg • 28 августа 2025 г. в 11:38 • 265 points

ОригиналHN

#machine-learning#python#numpy#linear-algebra#optimization#deep-learning#probability#statistics#transformers#convolutional-neural-networks

Комментарии (26)

  • @dkislyuk и @morleytj критикуют формат «списка формул» без связного объяснения и советуют читать оригинальную теорию Шеннона.
  • @cl3misch нашёл баг в коде энтропии из-за неинициализированных значений и несоответствие формулы кросс-энтропии.
  • @dawnofdusk и @cgadski хвалят полноту материала как удобную шпаргалку для быстрого погружения.
  • @bee_rider и @calebkaiser обсуждают применение сингулярных чисел и собственных значений в LLM и LoRA.

Комментарии (28)

  • Род Lactobacillus расщеплён на новые гены; Lactiplantibacillus plantarum (штамм lp299v) — главный микроб для силоса, квашеной капусты и кимчи.
  • Он вырабатывает жирнокислотный метаболит 10-HSA, который защищает печень от афлатоксинов и, вероятно, помогает при NAFLD.
  • Коммерческий штамм lp299v безопасен в высоких дозах, но не колонизирует кишечник надолго.
  • Обсуждали, что проще принимать сам 10-HSA, чем ждать колонизации, а также упоминали кефир, макколли и традиционные ферментированные продукты как источники бактерии.

Fossjobs: A job board for Free and Open Source jobs (fossjobs.net)

fossjobs.net — доска вакансий только с оплачиваемой работой в FOSS и open-hardware проектах. Размещение бесплатно; присылайте вакансии через форму или на submit@fossjobs.net.

Последние вакансии

  • Technology Assessor — NLnet Foundation, Амстердам, полная ставка
  • Senior Software Engineer (Wikibase Suite) — Wikimedia Deutschland, Германия, полная ставка
  • Deputy Director — Free Software Foundation, Бостон, полная ставка
  • Operations Assistant — Free Software Foundation, США, частичная ставка
  • Руководитель консалтинга и техподдержки — NetKnights, Кассель, полная ставка
  • IT-проект-менеджер для НКО — SYSTOPIA, Бонн, полная ставка
  • Senior Developer (12 мес.) — Mautic, удалённо, полная ставка

География: Германия (3), США (2), Нидерланды (1), удалённо (1).

by rendx • 28 августа 2025 г. в 10:39 • 133 points

ОригиналHN

#free-and-open-source-software#open-hardware#job-board#wikibase#mautic#irc#mastodon#nlnet-foundation#wikimedia-deutschland#free-software-foundation

Комментарии (29)

  • Участники рады, что список вакансий посвящён FOSS, но отмечают его скудность и устаревание.
  • Предупреждение: стартапы на VC, чей «флагман» — OSS, часто сокращают ресурсы и ограничивают функции.
  • Критика: зарплаты в Германии низкие (≈50 к€), а отсутствие указанных диапазонов зарплаты делает сайт «только для работодателей».
  • Обсуждение формулировки «all genders» в немецких вакансиях: в немецком слово «Software­entwickler» имеет грамматический род, поэтому добавляют пояснение.
  • Подсказки: вакансии FOSS часто публикуются в IRC, рассылках проектов и на Mastodon @fossjobs@floss.social.

Комментарии (86)

  • Онлайн-петиции против политики Google называют бесполезными «слактивизмом» и отвлекающими от реальных действий.
  • Разработчики обсуждают уход с Play Store, переход на альтернативные OS (GrapheneOS, Jolla) и развитие веб-приложений.
  • Главная надежда — регуляторы: EU (DMA, CRA) и антимонопольные органы, а не просьбы к самому Google.
  • Google, по мнению участников, заранее рассчитал на негатив, но может ошибиться в масштабе ответа.

Are OpenAI and Anthropic losing money on inference? (martinalderson.com) 🔥 Горячее 💬 Длинная дискуссия

  • Тезис: утверждение «OpenAI и Anthropic теряют деньги на инференсе» — сильно преувеличено.
  • Метод: считаем только «сырой» H100-компьют за $2/час, игнорируем всё остальное.
  • Кластер: 72 H100 → $144/час. 8-GPU инстанс × 9 = 288 параллельных запросов.

Пропускная способность

  • Prefill (вход): 1,44 млн токенов/с на инстанс → 46,8 млрд токенов/час.
  • Decode (выход): 1 440 токенов/с на инстанс → 46,7 млн токенов/час.

Цена за токен

  • Вход: $0,003/млн токенов (почти даром).
  • Выход: $3/млн токенов (реальные деньги).

Почему ограничивают контекст

  • При >128 k токенов вычисления становятся compute-bound → цена вырастает 2–10×.
  • Поэтому Claude Code режет контекст до 200 k: дешевле.

Пользовательская экономика

  • ChatGPT Pro $20/мес при 100 k токенов/день: себестоимость ≈ $3/мес → маржа 5–6×.

by martinald • 28 августа 2025 г. в 10:15 • 470 points

ОригиналHN

#openai#anthropic#nvidia#gpu#machine-learning#llm#cloud-computing

Комментарии (438)

  • Математика статьи критикуется: расчёт пропускной способности префилла завышен минимум в 1000 раз, а достигаемая MFU превышает физический предел GPU.
  • Участники соглашаются, что «чистая» инференс-операция, без учёта затрат на обучение, может быть прибыльной: Сам Альтман, данные The Information и Epoch AI указывают на gross margin 50–60 %.
  • Основные оговорки: в расчётах не учтены downtime, кэширование, спекулятивное декодирование, KV-cache, а также различия в эффективности между DeepSeek R1 и закрытыми моделями OpenAI/Anthropic.
  • Некоторые стартапы (Cursor, Perplexity) уже страдают от отрицательной маржи из-за дорогих токенов, что подчеркивает разрыв между «оптовой» и «розничной» экономикой.
  • Общий вывод: инференс в вакууме может быть прибыльным, но полная экономика включает обучение, idle-оборудование и кросс-субсидирование, поэтому точные цифры известны только самим компаниям.

Windows 11 Update KB5063878 Causing SSD Failures (old.reddit.com)

by binwiederhier • 28 августа 2025 г. в 09:31 • 155 points

ОригиналHN

#windows-11#ssd#smart#linux#reddit

Комментарии (85)

  • Phison не смог воспроизвести проблему, а Microsoft молчит и не публикует детали.
  • Нет ясной технической картины: анекдоты множатся, но SMART-данных и логов нет.
  • Неясно, «убивает» ли обновление SSD физически или просто портит данные.
  • Пользователи обсуждают ответственность Microsoft и риски откладывать обновления.
  • Некоторые советуют LTSC-версии Windows или Linux, другие — вообще не обновляться.

Claude Code Checkpoints (claude-checkpoints.com)

Что это
Приложение для macOS, которое автоматически сохраняет «точки восстановления» проектов Claude Code. Если что-то пошло не так — один клик и вы вернулись к рабочей версии.

Как работает

  1. Выберите папку проекта.
  2. Продолжайте кодить — изменения отслеживаются сами.
  3. При завершении задачи создаётся контрольная точка.
  4. В любой момент можно откатиться или посмотреть diff.

Основное

  • Авто-обнаружение изменений — без настройки.
  • Визуальный diff — видно, что добавлено, удалено, изменено.
  • Полное резервное копирование — каждая точка = весь проект.
  • MCP-интеграция — Claude Desktop сам создаёт точки при task completed.
  • macOS 13.5+, бесплатно.

Команды MCP

update_task_status("task", "completed")  # контрольная точка
restore_checkpoint("id")                 # откат

Скачать
Mac App Store

by punnerud • 28 августа 2025 г. в 09:16 • 146 points

ОригиналHN

#macos#git#claudecode#mcp#backup#versioncontrol

Комментарии (99)

  • Пользователи спорят, нужен ли отдельный инструмент для «чекпойнтов» в Claude Code: одни советуют Jujutsu или обычный git, другие хотят встроенную функцию «откатить и код, и контекст».
  • Разработчик подтверждает, что под капотом используется git в скрытой папке .claudecheckpoints, чтобы не пачкать основной репозиторий.
  • Некоторые считают задачу надуманной: достаточно добавить в CLAUDE.md правило «делай git-commit после каждого изменения» или пользоваться Cursor/Aider.
  • Критика UI и стабильности: зависания, лишние кнопки, «vibe-coded» дизайн.
  • Общий вывод: пока Claude Code не добавит родные чекпойнты, такие сторонние обёртки имеют смысл, но рискуют стать ненужными после одного обновления самого Claude.