Комментарии (75)
- Критики: нестабильность картинки между кадрами, высокие затраты, бессмысленность по сравнению с обычными движками.
- Плюсы: экономия энергии за счёт «запечённого» освещения, возможность менять стиль на лету, потенциал для доступности и бесконечного контента.
- Технические идеи: запуск генерации локально, гибридные схемы «AI + традиционный рендер», маскированный инпейнтинг для стабильности.
- Настроения: от «это просто весёлая демка» до «дистопия в реальном времени», но большинство сходится — пока это скорее интересный эксперимент, чем готовая замена движкам.
Charting Form Ds to roughly see the state of venture capital “fund” raising
-
График 1 показывает количество Form D, где название юрлица содержит «Fund I–IV». Пик «Fund I» пришёлся на 3-й кв. 2022, затем резкое падение. Это косвенный индикатор рынка венчурных фондов: каждый фонд обычно оформляется отдельной сущностью.
-
Что это значит
- Соотношение фондов по номерам даёт представление о доле венчурных фирм, доживающих до следующего раунда.
- Венчурное финансирование вот-вот рухнет.
-
Почему взрыв произошёл в 2020–2022
- Нулевые ставки: пенсии, эндаументы и богатые частники искали доходность → VC стал модным активом.
- Появились «SPV-as-a-Service» (AngelList, Sydecar), которые за пару кликов помогали собрать фонд без собственного бэк-офиса. График 2: их Form D тоже взлетели в 2021 и упали в 2023.
-
Почему последствия ощутимы сейчас
- Фонд живёт ~10 лет, фаза деплоя капитала — 2–4 года.
- Мы только что вышли из пика доступных денег.
- Одновременно взлетели ожидания от AI-стартапов, но «свежих» денег в фондах уже не осталось.
Комментарии (67)
- Анализ по форме «Fund I/II…» фиксирует не только VC-фонды, а все приватные структуры (PE, RE, кредитные и хедж-фонды), поэтому данные нуждаются в фильтрации.
- Рост 2021-2022 был искусственным: дешёвые деньги, нулевые ставки, VCs «впаривали» деньги стартапам; теперь рынок остывает, и многие компании столкнутся с переоценкой.
- Часть «Fund I» — это одноактивные SPV, а не полноценные фонды, что искажает картину; также возможны двойные подсчёты и изменения в правилах SEC.
- Объём венчурных вложений действительно снижается, но число новых стартапов пока не падает; рынок переходит к «золотому веку билдеров» с низкими COGS и дешёвыми LLM-продуктами.
- В целом, коррекция воспринимается как здоровая: уйдут слабые компании, освободятся разработчики, но зарплаты могут просесть, а ликвидность всё чаще останется в приватном секторе.
The Math Behind GANs (2020)
GAN: математика в двух словах
- Модели: генератор
G(z)и дискриминаторD(x)играют в минимакс-игру. - Обозначения:
x– реальные данные,z– скрытый вектор,D(x)– вероятность «реальности». - Функции ошибок
- Дискриминатор:
L_D = –[log D(x) + log(1 – D(G(z)))](минимизирует). - Генератор:
L_G = –log D(G(z))(хочетD(G(z)) ≈ 1).
- Дискриминатор:
- Оптимизация
- Фиксируем
G, обучаемD, максимизируяlog D(x) + log(1 – D(G(z))). - Фиксируем
D, обучаемG, минимизируяlog(1 – D(G(z)))(или максимизируяlog D(G(z))– стабильнее).
- Фиксируем
- Итог: игра
min_G max_D [log D(x) + log(1 – D(G(z)))]сводится к минимизации расстояния JS между реальным и сгенерированным распределениями.
Комментарии (26)
- Для многоклассовых задач GAN лучше подавать классы как side-information, а не встраивать в основную цель.
- GAN «древние», но всё ещё живы: обучают VAE/VQ-VAE для латентных пространств diffusion-моделей и добавляют adversarial-loss в декодеры.
- Сами архитектуры меняются, а adversarial-training как метод остаётся релевантным, хотя diffusion сейчас предпочтительнее из-за стабильности.
- Главная проблема GAN — нестабильность и mode collapse, поэтому их чаще используют как небольшую регуляризацию, а не для полной генерации.
- Знание GAN всё ещё полезно для вдохновения и понимания истории нейросетей, даже если вы не собираетесь их тренировать с нуля.
Important machine learning equations 🔥 Горячее
Байес
$$P(A|B)=\frac{P(B|A)P(A)}{P(B)}$$ Обновляем вероятность гипотезы при новых данных.
def bayes(p_d, p_t_d, p_t_nd):
p_t = p_t_d*p_d + p_t_nd*(1-p_d)
return p_t_d*p_d / p_t
Энтропия
$$H(X)=-\sum_x P(x)\log P(x)$$ Измеряем неопределённость распределения.
import numpy as np
H = lambda p: -np.sum(p*np.log(p, where=p>0))
KL-дивергенция
$$D_{\text{KL}}(P|Q)=\sum_x P(x)\log\frac{P(x)}{Q(x)}$$ Сколько бит «лишних» нужно, если вместо истинного распределения $P$ использовать $Q$.
Кросс-энтропия
$$H(P,Q)=-\sum_x P(x)\log Q(x)$$ Используется как лосс в классификации.
Линейная алгебра
Линейное преобразование
$$\mathbf{y}=A\mathbf{x}$$ Матрица $A$ переводит вектор $\mathbf{x}$ в пространство признаков.
Собственные значения и векторы
$$A\mathbf{v}=\lambda\mathbf{v}$$ Направления, вдоль которых преобразование лишь растягивает/сжимает.
SVD
$$A=U\Sigma V^\top$$ Разложение на ортогональные и диагональные матрицы; основа PCA и рекомендательных систем.
Оптимизация
Градиентный спуск
$$\theta_{t+1}=\theta_t-\eta\nabla_\theta J(\theta)$$ Шагаем против градиента, чтобы минимизировать функцию потерь $J$.
Backprop
$$\frac{\partial L}{\partial W^{(l)}}=\delta^{(l)}(a^{(l-1)})^\top$$ Цепное правило для обучения нейросетей.
Функции потерь
MSE
$$\text{MSE}=\frac{1}{n}\sum_i (y_i-\hat y_i)^2$$ Классика регрессии.
Кросс-энтропия
$$L=-\sum_i y_i\log \hat y_i$$ Стандарт для классификации.
Продвинутые темы
Диффузия
$$q(x_t|x_{t-1})=\mathcal N(x_t;\sqrt{1-\beta_t}x_{t-1},\beta_t I)$$ Постепенное добавление шума и обратное восстановление.
Свертка
$$(f*g)[n]=\sum_m f[m]g[n-m]$$ Извлечение локальных паттернов в CNN.
Softmax
$$\text{softmax}(z_i)=\frac{e^{z_i}}{\sum_j e^{z_j}}$$ Превращает логиты в вероятности.
Attention
$$\text{Attention}(Q,K,V)=\text{softmax}\left(\frac{QK^\top}{\sqrt d_k}\right)V$$ Взвешенная сумма значений по релевантности запроса и ключей.
Краткий конспект ключевых уравнений ML: от вероятностей до трансформеров, с кодом и интуицией.
Комментарии (26)
- @dkislyuk и @morleytj критикуют формат «списка формул» без связного объяснения и советуют читать оригинальную теорию Шеннона.
- @cl3misch нашёл баг в коде энтропии из-за неинициализированных значений и несоответствие формулы кросс-энтропии.
- @dawnofdusk и @cgadski хвалят полноту материала как удобную шпаргалку для быстрого погружения.
- @bee_rider и @calebkaiser обсуждают применение сингулярных чисел и собственных значений в LLM и LoRA.
Комментарии (28)
- Род Lactobacillus расщеплён на новые гены; Lactiplantibacillus plantarum (штамм lp299v) — главный микроб для силоса, квашеной капусты и кимчи.
- Он вырабатывает жирнокислотный метаболит 10-HSA, который защищает печень от афлатоксинов и, вероятно, помогает при NAFLD.
- Коммерческий штамм lp299v безопасен в высоких дозах, но не колонизирует кишечник надолго.
- Обсуждали, что проще принимать сам 10-HSA, чем ждать колонизации, а также упоминали кефир, макколли и традиционные ферментированные продукты как источники бактерии.
Fossjobs: A job board for Free and Open Source jobs
fossjobs.net — доска вакансий только с оплачиваемой работой в FOSS и open-hardware проектах. Размещение бесплатно; присылайте вакансии через форму или на submit@fossjobs.net.
Последние вакансии
- Technology Assessor — NLnet Foundation, Амстердам, полная ставка
- Senior Software Engineer (Wikibase Suite) — Wikimedia Deutschland, Германия, полная ставка
- Deputy Director — Free Software Foundation, Бостон, полная ставка
- Operations Assistant — Free Software Foundation, США, частичная ставка
- Руководитель консалтинга и техподдержки — NetKnights, Кассель, полная ставка
- IT-проект-менеджер для НКО — SYSTOPIA, Бонн, полная ставка
- Senior Developer (12 мес.) — Mautic, удалённо, полная ставка
География: Германия (3), США (2), Нидерланды (1), удалённо (1).
Комментарии (29)
- Участники рады, что список вакансий посвящён FOSS, но отмечают его скудность и устаревание.
- Предупреждение: стартапы на VC, чей «флагман» — OSS, часто сокращают ресурсы и ограничивают функции.
- Критика: зарплаты в Германии низкие (≈50 к€), а отсутствие указанных диапазонов зарплаты делает сайт «только для работодателей».
- Обсуждение формулировки «all genders» в немецких вакансиях: в немецком слово «Softwareentwickler» имеет грамматический род, поэтому добавляют пояснение.
- Подсказки: вакансии FOSS часто публикуются в IRC, рассылках проектов и на Mastodon @fossjobs@floss.social.
Комментарии (86)
- Онлайн-петиции против политики Google называют бесполезными «слактивизмом» и отвлекающими от реальных действий.
- Разработчики обсуждают уход с Play Store, переход на альтернативные OS (GrapheneOS, Jolla) и развитие веб-приложений.
- Главная надежда — регуляторы: EU (DMA, CRA) и антимонопольные органы, а не просьбы к самому Google.
- Google, по мнению участников, заранее рассчитал на негатив, но может ошибиться в масштабе ответа.
Are OpenAI and Anthropic losing money on inference? 🔥 Горячее 💬 Длинная дискуссия
- Тезис: утверждение «OpenAI и Anthropic теряют деньги на инференсе» — сильно преувеличено.
- Метод: считаем только «сырой» H100-компьют за $2/час, игнорируем всё остальное.
- Кластер: 72 H100 → $144/час. 8-GPU инстанс × 9 = 288 параллельных запросов.
Пропускная способность
- Prefill (вход): 1,44 млн токенов/с на инстанс → 46,8 млрд токенов/час.
- Decode (выход): 1 440 токенов/с на инстанс → 46,7 млн токенов/час.
Цена за токен
- Вход: $0,003/млн токенов (почти даром).
- Выход: $3/млн токенов (реальные деньги).
Почему ограничивают контекст
- При >128 k токенов вычисления становятся compute-bound → цена вырастает 2–10×.
- Поэтому Claude Code режет контекст до 200 k: дешевле.
Пользовательская экономика
- ChatGPT Pro $20/мес при 100 k токенов/день: себестоимость ≈ $3/мес → маржа 5–6×.
Комментарии (438)
- Математика статьи критикуется: расчёт пропускной способности префилла завышен минимум в 1000 раз, а достигаемая MFU превышает физический предел GPU.
- Участники соглашаются, что «чистая» инференс-операция, без учёта затрат на обучение, может быть прибыльной: Сам Альтман, данные The Information и Epoch AI указывают на gross margin 50–60 %.
- Основные оговорки: в расчётах не учтены downtime, кэширование, спекулятивное декодирование, KV-cache, а также различия в эффективности между DeepSeek R1 и закрытыми моделями OpenAI/Anthropic.
- Некоторые стартапы (Cursor, Perplexity) уже страдают от отрицательной маржи из-за дорогих токенов, что подчеркивает разрыв между «оптовой» и «розничной» экономикой.
- Общий вывод: инференс в вакууме может быть прибыльным, но полная экономика включает обучение, idle-оборудование и кросс-субсидирование, поэтому точные цифры известны только самим компаниям.
Комментарии (85)
- Phison не смог воспроизвести проблему, а Microsoft молчит и не публикует детали.
- Нет ясной технической картины: анекдоты множатся, но SMART-данных и логов нет.
- Неясно, «убивает» ли обновление SSD физически или просто портит данные.
- Пользователи обсуждают ответственность Microsoft и риски откладывать обновления.
- Некоторые советуют LTSC-версии Windows или Linux, другие — вообще не обновляться.
Claude Code Checkpoints
Что это
Приложение для macOS, которое автоматически сохраняет «точки восстановления» проектов Claude Code. Если что-то пошло не так — один клик и вы вернулись к рабочей версии.
Как работает
- Выберите папку проекта.
- Продолжайте кодить — изменения отслеживаются сами.
- При завершении задачи создаётся контрольная точка.
- В любой момент можно откатиться или посмотреть diff.
Основное
- Авто-обнаружение изменений — без настройки.
- Визуальный diff — видно, что добавлено, удалено, изменено.
- Полное резервное копирование — каждая точка = весь проект.
- MCP-интеграция — Claude Desktop сам создаёт точки при
task completed. - macOS 13.5+, бесплатно.
Команды MCP
update_task_status("task", "completed") # контрольная точка
restore_checkpoint("id") # откат
Скачать
Mac App Store
Комментарии (99)
- Пользователи спорят, нужен ли отдельный инструмент для «чекпойнтов» в Claude Code: одни советуют Jujutsu или обычный git, другие хотят встроенную функцию «откатить и код, и контекст».
- Разработчик подтверждает, что под капотом используется git в скрытой папке
.claudecheckpoints, чтобы не пачкать основной репозиторий. - Некоторые считают задачу надуманной: достаточно добавить в
CLAUDE.mdправило «делай git-commit после каждого изменения» или пользоваться Cursor/Aider. - Критика UI и стабильности: зависания, лишние кнопки, «vibe-coded» дизайн.
- Общий вывод: пока Claude Code не добавит родные чекпойнты, такие сторонние обёртки имеют смысл, но рискуют стать ненужными после одного обновления самого Claude.