Hacker News Digest

28 августа 2025 г. в 11:42 • jaketae.github.io • ⭐ 124 • 💬 26

OriginalHN

#gan#deep-learning#neural-networks#adversarial-training#generative-models#machine-learning

The Math Behind GANs (2020)

GAN: математика в двух словах

  • Модели: генератор G(z) и дискриминатор D(x) играют в минимакс-игру.
  • Обозначения:
    x – реальные данные, z – скрытый вектор, D(x) – вероятность «реальности».
  • Функции ошибок
    • Дискриминатор: L_D = –[log D(x) + log(1 – D(G(z)))] (минимизирует).
    • Генератор: L_G = –log D(G(z)) (хочет D(G(z)) ≈ 1).
  • Оптимизация
    1. Фиксируем G, обучаем D, максимизируя log D(x) + log(1 – D(G(z))).
    2. Фиксируем D, обучаем G, минимизируя log(1 – D(G(z))) (или максимизируя log D(G(z)) – стабильнее).
  • Итог: игра min_G max_D [log D(x) + log(1 – D(G(z)))] сводится к минимизации расстояния JS между реальным и сгенерированным распределениями.