Hacker News Digest

Тег: #generative-models

Постов: 2

SynthID – A tool to watermark and identify content generated through AI (deepmind.google)

  • Gemini
    • 2.5 Pro, Flash, Flash Image, Flash-Lite — самые мощные модели
  • Gemma
    • Gemma 3, 3n и ShieldGemma 2 — лёгкие open-модели
  • Генеративные модели
    • Imagen, Lyria, Veo — картинки, музыка, видео
  • Эксперименты
    • Project Astra, Mariner, Gemini Diffusion — прототипы

  • Исследования
    • Проекты, публикации, новости

  • Наука с ИИ
    • Биология: AlphaFold, AlphaGenome, AlphaMissense, AlphaProteo
    • Климат: WeatherNext, Weather Lab
    • Математика: AlphaEvolve, AlphaProof, AlphaGeometry
    • Физика/химия: GNoME, Fusion, AlphaQubit
    • Прозрачность: SynthID — водяные знаки для ИИ-контента

  • О нас
    • Новости, карьера, вехи, образование, безопасность, подкаст

by jonbaer • 30 августа 2025 г. в 03:29 • 78 points

ОригиналHN

#gemini#gemma#generative-models#imagen#lyria#veo#alphafold#llm#synthid#watermarking

Комментарии (65)

  • SynthID встрачивает невидимый водяной знак, меняя вероятности токенов при генерации текста.
  • Критика: одиночный фрагмент не детектируется, легко обойти конкурентами, редактирование/шум ломает метку.
  • Пользователи опасаются потери приватности и ложных срабатываний; спор о том, нужно ли вообще помечать AI-контент.
  • Предложены альтернативы: цифровые подписи авторов, C2PA, open-source-детекторы.
  • Обсуждается «гонка вооружений» между генераторами и детекторами, а также возможное регулирование.

The Math Behind GANs (2020) (jaketae.github.io)

GAN: математика в двух словах

  • Модели: генератор G(z) и дискриминатор D(x) играют в минимакс-игру.
  • Обозначения:
    x – реальные данные, z – скрытый вектор, D(x) – вероятность «реальности».
  • Функции ошибок
    • Дискриминатор: L_D = –[log D(x) + log(1 – D(G(z)))] (минимизирует).
    • Генератор: L_G = –log D(G(z)) (хочет D(G(z)) ≈ 1).
  • Оптимизация
    1. Фиксируем G, обучаем D, максимизируя log D(x) + log(1 – D(G(z))).
    2. Фиксируем D, обучаем G, минимизируя log(1 – D(G(z))) (или максимизируя log D(G(z)) – стабильнее).
  • Итог: игра min_G max_D [log D(x) + log(1 – D(G(z)))] сводится к минимизации расстояния JS между реальным и сгенерированным распределениями.

by sebg • 28 августа 2025 г. в 11:42 • 124 points

ОригиналHN

#gan#deep-learning#neural-networks#adversarial-training#generative-models#machine-learning

Комментарии (26)

  • Для многоклассовых задач GAN лучше подавать классы как side-information, а не встраивать в основную цель.
  • GAN «древние», но всё ещё живы: обучают VAE/VQ-VAE для латентных пространств diffusion-моделей и добавляют adversarial-loss в декодеры.
  • Сами архитектуры меняются, а adversarial-training как метод остаётся релевантным, хотя diffusion сейчас предпочтительнее из-за стабильности.
  • Главная проблема GAN — нестабильность и mode collapse, поэтому их чаще используют как небольшую регуляризацию, а не для полной генерации.
  • Знание GAN всё ещё полезно для вдохновения и понимания истории нейросетей, даже если вы не собираетесь их тренировать с нуля.