SynthID – A tool to watermark and identify content generated through AI
- Gemini
- 2.5 Pro, Flash, Flash Image, Flash-Lite — самые мощные модели
- Gemma
- Gemma 3, 3n и ShieldGemma 2 — лёгкие open-модели
- Генеративные модели
- Imagen, Lyria, Veo — картинки, музыка, видео
- Эксперименты
- Project Astra, Mariner, Gemini Diffusion — прототипы
- Исследования
- Проекты, публикации, новости
- Наука с ИИ
- Биология: AlphaFold, AlphaGenome, AlphaMissense, AlphaProteo
- Климат: WeatherNext, Weather Lab
- Математика: AlphaEvolve, AlphaProof, AlphaGeometry
- Физика/химия: GNoME, Fusion, AlphaQubit
- Прозрачность: SynthID — водяные знаки для ИИ-контента
- О нас
- Новости, карьера, вехи, образование, безопасность, подкаст
Комментарии (65)
- SynthID встрачивает невидимый водяной знак, меняя вероятности токенов при генерации текста.
- Критика: одиночный фрагмент не детектируется, легко обойти конкурентами, редактирование/шум ломает метку.
- Пользователи опасаются потери приватности и ложных срабатываний; спор о том, нужно ли вообще помечать AI-контент.
- Предложены альтернативы: цифровые подписи авторов, C2PA, open-source-детекторы.
- Обсуждается «гонка вооружений» между генераторами и детекторами, а также возможное регулирование.
The Math Behind GANs (2020)
GAN: математика в двух словах
- Модели: генератор
G(z)
и дискриминаторD(x)
играют в минимакс-игру. - Обозначения:
x
– реальные данные,z
– скрытый вектор,D(x)
– вероятность «реальности». - Функции ошибок
- Дискриминатор:
L_D = –[log D(x) + log(1 – D(G(z)))]
(минимизирует). - Генератор:
L_G = –log D(G(z))
(хочетD(G(z)) ≈ 1
).
- Дискриминатор:
- Оптимизация
- Фиксируем
G
, обучаемD
, максимизируяlog D(x) + log(1 – D(G(z)))
. - Фиксируем
D
, обучаемG
, минимизируяlog(1 – D(G(z)))
(или максимизируяlog D(G(z))
– стабильнее).
- Фиксируем
- Итог: игра
min_G max_D [log D(x) + log(1 – D(G(z)))]
сводится к минимизации расстояния JS между реальным и сгенерированным распределениями.
Комментарии (26)
- Для многоклассовых задач GAN лучше подавать классы как side-information, а не встраивать в основную цель.
- GAN «древние», но всё ещё живы: обучают VAE/VQ-VAE для латентных пространств diffusion-моделей и добавляют adversarial-loss в декодеры.
- Сами архитектуры меняются, а adversarial-training как метод остаётся релевантным, хотя diffusion сейчас предпочтительнее из-за стабильности.
- Главная проблема GAN — нестабильность и mode collapse, поэтому их чаще используют как небольшую регуляризацию, а не для полной генерации.
- Знание GAN всё ещё полезно для вдохновения и понимания истории нейросетей, даже если вы не собираетесь их тренировать с нуля.