Hacker News Digest

Тег: #data-sharing

Постов: 2

Комментарии (68)

  • Дискуссия вращается вокруг того, кто несёт ответственность за защиту персональных данных: компания, которая собирает данные, или исследователи, которые хотят получить к ним доступ.
  • Участники подчеркивают, что Cambridge Analytica начиналась как «исследовательский» запрос, и что в конечном счёте именно компаниям придётся нести ответственность за злоупотребление данными.
  • Поднимается вопрос о том, что если правовая рамка не предусматривает чёткого механизма обмена данными и защиты, то может ли быть этически оправдано, чтобы компании просто отказались предоставлять доступ к данным, даже если это означает нарушение закона.
  • Обсуждается, что если данные собираются в рамках американских компаний, то они могут быть использованы для влияния на выборах, и это вызывает вопрос о том, кто должен нести ответственность за последствия такого использования данных.

Updates to Consumer Terms and Privacy Policy (anthropic.com) 🔥 Горячее 💬 Длинная дискуссия

Краткое содержание обновлений

  • Новая опция: пользователи Free, Pro, Max и Claude Code могут разрешить использовать их данные для обучения моделей и повышения безопасности.
  • Как включить: новые — при регистрации, старые — всплывающее окно до 28 сентября 2025. После этой даты выбор обязателен для продолжения работы.
  • Срок хранения: при согласии — 5 лет (только новые/возобновлённые чаты); без согласия — 30 дней. Удалённые диалоги не используются.
  • Не касается: Claude for Work, API, Bedrock, Vertex AI, Claude Gov, Claude for Education.
  • Контроль: настройку можно изменить в любой момент → Privacy Settings.
  • Конфиденциальность: данные не продаются, чувствительная информация фильтруется и обезличивается.

by porridgeraisin • 29 августа 2025 г. в 11:29 • 710 points

ОригиналHN

#anthropic#claude#privacy#data-sharing#machine-learning

Комментарии (484)

  • Anthropic начала использовать чаты пользователей для дообучения моделей по умолчанию; отключить можно до 28 сентября через настройки.
  • Многие считают это предательством доверия, отмечают тёмный паттерн в интерфейсе и отменяют подписки.
  • Основная тревога: неопубликованные идеи, приватный код и личные данные могут попасть в обучающую выборку и «утечь» к другим.
  • Часть пользователей не удивлена: все крупные игроки уже используют любые доступные данные, а прорывов в архитектуре нет.
  • Есть и противоположное мнение: «если честно предупредили — нормально», и предложения ввести «инкогнито-режим» или локальную обработку.